Facebook Pixel
Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Weapons of Math Destruction

Weapons of Math Destruction

How Big Data Increases Inequality and Threatens Democracy
توسط Cathy O'Neil 2016 259 صفحات
3.88
28k+ امتیازها
گوش دادن
گوش دادن

نکات کلیدی

1. الگوریتم‌های داده‌های کلان می‌توانند به سلاح‌های تخریب ریاضی (WMDs) تبدیل شوند

"من نامی برای این مدل‌های مضر پیدا کردم: سلاح‌های تخریب ریاضی، یا به اختصار WMDs."

تعریف WMDs. سلاح‌های تخریب ریاضی (WMDs) مدل‌های ریاضی یا الگوریتم‌هایی هستند که پتانسیل ایجاد آسیب‌های قابل توجه به افراد و جامعه را دارند. این مدل‌ها با سه ویژگی کلیدی شناخته می‌شوند:

  • عدم شفافیت: عملکرد داخلی مدل از دید کسانی که تحت تأثیر آن قرار می‌گیرند پنهان است
  • مقیاس: مدل بر تعداد زیادی از افراد تأثیر می‌گذارد
  • آسیب: مدل پیامدهای منفی برای افراد یا گروه‌ها دارد

تأثیر در دنیای واقعی. WMDs در حوزه‌های مختلفی یافت می‌شوند، از جمله:

  • آموزش (ارزیابی معلمان)
  • عدالت کیفری (پیش‌بینی بازگشت به جرم)
  • مالی (امتیازدهی اعتباری)
  • اشتغال (استخدام خودکار)
  • تبلیغات (تبلیغات هدفمند)

این الگوریتم‌ها، هرچند اغلب با نیت‌های خوب ایجاد می‌شوند، می‌توانند تعصبات را تداوم بخشند، نابرابری‌ها را تقویت کنند و تصمیمات حیاتی درباره زندگی افراد را بدون نظارت یا پاسخگویی مناسب بگیرند.

2. WMDs اغلب فقرا را مجازات می‌کنند و نابرابری را تقویت می‌کنند

"فقیر بودن در دنیای WMDs هر روز خطرناک‌تر و پرهزینه‌تر می‌شود."

حلقه‌های بازخورد. WMDs اغلب حلقه‌های بازخورد مضر ایجاد می‌کنند که به طور نامتناسبی بر افراد و جوامع کم‌درآمد تأثیر می‌گذارند. برای مثال:

  • امتیاز اعتباری پایین → نرخ بهره بالاتر → بدهی بیشتر → امتیاز اعتباری پایین‌تر
  • زندگی در مناطق با جرم بالا → پلیس بیشتر → دستگیری‌های بیشتر → نرخ جرم بالاتر

نمایندگان فقر. بسیاری از WMDs از نقاط داده‌ای استفاده می‌کنند که به عنوان نمایندگان فقر عمل می‌کنند، مانند:

  • کدهای پستی
  • سطح تحصیلات
  • سابقه اشتغال

این نمایندگان می‌توانند به نتایج تبعیض‌آمیز منجر شوند، حتی زمانی که مدل به طور صریح نژاد یا درآمد را در نظر نمی‌گیرد.

امکانات محدود. افراد کم‌درآمد اغلب منابع لازم برای به چالش کشیدن یا اعتراض به تصمیمات گرفته شده توسط WMDs را ندارند، که موقعیت نامساعد آن‌ها را بیشتر تثبیت می‌کند.

3. رتبه‌بندی کالج‌ها نمونه‌ای از چگونگی تحریف سیستم‌های کامل توسط WMDs است

"رتبه‌بندی کالج‌های U.S. News مقیاس بزرگی دارد، آسیب گسترده‌ای وارد می‌کند و یک حلقه بازخورد مخرب تقریباً بی‌پایان ایجاد می‌کند."

پیامدهای ناخواسته. رتبه‌بندی کالج‌های U.S. News & World Report، در حالی که به منظور ارائه اطلاعات مفید به دانشجویان آینده‌نگر طراحی شده است، تأثیرات گسترده و اغلب زیانباری بر آموزش عالی داشته است:

  • کالج‌ها عواملی را که رتبه آن‌ها را بهبود می‌بخشد بر کیفیت آموزشی اولویت می‌دهند
  • تمرکز بیشتر بر نمرات آزمون استاندارد و انتخاب‌پذیری
  • هزینه‌های تحصیلی افزایش یافته به دلیل سرمایه‌گذاری کالج‌ها در امکانات برای جذب دانشجویان با نمرات بالا

بازی با سیستم. برخی از مؤسسات به روش‌های غیراخلاقی برای بهبود رتبه خود متوسل شده‌اند:

  • گزارش‌دهی نادرست داده‌ها
  • دستکاری فرآیندهای پذیرش
  • تشویق دانشجویان با عملکرد پایین به انتقال قبل از فارغ‌التحصیلی

تقویت نابرابری. سیستم رتبه‌بندی تمایل دارد به نفع مؤسسات و دانشجویان ثروتمند باشد، در حالی که به ضرر کالج‌های کمتر منابع‌دار و متقاضیان کم‌درآمد است.

4. کالج‌های انتفاعی شکارچی جمعیت‌های آسیب‌پذیر را بهره‌برداری می‌کنند

"کالج‌های انتفاعی بر روی بخش دیگر، آسیب‌پذیرتر، از جمعیت تمرکز کردند. و اینترنت ابزار کاملی برای انجام این کار به آن‌ها داد."

بازاریابی هدفمند. کالج‌های انتفاعی از تحلیل‌های داده پیشرفته برای هدف قرار دادن افراد آسیب‌پذیر استفاده می‌کنند:

  • جوامع کم‌درآمد
  • کهنه‌سربازان نظامی
  • والدین تنها
  • افراد بیکار

روش‌های فریبنده. این مؤسسات اغلب از تاکتیک‌های گمراه‌کننده استفاده می‌کنند:

  • نرخ‌های اشتغال اغراق‌آمیز
  • انتظارات حقوقی غیرواقعی
  • هزینه‌ها و هزینه‌های پنهان

بار بدهی. دانشجویان در کالج‌های انتفاعی اغلب بدهی قابل توجهی بدون کسب مدارک ارزشمند جمع می‌کنند:

  • نرخ‌های بالاتر نکول در وام‌های دانشجویی
  • مدارکی که ممکن است توسط کارفرمایان به رسمیت شناخته نشوند

بهره‌برداری داده‌محور. کالج‌های انتفاعی از WMDs برای:

  • شناسایی دانشجویان بالقوه‌ای که احتمال بیشتری برای ثبت‌نام دارند
  • بهینه‌سازی استراتژی‌های جذب
  • حداکثرسازی سود به ازای هر دانشجو

5. شیوه‌های استخدام الگوریتمی می‌توانند تعصب و ناعادلانه بودن را تداوم بخشند

"مانند بسیاری از WMDهای دیگر، سیستم‌های خودکار می‌توانند با کارایی بالا و در مقیاس وسیع از امتیازهای اعتباری عبور کنند. اما من استدلال می‌کنم که دلیل اصلی به سود مربوط می‌شود."

تبعیض نماینده. الگوریتم‌های استخدام اغلب از نمایندگانی استفاده می‌کنند که می‌توانند به نتایج تبعیض‌آمیز منجر شوند:

  • امتیازهای اعتباری به عنوان معیاری برای مسئولیت‌پذیری
  • کدهای پستی به عنوان شاخص‌های قابلیت اطمینان
  • فعالیت‌های رسانه‌های اجتماعی به عنوان پیش‌بینی‌کننده عملکرد شغلی

عدم وجود زمینه. سیستم‌های خودکار در حساب کردن برای:

  • شرایط فردی
  • پتانسیل رشد
  • ویژگی‌های منحصر به فردی که توسط نقاط داده ثبت نمی‌شوند

حلقه‌های بازخورد. استخدام الگوریتمی می‌تواند چرخه‌های خودتقویتی ایجاد کند:

  • داوطلبان از برخی پیشینه‌ها به طور مداوم رد می‌شوند
  • این گروه‌ها کمتر احتمال دارد که درخواست دهند یا تجربه لازم را کسب کنند
  • الگوریتم "یاد می‌گیرد" که این گروه‌ها کمتر واجد شرایط هستند

امکانات محدود. متقاضیان شغلی اغلب راهی برای دانستن دلیل رد شدن یا چگونگی بهبود شانس خود در یک سیستم الگوریتمی ندارند.

6. مدل‌های پیش‌بینی پلیس و صدور حکم نابرابری‌های نژادی را تشدید می‌کنند

"حتی اگر یک مدل کوررنگ باشد، نتیجه آن چیزی جز این نیست. در شهرهای عمدتاً جدا شده ما، جغرافیا یک نماینده بسیار مؤثر برای نژاد است."

ورودی‌های متعصبانه. مدل‌های پیش‌بینی پلیس اغلب به داده‌های جرم تاریخی متکی هستند، که تعصبات موجود در شیوه‌های پلیس را منعکس می‌کند:

  • پلیس بیش از حد در محله‌های اقلیت
  • نرخ‌های بالاتر دستگیری برای افراد رنگین‌پوست

پیشگویی‌های خودتحقق‌بخش. این مدل‌ها می‌توانند حلقه‌های بازخورد ایجاد کنند:

  • پلیس بیشتر در مناطق پیش‌بینی شده "جرم بالا" → دستگیری‌های بیشتر → داده‌هایی که جرم بیشتری در آن مناطق نشان می‌دهند

تفاوت‌های صدور حکم. ابزارهای ارزیابی ریسک مورد استفاده در صدور حکم می‌توانند تعصبات نژادی را تداوم بخشند:

  • استفاده از عوامل اجتماعی-اقتصادی به عنوان نمایندگان ریسک
  • عدم حساب کردن برای نابرابری‌های سیستماتیک

عدم شفافیت. عدم شفافیت این الگوریتم‌ها باعث می‌شود که متهمان یا وکلای آن‌ها نتوانند ارزیابی‌ها را به چالش بکشند.

7. تبلیغات سیاسی هدفمند فرآیندهای دموکراتیک را تهدید می‌کند

"ما نمی‌توانیم به بازار آزاد خود برای اصلاح این اشتباهات اعتماد کنیم."

هدف‌گیری خرد. کمپین‌های سیاسی از تحلیل‌های داده پیشرفته برای:

  • شناسایی رأی‌دهندگان قابل متقاعد
  • تنظیم پیام‌ها برای جمعیت‌های خاص
  • سرکوب مشارکت در میان گروه‌های خاص

اتاق‌های پژواک. تبلیغات هدفمند می‌تواند باورهای موجود را تقویت کند و رأی‌دهندگان را قطبی کند:

  • ارائه نسخه‌های مختلفی از یک نامزد به رأی‌دهندگان مختلف
  • محدود کردن مواجهه با دیدگاه‌های متنوع

عدم پاسخگویی. ماهیت شخصی‌سازی شده تبلیغات هدفمند باعث می‌شود که:

  • پیگیری ادعاهای نادرست یا گمراه‌کننده دشوار باشد
  • کمپین‌ها برای پیام‌های خود پاسخگو باشند

نگرانی‌های حریم خصوصی داده. کمپین‌ها مقادیر زیادی از داده‌های شخصی را جمع‌آوری و استفاده می‌کنند، اغلب بدون آگاهی یا رضایت رأی‌دهندگان.

8. سیستم‌های امتیازدهی بیمه و اعتبار می‌توانند حلقه‌های بازخورد مخرب ایجاد کنند

"همانطور که شرکت‌های بیمه بیشتر درباره ما یاد می‌گیرند، قادر خواهند بود کسانی را که به نظر می‌رسد پرخطرترین مشتریان هستند شناسایی کنند و سپس یا نرخ‌های آن‌ها را به آسمان برسانند یا، در جایی که قانونی است، پوشش آن‌ها را رد کنند."

ارزیابی ریسک فردی. شرکت‌های بیمه از داده‌های به طور فزاینده‌ای دقیق برای ارزیابی ریسک استفاده می‌کنند:

  • عادات رانندگی (از طریق دستگاه‌های تلماتیک)
  • انتخاب‌های سبک زندگی (از داده‌های رسانه‌های اجتماعی و خرید)
  • پیش‌زمینه‌های ژنتیکی (از آزمایش‌های DNA)

پیامدهای ناخواسته. این سیستم‌ها می‌توانند منجر به:

  • نرخ‌های بالاتر برای جمعیت‌های آسیب‌پذیر
  • رد پوشش برای کسانی که بیشتر به آن نیاز دارند
  • انگیزه‌هایی برای پنهان کردن یا نادرست نشان دادن اطلاعات

فرسایش تجمیع ریسک. اصل اساسی بیمه (پخش ریسک در یک گروه بزرگ) زمانی که ریسک به شدت فردی می‌شود، تضعیف می‌شود.

گسترش مأموریت امتیاز اعتباری. امتیازهای اعتباری، که در ابتدا برای تصمیمات وام‌دهی طراحی شده بودند، اکنون برای:

  • غربالگری استخدام
  • درخواست‌های مسکن
  • قیمت‌گذاری بیمه

این استفاده گسترده می‌تواند چرخه‌های نابرابری برای کسانی که امتیاز اعتباری ضعیفی دارند ایجاد کند.

9. نظارت و بهینه‌سازی محل کار الگوریتمی کارگران را غیرانسانی می‌کند

"وقتی دانشمندان داده درباره 'کیفیت داده' صحبت می‌کنند، معمولاً به مقدار یا تمیزی داده اشاره می‌کنیم—آیا به اندازه کافی برای آموزش یک الگوریتم وجود دارد؟ آیا اعداد نمایانگر چیزی هستند که انتظار داریم یا تصادفی هستند؟ اما در این مورد ما هیچ مسئله‌ای با کیفیت داده نداریم؛ داده در دسترس است و در واقع فراوان است. فقط اشتباه است."

کارایی به هزینه. الگوریتم‌های بهینه‌سازی محل کار اولویت می‌دهند به:

  • حداکثر بهره‌وری
  • حداقل هزینه‌های نیروی کار
  • سطوح کارکنان قابل پیش‌بینی

تأثیر انسانی. این سیستم‌ها اغلب نادیده می‌گیرند:

  • رفاه کارگران
  • تعادل کار و زندگی
  • رضایت شغلی

گسترش نظارت. افزایش نظارت بر کارکنان می‌تواند منجر به:

  • استرس و اضطراب
  • عدم خودمختاری
  • فرسایش حریم خصوصی

مدیریت الگوریتمی. کارگران به طور فزاینده‌ای به سیستم‌های خودکار پاسخ می‌دهند تا مدیران انسانی، که منجر به:

  • سیاست‌های غیرقابل انعطاف
  • عدم وجود زمینه در تصمیم‌گیری
  • دشواری در رسیدگی به موقعیت‌های منحصر به فرد یا نیازهای شخصی

10. شفافیت و پاسخگویی برای استفاده اخلاقی از الگوریتم‌ها حیاتی است

"برای خلع سلاح WMDها، ما همچنین باید تأثیر آن‌ها را اندازه‌گیری کنیم و ممیزی‌های الگوریتمی انجام دهیم."

ممیزی‌های الگوریتمی. ارزیابی‌های منظم سیستم‌های الگوریتمی باید:

  • عدالت و تعصب را ارزیابی کنند
  • برای پیامدهای ناخواسته آزمایش کنند
  • اطمینان حاصل کنند که با استانداردهای قانونی و اخلاقی مطابقت دارند

AI قابل توضیح. تلاش‌هایی باید صورت گیرد تا الگوریتم‌هایی توسعه یابند که بتوانند:

  • توضیحات واضحی برای تصمیمات خود ارائه دهند
  • اجازه نظارت و مداخله انسانی را بدهند

شفافیت داده. افراد باید حق داشته باشند:

  • به داده‌هایی که درباره آن‌ها استفاده می‌شود دسترسی داشته باشند
  • نادرستی‌های داده‌های خود را تصحیح کنند
  • بفهمند که داده‌های آن‌ها چگونه استفاده می‌شود

چارچوب نظارتی. توسعه قوانین و دستورالعمل‌هایی برای حاکمیت استفاده از تصمیم‌گیری الگوریتمی در مناطق حساس مانند:

  • اشتغال
  • عدالت کیفری
  • خدمات مالی
  • مراقبت‌های بهداشتی

11. ما باید ارزش‌های انسانی را در سیستم‌های الگوریتمی جاسازی کنیم

"ما باید به طور صریح ارزش‌های بهتری را در الگوریتم‌های خود جاسازی کنیم، مدل‌های داده‌های کلان ایجاد کنیم که از رهبری اخلاقی ما پیروی کنند. گاهی اوقات این به معنای قرار دادن عدالت در اولویت نسبت به سود خواهد بود."

طراحی اخلاقی. الگوریتم‌ها باید با در نظر گرفتن موارد زیر طراحی شوند:

  • عدالت و عدم تبعیض
  • شفافیت و پاسخگویی
  • حفاظت از حریم خصوصی
  • حقوق بشر

دیدگاه‌های متنوع. شامل طیف گسترده‌ای از صداها در توسعه و اجرای سیستم‌های الگوریتمی:

  • اخلاق‌دانان
  • دانشمندان اجتماعی
  • نمایندگان جامعه
  • کسانی که تحت تأثیر الگوریتم‌ها قرار می‌گیرند

ارزیابی مداوم. به طور منظم تأثیر سیستم‌های الگوریتمی بر:

  • حقوق و آزادی‌های فردی
  • برابری اجتماعی
  • فرآیندهای دموکراتیک

آموزش و آگاهی. ترویج سواد دیجیتال و درک تصمیم‌گیری الگوریتمی در میان:

  • سیاست‌گذاران
  • رهبران کسب‌وکار
  • عموم مردم

با اولویت دادن به این ملاحظات اخلاقی، می‌توانیم قدرت داده‌های کلان و الگوریتم‌ها را مهار کنیم و در عین حال پتانسیل آن‌ها برای آسیب را کاهش دهیم و اطمینان حاصل کنیم که آن‌ها به منافع گسترده‌تر جامعه خدمت می‌کنند.

آخرین به‌روزرسانی::

FAQ

What's Weapons of Math Destruction about?

  • Focus on Algorithms: The book examines how algorithms and mathematical models are used in decision-making processes that impact people's lives, often negatively.
  • Concept of WMDs: Cathy O'Neil introduces "Weapons of Math Destruction" (WMDs) as algorithms that are opaque, unregulated, and harmful, reinforcing biases and inequalities.
  • Real-World Examples: It provides case studies from sectors like education, criminal justice, and employment to illustrate the detrimental effects of these algorithms.

Why should I read Weapons of Math Destruction?

  • Understanding Big Data's Impact: The book helps readers grasp the influence of big data and algorithms on modern society, highlighting their potential to undermine democracy and fairness.
  • Awareness of Bias: It encourages critical evaluation of algorithms that affect daily life, from job applications to credit scores, emphasizing the importance of recognizing embedded biases.
  • Call to Action: O'Neil urges readers to advocate for transparency and accountability in algorithm use, stressing the need for ethical considerations in data science and policy-making.

What are the key takeaways of Weapons of Math Destruction?

  • WMD Characteristics: WMDs are defined by their opacity, scalability, and damaging effects, allowing them to operate without accountability and disproportionately affect disadvantaged groups.
  • Feedback Loops: The book discusses how WMDs create self-reinforcing feedback loops that perpetuate inequality, using biased data to make decisions that entrench those biases.
  • Need for Reform: O'Neil calls for reform in algorithm development and use, emphasizing fairness and transparency, and advocating for ethical data practices.

What are the best quotes from Weapons of Math Destruction and what do they mean?

  • “Models are opinions embedded in mathematics.”: This quote highlights that mathematical models reflect the biases and assumptions of their creators, stressing the need to scrutinize data-driven decisions.
  • “The most dangerous [algorithms] are also the most secretive.”: O'Neil warns about the risks of relying on opaque systems without understanding their workings, emphasizing the need for transparency.
  • “WMDs tend to punish the poor.”: This statement underscores the disproportionate harm algorithms cause to marginalized communities, highlighting the social justice implications of data-driven policies.

What is a "Weapon of Math Destruction" (WMD) according to Cathy O'Neil?

  • Definition of WMD: A WMD is an algorithm that is opaque, unregulated, and harmful, often operating without accountability and perpetuating existing inequalities.
  • Characteristics of WMDs: They are opaque (difficult to understand), scalable (affecting large populations), and damaging (causing harm to individuals and communities).
  • Examples of WMDs: The book cites algorithms in hiring, credit scoring, and predictive policing as examples of WMDs leading to unjust outcomes for vulnerable populations.

How do WMDs create feedback loops?

  • Self-Reinforcing Mechanisms: WMDs generate data that reinforces their conclusions, creating cycles of harm, such as biased hiring practices leading to more biased data.
  • Impact on Individuals: Affected individuals may find themselves trapped in cycles of disadvantage, with models penalizing them based on flawed assumptions.
  • Examples in Society: Feedback loops are prevalent in sectors like education and criminal justice, exacerbating inequalities and making it difficult for individuals to escape their circumstances.

What role does bias play in WMDs?

  • Embedded Bias: Biases are often embedded in the data used to train algorithms, leading to unfair outcomes and perpetuating societal prejudices.
  • Consequences of Bias: Bias in WMDs can result in discriminatory practices in hiring, lending, and law enforcement, disproportionately affecting marginalized groups.
  • Need for Awareness: Recognizing bias in algorithms is crucial for advocating fairer practices, emphasizing transparency and accountability in data-driven decision-making.

How does Weapons of Math Destruction address the education system?

  • Teacher Evaluations: O'Neil discusses value-added models in teacher evaluations, which can lead to the firing of effective teachers based on flawed data.
  • Impact on Students: WMDs in education can harm students by removing qualified teachers and perpetuating inequities in underfunded schools.
  • Call for Reform: The book advocates for reevaluating educational data use, emphasizing models that prioritize student outcomes and fairness.

What are the implications of WMDs in the criminal justice system?

  • Predictive Policing: Algorithms in predictive policing often target marginalized communities based on historical crime data, leading to over-policing and systemic biases.
  • Recidivism Models: Recidivism models can unfairly penalize individuals based on backgrounds, perpetuating cycles of incarceration with biased data.
  • Need for Ethical Considerations: O'Neil stresses the importance of ethical considerations in algorithm development and implementation in the justice system.

How does Weapons of Math Destruction illustrate the concept of feedback loops?

  • Cycle of Inequality: WMDs create feedback loops that reinforce existing inequalities, such as low credit scores leading to higher costs and perpetuating poverty.
  • Education and Employment: Flawed evaluation models can lead to job losses for teachers, affecting their ability to support students effectively.
  • Criminal Justice: Biased algorithms can lead to harsher sentences, further entrenching individuals in cycles of crime and poverty.

What solutions does Cathy O'Neil propose for addressing WMDs?

  • Regulatory Frameworks: O'Neil advocates for regulations governing algorithm use, ensuring fairness and accountability similar to other industries.
  • Transparency and Audits: The book emphasizes the need for transparency in algorithmic processes and regular audits to assess their impact on populations.
  • Public Awareness and Advocacy: O'Neil encourages readers to become informed about algorithms affecting their lives and to advocate for equitable changes.

What is the significance of the term "Simpson's Paradox" in Weapons of Math Destruction?

  • Statistical Misinterpretation: Simpson's Paradox illustrates how aggregated data can present misleading pictures, masking true trends within subgroups.
  • Example in Education: The book references the A Nation at Risk report's misinterpretation of SAT scores, leading to flawed conclusions about educational quality.
  • Implications for Policy: This concept underscores the importance of disaggregating data to understand real issues, particularly when crafting policies affecting vulnerable populations.

نقد و بررسی

3.88 از 5
میانگین از 28k+ امتیازات از Goodreads و Amazon.

کتاب سلاح‌های ریاضی ویرانگر به جنبه‌های تاریک الگوریتم‌های داده‌های بزرگ می‌پردازد و نشان می‌دهد که چگونه می‌توانند نابرابری و تعصب را تقویت کنند. در حالی که برخی از نوشتار قابل فهم و پیام مهم اونیل تمجید می‌کنند، دیگران استدلال‌های او را ساده‌انگارانه می‌دانند. این کتاب به بخش‌های مختلفی می‌پردازد که الگوریتم‌ها بر زندگی تأثیر می‌گذارند، از آموزش تا عدالت کیفری. خوانندگان از تخصص و بینش‌های به‌موقع اونیل قدردانی می‌کنند، اگرچه برخی خواهان عمق فنی بیشتری هستند. به‌طور کلی، این کتاب بحث‌های مهمی درباره پیامدهای اخلاقی تصمیم‌گیری مبتنی بر داده در جامعه مدرن برمی‌انگیزد.

درباره نویسنده

کتی اونیل ریاضیدان و دانشمند داده با پیشینه‌ای متنوع در حوزه‌های دانشگاهی، مالی و فناوری است. او دارای دکترای ریاضیات از دانشگاه هاروارد است و در وال استریت و سیلیکون ولی فعالیت کرده است. اونیل بیشتر به خاطر کتاب پرفروش خود به نام «سلاح‌های تخریب ریاضی» شناخته می‌شود که تحسین منتقدان را برانگیخته و نامزد دریافت جوایز شده است. او شرکت ORCAA را که در زمینه‌ی حسابرسی الگوریتمی فعالیت می‌کند، تأسیس کرده و به بلومبرگ ویو نیز همکاری می‌کند. کارهای اونیل بر تأثیرات اجتماعی داده‌های بزرگ و الگوریتم‌ها متمرکز است و تخصص ریاضی خود را با علاقه به شیوه‌های اخلاقی داده‌ها ترکیب می‌کند.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Mar 1,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
50,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →