Facebook Pixel
Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

My Mission to Protect What Is Human in a World of Machines
توسط Joy Buolamwini 2023 336 صفحات
4.17
500+ امتیازها
گوش دادن

نکات کلیدی

1. نگاه کدگذاری شده: کشف تعصب در سیستم‌های هوش مصنوعی

"پیش‌فرض‌ها بی‌طرف نیستند. آن‌ها اغلب نگاه کدگذاری شده را منعکس می‌کنند - ترجیحات کسانی که قدرت انتخاب موضوعات مورد تمرکز را دارند."

نگاه کدگذاری شده به این معناست که چگونه اولویت‌ها، ترجیحات و تعصبات کسانی که فناوری را ایجاد می‌کنند می‌تواند از طریق تبعیض و حذف آسیب برساند. جوی بوالاموینی این مفهوم را در حین کار بر روی پروژه تشخیص چهره در MIT کشف کرد، جایی که مجبور بود برای شناسایی چهره‌اش توسط سیستم، ماسک سفید بپوشد. این تجربه او را به تحقیق درباره تعصب در سیستم‌های هوش مصنوعی، به‌ویژه در فناوری‌های تشخیص چهره، سوق داد.

یافته‌های کلیدی:

  • سیستم‌های هوش مصنوعی اغلب در شناسایی افراد با پوست تیره‌تر و زنان عملکرد ضعیفی دارند
  • مجموعه داده‌های مرجع که برای آموزش مدل‌های هوش مصنوعی استفاده می‌شوند، اغلب به سمت مردان با پوست روشن‌تر متمایل هستند
  • این تعصبات می‌توانند به پیامدهای واقعی منجر شوند، از دستگیری‌های نادرست تا فرصت‌های از دست رفته

تحقیقات بوالاموینی نشان داد که سیستم‌های تحلیل چهره شرکت‌های بزرگ فناوری دارای تفاوت‌های قابل توجهی در دقت بر اساس نوع پوست و جنسیت هستند، با نرخ خطا تا 34.4% بین مردان روشن‌پوست و زنان تیره‌پوست.

2. از پروژه هنری تا جنبش جهانی: تولد لیگ عدالت الگوریتمی

"من نمی‌خواستم عقب‌نشینی کنم. یک دانشجوی تحصیلات تکمیلی که در برابر غول‌های فناوری قرار می‌گیرد، مسیر معمولی نبود، اما کدنویسی با چهره سفید برای دیده شدن توسط ماشین هم نبود."

لیگ عدالت الگوریتمی (AJL) از پروژه پایان‌نامه کارشناسی ارشد بوالاموینی در MIT شکل گرفت. آنچه به عنوان یک نصب هنری برای بررسی محدودیت‌های فناوری تشخیص چهره آغاز شد، به یک جنبش جهانی برای پاسخگویی و عدالت الگوریتمی تبدیل شد.

ماموریت AJL:

  • افزایش آگاهی درباره تأثیر تعصب هوش مصنوعی
  • حمایت از سیستم‌های هوش مصنوعی فراگیرتر و عادلانه‌تر
  • توسعه ابزارها و روش‌هایی برای بررسی تعصب در سیستم‌های هوش مصنوعی
  • تعامل با سیاست‌گذاران و رهبران صنعت برای ترویج توسعه مسئولانه هوش مصنوعی

کار این سازمان بر تصمیمات سیاستی، شیوه‌های شرکتی و گفتمان عمومی درباره اخلاق هوش مصنوعی تأثیر گذاشته است، نشان‌دهنده قدرت ترکیب تحقیقات دانشگاهی با فعالیت و هنر.

3. ممیزی‌های الگوریتمی: افشای نقص‌ها در محصولات تجاری هوش مصنوعی

"حتی اگر پروژه کلاسی من روی من کار نمی‌کرد؟ همکلاسی‌های روشن‌پوست من به نظر می‌رسید از استفاده از آن لذت می‌برند. و البته، ممکن است مزیتی در عدم شناسایی چهره فرد وجود داشته باشد، با توجه به پیامدهای ردیابی افراد توسط دوربین‌ها و خطرات نظارت گسترده."

ممیزی‌های الگوریتمی ارزیابی‌های سیستماتیک سیستم‌های هوش مصنوعی برای شناسایی تعصبات و تفاوت‌های عملکردی در گروه‌های جمعیتی مختلف هستند. پروژه "سایه‌های جنسیتی" بوالاموینی یک ممیزی الگوریتمی پیشگام بود که شکاف‌های دقت قابل توجهی را در سیستم‌های طبقه‌بندی جنسیت تجاری افشا کرد.

یافته‌های کلیدی ممیزی سایه‌های جنسیتی:

  • همه سیستم‌های آزمایش شده در شناسایی زنان با پوست تیره‌تر بدترین عملکرد را داشتند
  • بزرگترین شکاف دقت 34.4% بین مردان روشن‌پوست و زنان تیره‌پوست بود
  • ممیزی نشان داد که حتی محصولات هوش مصنوعی شرکت‌های فناوری پیشرو دارای تعصبات قابل توجهی هستند

پروژه سایه‌های جنسیتی و ممیزی‌های بعدی منجر به بهبود در سیستم‌های هوش مصنوعی تجاری و افزایش آگاهی از نیاز به مجموعه داده‌های آزمایشی متنوع و روش‌های ارزیابی دقیق شده است.

4. قدرت ممیزی‌های برانگیزاننده: انسانی‌سازی تأثیر هوش مصنوعی

"آیا ماشین‌ها می‌توانند ملکه‌های من را همان‌طور که من آن‌ها را می‌بینم ببینند؟ آیا ماشین‌ها می‌توانند مادربزرگ‌های ما را همان‌طور که ما آن‌ها را می‌شناختیم ببینند؟"

ممیزی‌های برانگیزاننده از بیان هنری و روایت‌های شخصی برای نشان دادن تأثیر انسانی تعصب الگوریتمی استفاده می‌کنند. قطعه شعر گفتاری بوالاموینی "هوش مصنوعی، آیا من زن نیستم؟" نمونه‌ای برجسته است که نشان می‌دهد چگونه سیستم‌های هوش مصنوعی تصاویر زنان برجسته سیاه‌پوست را به اشتباه طبقه‌بندی کردند.

تأثیر ممیزی‌های برانگیزاننده:

  • انسانی‌سازی پیامدهای تعصب هوش مصنوعی
  • رسیدن به مخاطبان گسترده‌تر فراتر از محافل دانشگاهی
  • الهام‌بخشی به اقدام و تغییر سیاست

ویدئوی "هوش مصنوعی، آیا من زن نیستم؟" به صورت ویروسی منتشر شد و در مستند "تعصب کدگذاری شده" به نمایش درآمد، کمک به افزایش آگاهی عمومی درباره تعصب هوش مصنوعی و پیامدهای واقعی آن.

5. مبارزه با حذف: تقویت صداهای حاشیه‌نشین در فناوری

"سکوت درباره یافته‌هایم مانع از آسیب نمی‌شد، زیرا این سیستم‌ها در حال توسعه بودند. صحبت کردن من فرصتی برای در نظر گرفتن مسیرهای جایگزین، از جمله عدم استفاده، فراهم کرد."

مبارزه با حذف در هوش مصنوعی و فناوری شامل تقویت فعالانه صداهای حاشیه‌نشین و به چالش کشیدن وضعیت موجود است. تجربیات بوالاموینی با حذف رسانه‌ای و موانع دانشگاهی اهمیت دیدگاه‌های متنوع در تحقیق و توسعه هوش مصنوعی را برجسته می‌کند.

استراتژی‌های مبارزه با حذف:

  • همکاری با و حمایت از پژوهشگران و متخصصان کم‌نماینده
  • استفاده از پلتفرم‌های رسانه‌ای برای برجسته‌سازی صداها و تجربیات متنوع
  • به چالش کشیدن نهادها و شرکت‌ها برای پرداختن به تعصبات سیستماتیک

کار بوالاموینی با مستند "تعصب کدگذاری شده" و تلاش‌های حمایتی او به جلب توجه به مشارکت‌های زنان و افراد رنگین‌پوست در اخلاق و تحقیق هوش مصنوعی کمک کرده است.

6. فراتر از دانشگاه: تعامل با سیاست‌گذاران و عموم مردم

"کنگره کاری در این باره انجام خواهد داد."

تعامل با سیاست‌گذاران برای ترجمه یافته‌های تحقیقاتی به تغییرات واقعی ضروری است. شهادت‌های بوالاموینی در کنگره و کار او با آژانس‌های دولتی نشان‌دهنده تأثیر پژوهشگران بر تصمیمات سیاستی است.

تعاملات کلیدی سیاستی:

  • شهادت در کنگره درباره فناوری تشخیص چهره
  • مشارکت در توسعه منشور حقوق هوش مصنوعی
  • حمایت از تلاش‌های محلی برای تنظیم استفاده از تشخیص چهره توسط نیروهای انتظامی

این تلاش‌ها منجر به افزایش نظارت بر سیستم‌های هوش مصنوعی، پیشنهادات قانونی و تغییرات سیاستی در سطوح مختلف دولتی شده است.

7. هزینه‌های شمول و حذف در توسعه هوش مصنوعی

"هزینه‌های شمول و هزینه‌های حذف باید در طراحی و استقرار سیستم‌های هوش مصنوعی در نظر گرفته شوند."

متعادل‌سازی شمول و حذف در توسعه هوش مصنوعی نیازمند بررسی دقیق مزایا و آسیب‌های بالقوه است. در حالی که مجموعه داده‌های متنوع می‌توانند عملکرد هوش مصنوعی را بهبود بخشند، ممکن است نظارت و کنترل گسترده‌تری را نیز ممکن سازند.

ملاحظات:

  • بهبود دقت هوش مصنوعی می‌تواند کاربردهای مفید را افزایش دهد (مثلاً تشخیص‌های پزشکی)
  • تشخیص چهره دقیق‌تر می‌تواند نظارت گسترده را نیز ممکن سازد
  • حذف گروه‌های خاص از مجموعه داده‌ها ممکن است حریم خصوصی را حفظ کند اما منجر به عملکرد ضعیف‌تر برای آن گروه‌ها شود

بوالاموینی از رویکردی دقیق حمایت می‌کند که پیامدهای اجتماعی گسترده‌تر سیستم‌های هوش مصنوعی را در نظر بگیرد، به جای تمرکز صرف بر معیارهای عملکرد فنی.

8. به سوی عدالت الگوریتمی: از تحقیق تا تغییرات واقعی

"ما به قوانین نیاز داریم. در طول سال‌ها پیش‌نویس قوانین درباره پاسخگویی الگوریتمی، فناوری‌های بیومتریک از راه دور و حریم خصوصی داده‌ها معرفی شده است. با افزایش آگاهی درباره تأثیر هوش مصنوعی بر زندگی ما، باید بدانیم که نهادهای دولتی ما از حقوق مدنی ما محافظت خواهند کرد، صرف‌نظر از چگونگی تکامل فناوری."

عدالت الگوریتمی نیازمند رویکردی چندوجهی است که تحقیق، حمایت، تغییر سیاست و تعامل عمومی را ترکیب کند. سفر بوالاموینی از دانشجوی تحصیلات تکمیلی به اخلاق‌گرای تأثیرگذار هوش مصنوعی نشان‌دهنده پتانسیل افراد برای ایجاد تغییرات سیستماتیک است.

اجزای کلیدی مبارزه برای عدالت الگوریتمی:

  • تحقیقات دقیق و ممیزی‌های سیستم‌های هوش مصنوعی
  • کمپین‌های آموزش عمومی و آگاهی‌بخشی
  • همکاری با سیاست‌گذاران و رهبران صنعت
  • حمایت از تلاش‌های مردمی و سازماندهی جامعه

انتشار منشور حقوق هوش مصنوعی و افزایش آگاهی عمومی از مسائل اخلاقی هوش مصنوعی نشان‌دهنده پیشرفت است، اما نظارت و حمایت مداوم برای اطمینان از توسعه و استقرار سیستم‌های هوش مصنوعی به گونه‌ای که حقوق بشر را رعایت کرده و برابری را ترویج کند، ضروری است.

آخرین به‌روزرسانی::

نقد و بررسی

4.17 از 5
میانگین از 500+ امتیازات از Goodreads و Amazon.

کتاب آشکارسازی هوش مصنوعی به خاطر بررسی قابل دسترس خود از تعصب و اخلاق در هوش مصنوعی مورد تحسین قرار گرفته است. خوانندگان از سفر شخصی بوالاموینی و بینش‌های او در دنیای فناوری قدردانی می‌کنند. بسیاری این کتاب را آموزنده و اندیشه‌برانگیز می‌دانند و بر اهمیت پرداختن به تعصب‌های الگوریتمی تأکید می‌کنند. برخی از منتقدان به سبک یادداشت‌گونه‌ی کتاب اشاره کرده و آرزو دارند که عمق فنی بیشتری در آن وجود داشته باشد. به‌طور کلی، این کتاب به عنوان یک مشارکت حیاتی در درک تأثیر اجتماعی هوش مصنوعی دیده می‌شود، هرچند نظرات در مورد تعادل بین روایت شخصی و محتوای فنی متفاوت است.

درباره نویسنده

دکتر جوی بولاوموینی یک دانشمند کامپیوتر، پژوهشگر و فعال است که به خاطر کارهایش در زمینه‌ی تعصب الگوریتمی در هوش مصنوعی شناخته می‌شود. او لیگ عدالت الگوریتمی را تأسیس کرد تا با تبعیض در سیستم‌های هوش مصنوعی مقابله کند. بولاوموینی به خاطر پژوهش‌هایش در زمینه‌ی فناوری‌های شناسایی چهره و تعصبات آن‌ها علیه زنان و افراد رنگین‌پوست مورد توجه قرار گرفت. او یافته‌های خود را به سیاست‌گذاران و شرکت‌های فناوری ارائه داده و برای توسعه‌ی هوش مصنوعی فراگیر و اخلاقی تلاش می‌کند. بولاوموینی همچنین به عنوان "شاعر کد" شناخته می‌شود، زیرا شعر را در کارهای فنی خود ادغام کرده است. تلاش‌های او تأثیر قابل توجهی بر بحث‌ها در زمینه‌ی اخلاق و انصاف در هوش مصنوعی داشته است.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Bookmarks – save your favorite books
History – revisit books later
Ratings – rate books & see your ratings
Unlock unlimited listening
Your first week's on us!
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Dec 12,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
“...I can 10x the number of books I can read...”
“...exceptionally accurate, engaging, and beautifully presented...”
“...better than any amazon review when I'm making a book-buying decision...”
Save 62%
Yearly
$119.88 $44.99/yr
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →