Facebook Pixel
Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Atlas of AI

Atlas of AI

Power, Politics, and the Planetary Costs of Artificial Intelligence
توسط Kate Crawford 2020 288 صفحات
3.96
2k+ امتیازها
گوش دادن
Listen to Summary

نکات کلیدی

1. مبنای مادی هوش مصنوعی: زمین به‌عنوان صنعتی استخراجی

رسانه‌های محاسباتی اکنون در فرآیندهای زمین‌شناسی و اقلیمی شرکت دارند، از تبدیل مواد زمین به زیرساخت‌ها و دستگاه‌ها تا تأمین انرژی این سیستم‌های جدید با ذخایر نفت و گاز.

وابستگی هوش مصنوعی به منابع. هوش مصنوعی یک مفهوم انتزاعی نیست، بلکه صنعتی عمیقاً مادی است که به استخراج منابع زمین وابسته است. از معادن لیتیوم در نوادا تا ذخایر مواد معدنی نادر در مغولستان داخلی، ایجاد سیستم‌های هوش مصنوعی نیازمند زنجیره تأمین وسیعی از مواد معدنی، انرژی و مواد است. این تقاضا به شیوه‌های استخراج مخرب محیط زیست دامن می‌زند که اغلب در بحث‌های پیشرفت فناوری نادیده گرفته می‌شود.

تأثیرات زیست‌محیطی. تقاضای بخش فناوری برای منابع به‌طور قابل توجهی به تخریب محیط زیست کمک می‌کند. استخراج مواد معدنی، آب‌های زیرزمینی را آلوده می‌کند، جنگل‌ها را نابود می‌سازد و جوامع را جابه‌جا می‌کند. علاوه بر این، ماهیت انرژی‌بر هوش مصنوعی، به‌ویژه در آموزش مدل‌های بزرگ، به افزایش ردپای کربن کمک می‌کند که با صنعت هوانوردی رقابت می‌کند.

نیاز به تغییر در نگرش. برای درک هزینه واقعی هوش مصنوعی، باید فراتر از وعده‌های انتزاعی پیشرفت فناوری برویم و پیامدهای مادی آن را در نظر بگیریم. این نیازمند پذیرش هزینه‌های زیست‌محیطی و انسانی مرتبط با استخراج منابع، مصرف انرژی و زنجیره‌های تأمین جهانی است که از سیستم‌های هوش مصنوعی پشتیبانی می‌کنند.

2. هزینه انسانی: استثمار کار در سیستم‌های هوش مصنوعی

هماهنگی اقدامات انسان‌ها با حرکات تکراری ربات‌ها و ماشین‌آلات خط تولید همواره شامل کنترل بدن‌ها در فضا و زمان بوده است.

وابستگی هوش مصنوعی به کار انسانی. با وجود روایت اتوماسیون، سیستم‌های هوش مصنوعی به شدت به کار انسانی وابسته‌اند که اغلب پنهان و با دستمزد پایین انجام می‌شود. این شامل کارگران دیجیتال که داده‌ها را برچسب‌گذاری می‌کنند، کارمندان انبار آمازون که سفارشات را انجام می‌دهند و ناظران محتوا که محتوای مضر را فیلتر می‌کنند، می‌شود. این کارگران برای عملکرد سیستم‌های هوش مصنوعی ضروری هستند، اما سهم آن‌ها اغلب نادیده گرفته می‌شود و شرایط کاری آن‌ها استثماری است.

زمان و کنترل. مدیریت زمان در استثمار کار در سیستم‌های هوش مصنوعی مرکزی است. کارگران تحت نظارت مداوم و ارزیابی الگوریتمی قرار دارند، به‌طوری‌که هر اقدام آن‌ها پیگیری و اندازه‌گیری می‌شود تا حداکثر کارایی حاصل شود. این وضعیت محیط کار استرس‌زا و غیرانسانی را ایجاد می‌کند، جایی که کارگران به‌عنوان ضمیمه‌های ماشین تلقی می‌شوند.

نیاز به همبستگی کارگران. برای مقابله با استثمار کار در سیستم‌های هوش مصنوعی، کارگران باید سازماندهی شوند و خواستار بهبود شرایط کاری، دستمزد عادلانه و کنترل بیشتر بر زمان و کار خود شوند. این نیازمند ایجاد همبستگی در بخش‌های مختلف صنعت هوش مصنوعی، از معدن‌کاران تا مهندسان، و به چالش کشیدن ساختارهای قدرتی است که استثمار را تداوم می‌بخشند.

3. داده به‌عنوان زیرساخت: محو زمینه و رضایت

تمام مواد دیجیتال قابل دسترسی عمومی—از جمله داده‌های شخصی یا بالقوه مضر—برای برداشت به‌منظور ایجاد مجموعه‌های داده‌ای که برای تولید مدل‌های هوش مصنوعی استفاده می‌شوند، باز است.

استخراج داده. صنعت هوش مصنوعی به برداشت انبوه داده‌ها وابسته است، اغلب بدون رضایت یا توجه به حریم خصوصی. این شامل اطلاعات شخصی، تصاویر و متونی است که از اینترنت جمع‌آوری شده و برای آموزش مدل‌های هوش مصنوعی استفاده می‌شود. این عمل داده‌ها را به‌عنوان یک منبع رایگان تلقی می‌کند و از پیامدهای اخلاقی و اجتماعی جمع‌آوری و استفاده از اطلاعات افراد بدون آگاهی یا اجازه آن‌ها غافل است.

از تصویر به زیرساخت. تبدیل تصاویر به داده، آن‌ها را از زمینه و معنا خالی می‌کند. عکس‌های شناسایی، سلفی‌ها و عکس‌های شخصی به نقاط داده‌ای تبدیل می‌شوند که برای آموزش سیستم‌های شناسایی چهره و سایر مدل‌های هوش مصنوعی استفاده می‌شوند. این محو زمینه می‌تواند به نتایج جانبدارانه و تبعیض‌آمیز منجر شود، زیرا سیستم‌های هوش مصنوعی یاد می‌گیرند که ویژگی‌های خاصی را با کلیشه‌های منفی مرتبط کنند.

نگرانی‌های اخلاقی. شیوه‌های کنونی جمع‌آوری و استفاده از داده‌ها در هوش مصنوعی نگرانی‌های اخلاقی عمیقی را به وجود می‌آورد. ما باید فراتر از این ایده برویم که داده‌ها یک منبع خنثی هستند و به دینامیک‌های قدرت ذاتی در جمع‌آوری، برچسب‌گذاری و استفاده از آن‌ها توجه کنیم. این نیازمند توسعه دستورالعمل‌ها و مقررات اخلاقی است که از حریم خصوصی افراد محافظت کرده و از سوءاستفاده از داده‌های آن‌ها جلوگیری کند.

4. طبقه‌بندی به‌عنوان قدرت: رمزگذاری تعصب در سیستم‌های هوش مصنوعی

با نگاهی به چگونگی ایجاد طبقه‌بندی‌ها، می‌بینیم که چگونه طرح‌های فنی سلسله‌مراتب‌ها را تحمیل کرده و نابرابری را تشدید می‌کنند.

طبقه‌بندی به‌عنوان یک عمل سیاسی. سیستم‌های هوش مصنوعی برای درک جهان به طبقه‌بندی وابسته‌اند. با این حال، دسته‌بندی‌های استفاده شده برای طبقه‌بندی داده‌ها نه خنثی و نه عینی هستند، بلکه بازتاب‌دهنده تعصبات و فرضیات سازندگان آن‌ها هستند. این تعصبات می‌توانند در سیستم‌های هوش مصنوعی رمزگذاری شوند و به نتایج تبعیض‌آمیز منجر شوند.

مسئله تعصب. نشان داده شده است که سیستم‌های هوش مصنوعی در حوزه‌های مختلف، از شناسایی چهره تا عدالت کیفری، تعصب نشان می‌دهند. این تعصبات اغلب الگوهای تاریخی تبعیض را منعکس می‌کنند و نابرابری‌های موجود را تداوم و تشدید می‌کنند. به‌عنوان مثال، سیستم‌های شناسایی چهره ممکن است برای افرادی با پوست تیره دقت کمتری داشته باشند که منجر به شناسایی نادرست و دستگیری‌های نادرست می‌شود.

فراتر از مباحث تعصب. برای حل مسئله تعصب در هوش مصنوعی، باید فراتر از اصلاحات فنی برویم و به ساختارهای اجتماعی و سیاسی زیرین که داده‌ها و الگوریتم‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی را شکل می‌دهند، بپردازیم. این نیازمند به چالش کشیدن دینامیک‌های قدرتی است که نابرابری را تداوم می‌بخشند و ترویج رویکردهای عادلانه‌تر و فراگیرتر در توسعه هوش مصنوعی است.

5. شناسایی احساسات: علم پرچالش خواندن احساسات

راه‌حل معمای Clever Hans، به‌نوشته‌ی Pfungst، هدایت ناخودآگاه از سوی پرسشگران اسب بود.

ادعای احساسات جهانی. سیستم‌های شناسایی احساسات بر این ایده استوارند که احساسات جهانی هستند و می‌توانند به‌طور قابل اعتمادی از روی حالات چهره شناسایی شوند. با این حال، این ادعا به شدت مورد مناقشه است و بسیاری از محققان بر این باورند که احساسات متغیرهای فرهنگی و وابسته به زمینه هستند.

تأثیر پل اکرمن. کارهای روانشناس پل اکرمن در شکل‌گیری حوزه شناسایی احساسات تأثیرگذار بوده است. تحقیقات اکرمن که از دهه 1960 آغاز شد، ادعا می‌کرد که مجموعه‌ای از احساسات پایه‌ای را شناسایی کرده است که به‌طور جهانی ابراز و شناسایی می‌شوند. با این حال، روش‌ها و یافته‌های او به‌دلیل عدم دقت علمی به شدت مورد انتقاد قرار گرفته است.

نگرانی‌های اخلاقی. با وجود تردیدهای علمی در مورد شناسایی احساسات، این ابزارها به‌سرعت در زمینه‌های مختلف با ریسک بالا، از استخدام تا پلیس، به کار گرفته می‌شوند. این موضوع نگرانی‌های اخلاقی جدی را به وجود می‌آورد، زیرا افراد ممکن است بر اساس ارزیابی‌های نادرست و غیرقابل اعتماد از وضعیت عاطفی خود قضاوت و مورد تبعیض قرار گیرند.

6. هوش مصنوعی به‌عنوان ابزاری از قدرت دولتی: نظارت و کنترل

گذشته و حال نظامی هوش مصنوعی، شیوه‌های نظارت، استخراج داده و ارزیابی ریسک را که امروزه مشاهده می‌کنیم، شکل داده است.

ریشه‌های نظامی هوش مصنوعی. توسعه هوش مصنوعی به شدت تحت تأثیر تأمین مالی و اولویت‌های نظامی قرار دارد. این موضوع بر تمرکز این حوزه بر نظارت، استخراج داده و ارزیابی ریسک تأثیر گذاشته و به پیامدهای اخلاقی و اجتماعی توجهی نمی‌کند.

آرشیو اسنودن. آرشیو اسنودن نشان می‌دهد که تا چه حد نهادهای اطلاعاتی از هوش مصنوعی برای جمع‌آوری و تحلیل داده‌ها به‌صورت انبوه استفاده کرده‌اند. این ابزارها که زمانی برای مقاصد امنیت ملی اختصاص داده شده بودند، اکنون به‌طور داخلی به کار گرفته می‌شوند و مرزهای بین نظارت نظامی و غیرنظامی را محو می‌کنند.

استراتژی سومین جبران. استراتژی سومین جبران ارتش ایالات متحده به‌دنبال حفظ تسلط خود در هوش مصنوعی با همکاری با بخش فناوری است. این موضوع منجر به رابطه نزدیکی بین ارتش و سیلیکون‌ولی شده است، به‌طوری‌که شرکت‌های فناوری ابزارها و تخصص‌های هوش مصنوعی را به وزارت دفاع ارائه می‌دهند.

7. خانه‌های بزرگ هوش مصنوعی: متمرکز کردن قدرت و گسترش نابرابری‌ها

این سیاست‌ها توسط خانه‌های بزرگ هوش مصنوعی هدایت می‌شوند که شامل چندین شرکت است که بر محاسبات سیاره‌ای در مقیاس بزرگ تسلط دارند.

تمرکز قدرت. صنعت هوش مصنوعی تحت تسلط تعداد کمی از شرکت‌های فناوری قدرتمند است. این شرکت‌ها مقادیر زیادی داده، منابع و تخصص را کنترل می‌کنند و به آن‌ها مزیت قابل توجهی در شکل‌دهی به توسعه و استقرار سیستم‌های هوش مصنوعی می‌دهد.

گسترش نابرابری‌ها. تمرکز قدرت در دستان چند غول فناوری، نابرابری‌های موجود را تشدید می‌کند. سیستم‌های هوش مصنوعی اغلب به‌گونه‌ای طراحی می‌شوند که به منافع این شرکت‌ها خدمت کنند و فاصله بین ثروتمندان و فقیران، قدرتمندان و حاشیه‌نشینان را بیشتر کنند.

نیاز به مقررات. برای مقابله با تمرکز قدرت در صنعت هوش مصنوعی، به مقررات قوی‌تری نیاز داریم که رقابت را ترویج کرده، حریم خصوصی را محافظت کند و اطمینان حاصل کند که سیستم‌های هوش مصنوعی به‌نحوی استفاده می‌شوند که به نفع جامعه به‌طور کلی باشد. این نیازمند به چالش کشیدن تسلط غول‌های فناوری و ترویج اشکال دموکراتیک‌تر و پاسخگوتر از حاکمیت هوش مصنوعی است.

8. به چالش کشیدن منطق‌ها: به‌سوی جنبش‌های متصل برای عدالت

با تغییر شرایط زمین، باید خواسته‌های حفاظت از داده‌ها، حقوق کار، عدالت اقلیمی و برابری نژادی را به‌طور همزمان شنید.

جنبش‌های متصل. برای حل مشکلات بنیادی هوش مصنوعی، نیاز به ارتباط مسائل قدرت و عدالت داریم. این شامل حفاظت از داده‌ها، حقوق کار، عدالت اقلیمی و برابری نژادی است. با همکاری، این جنبش‌ها می‌توانند به چالش ساختارهای قدرتی بپردازند که هوش مصنوعی در حال حاضر تقویت می‌کند.

سیاست‌های رد. ما باید ایده‌ای را که هوش مصنوعی اجتناب‌ناپذیر است و هیچ انتخابی جز پذیرش پیامدهای آن نداریم، رد کنیم. این نیازمند به چالش کشیدن روایت‌های تعیین‌گرایی فناوری و خواستار اشکال دموکراتیک‌تر و پاسخگوتر از حاکمیت هوش مصنوعی است.

چشم‌انداز متفاوت. با ارتباط مسائل قدرت و عدالت، می‌توانیم چشم‌انداز متفاوتی برای هوش مصنوعی ایجاد کنیم، چشم‌اندازی که به رفاه انسانی، پایداری زیست‌محیطی و برابری اجتماعی اولویت می‌دهد. این نیازمند به چالش کشیدن منطق‌های استخراجی هوش مصنوعی و ساختن آینده‌ای عادلانه‌تر و پایدارتر برای همه است.

آخرین به‌روزرسانی::

نقد و بررسی

3.96 از 5
میانگین از 2k+ امتیازات از Goodreads و Amazon.

کتاب اطلس هوش مصنوعی نظرات متفاوتی را به خود جلب کرده است. برخی از منتقدان به بررسی انتقادی تأثیرات اجتماعی و زیست‌محیطی هوش مصنوعی در این کتاب اشاره کرده و آن را ستایش می‌کنند، در حالی که دیگران به نوشتار تکراری و کمبود راه‌حل‌ها در آن انتقاد می‌کنند. خوانندگان از بررسی هزینه‌های مادی هوش مصنوعی، استثمار نیروی کار و نگرانی‌های اخلاقی در این کتاب قدردانی می‌کنند. با این حال، برخی آن را بیش از حد بدبینانه و فاقد عمق فنی می‌دانند. این کتاب به خاطر رویکرد جامع خود مورد تحسین قرار گرفته، اما به خاطر لحن آکادمیک و گاهی عدم تمرکز نیز مورد انتقاد قرار می‌گیرد. با وجود کاستی‌هایش، بسیاری آن را کتابی مهم برای درک پیامدهای گسترده‌تر هوش مصنوعی می‌دانند.

درباره نویسنده

کیت کرافورد یکی از پژوهشگران و دانشمندان برجسته در زمینه‌ی هوش مصنوعی و تأثیرات اجتماعی آن است. کیت کرافورد به خاطر رویکرد بین‌رشته‌ای خود که فناوری، اخلاق و علوم اجتماعی را ترکیب می‌کند، شناخته شده است. او در مؤسسات معتبر مانند مایکروسافت ریسرچ و دانشگاه نیویورک مشغول به کار بوده است. تمرکز کارهای کرافورد بر هزینه‌ها و پیامدهای پنهان سیستم‌های هوش مصنوعی است، از جمله تأثیرات زیست‌محیطی، شیوه‌های کاری و پتانسیل تبعیض و偏见. او در این زمینه‌ها به طور گسترده‌ای منتشر کرده و سخنران مکرر کنفرانس‌های بین‌المللی است. پژوهش‌های کرافورد به طور قابل توجهی به گفتمان انتقادی پیرامون توسعه و پیاده‌سازی هوش مصنوعی کمک کرده است.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Home
Library
Get App
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Recommendations: Get personalized suggestions
Ratings: Rate books & see your ratings
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Apr 26,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
100,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Scanner
Find a barcode to scan

Settings
General
Widget
Appearance
Loading...
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →