نکات کلیدی
1. مبنای مادی هوش مصنوعی: زمین بهعنوان صنعتی استخراجی
رسانههای محاسباتی اکنون در فرآیندهای زمینشناسی و اقلیمی شرکت دارند، از تبدیل مواد زمین به زیرساختها و دستگاهها تا تأمین انرژی این سیستمهای جدید با ذخایر نفت و گاز.
وابستگی هوش مصنوعی به منابع. هوش مصنوعی یک مفهوم انتزاعی نیست، بلکه صنعتی عمیقاً مادی است که به استخراج منابع زمین وابسته است. از معادن لیتیوم در نوادا تا ذخایر مواد معدنی نادر در مغولستان داخلی، ایجاد سیستمهای هوش مصنوعی نیازمند زنجیره تأمین وسیعی از مواد معدنی، انرژی و مواد است. این تقاضا به شیوههای استخراج مخرب محیط زیست دامن میزند که اغلب در بحثهای پیشرفت فناوری نادیده گرفته میشود.
تأثیرات زیستمحیطی. تقاضای بخش فناوری برای منابع بهطور قابل توجهی به تخریب محیط زیست کمک میکند. استخراج مواد معدنی، آبهای زیرزمینی را آلوده میکند، جنگلها را نابود میسازد و جوامع را جابهجا میکند. علاوه بر این، ماهیت انرژیبر هوش مصنوعی، بهویژه در آموزش مدلهای بزرگ، به افزایش ردپای کربن کمک میکند که با صنعت هوانوردی رقابت میکند.
نیاز به تغییر در نگرش. برای درک هزینه واقعی هوش مصنوعی، باید فراتر از وعدههای انتزاعی پیشرفت فناوری برویم و پیامدهای مادی آن را در نظر بگیریم. این نیازمند پذیرش هزینههای زیستمحیطی و انسانی مرتبط با استخراج منابع، مصرف انرژی و زنجیرههای تأمین جهانی است که از سیستمهای هوش مصنوعی پشتیبانی میکنند.
2. هزینه انسانی: استثمار کار در سیستمهای هوش مصنوعی
هماهنگی اقدامات انسانها با حرکات تکراری رباتها و ماشینآلات خط تولید همواره شامل کنترل بدنها در فضا و زمان بوده است.
وابستگی هوش مصنوعی به کار انسانی. با وجود روایت اتوماسیون، سیستمهای هوش مصنوعی به شدت به کار انسانی وابستهاند که اغلب پنهان و با دستمزد پایین انجام میشود. این شامل کارگران دیجیتال که دادهها را برچسبگذاری میکنند، کارمندان انبار آمازون که سفارشات را انجام میدهند و ناظران محتوا که محتوای مضر را فیلتر میکنند، میشود. این کارگران برای عملکرد سیستمهای هوش مصنوعی ضروری هستند، اما سهم آنها اغلب نادیده گرفته میشود و شرایط کاری آنها استثماری است.
زمان و کنترل. مدیریت زمان در استثمار کار در سیستمهای هوش مصنوعی مرکزی است. کارگران تحت نظارت مداوم و ارزیابی الگوریتمی قرار دارند، بهطوریکه هر اقدام آنها پیگیری و اندازهگیری میشود تا حداکثر کارایی حاصل شود. این وضعیت محیط کار استرسزا و غیرانسانی را ایجاد میکند، جایی که کارگران بهعنوان ضمیمههای ماشین تلقی میشوند.
نیاز به همبستگی کارگران. برای مقابله با استثمار کار در سیستمهای هوش مصنوعی، کارگران باید سازماندهی شوند و خواستار بهبود شرایط کاری، دستمزد عادلانه و کنترل بیشتر بر زمان و کار خود شوند. این نیازمند ایجاد همبستگی در بخشهای مختلف صنعت هوش مصنوعی، از معدنکاران تا مهندسان، و به چالش کشیدن ساختارهای قدرتی است که استثمار را تداوم میبخشند.
3. داده بهعنوان زیرساخت: محو زمینه و رضایت
تمام مواد دیجیتال قابل دسترسی عمومی—از جمله دادههای شخصی یا بالقوه مضر—برای برداشت بهمنظور ایجاد مجموعههای دادهای که برای تولید مدلهای هوش مصنوعی استفاده میشوند، باز است.
استخراج داده. صنعت هوش مصنوعی به برداشت انبوه دادهها وابسته است، اغلب بدون رضایت یا توجه به حریم خصوصی. این شامل اطلاعات شخصی، تصاویر و متونی است که از اینترنت جمعآوری شده و برای آموزش مدلهای هوش مصنوعی استفاده میشود. این عمل دادهها را بهعنوان یک منبع رایگان تلقی میکند و از پیامدهای اخلاقی و اجتماعی جمعآوری و استفاده از اطلاعات افراد بدون آگاهی یا اجازه آنها غافل است.
از تصویر به زیرساخت. تبدیل تصاویر به داده، آنها را از زمینه و معنا خالی میکند. عکسهای شناسایی، سلفیها و عکسهای شخصی به نقاط دادهای تبدیل میشوند که برای آموزش سیستمهای شناسایی چهره و سایر مدلهای هوش مصنوعی استفاده میشوند. این محو زمینه میتواند به نتایج جانبدارانه و تبعیضآمیز منجر شود، زیرا سیستمهای هوش مصنوعی یاد میگیرند که ویژگیهای خاصی را با کلیشههای منفی مرتبط کنند.
نگرانیهای اخلاقی. شیوههای کنونی جمعآوری و استفاده از دادهها در هوش مصنوعی نگرانیهای اخلاقی عمیقی را به وجود میآورد. ما باید فراتر از این ایده برویم که دادهها یک منبع خنثی هستند و به دینامیکهای قدرت ذاتی در جمعآوری، برچسبگذاری و استفاده از آنها توجه کنیم. این نیازمند توسعه دستورالعملها و مقررات اخلاقی است که از حریم خصوصی افراد محافظت کرده و از سوءاستفاده از دادههای آنها جلوگیری کند.
4. طبقهبندی بهعنوان قدرت: رمزگذاری تعصب در سیستمهای هوش مصنوعی
با نگاهی به چگونگی ایجاد طبقهبندیها، میبینیم که چگونه طرحهای فنی سلسلهمراتبها را تحمیل کرده و نابرابری را تشدید میکنند.
طبقهبندی بهعنوان یک عمل سیاسی. سیستمهای هوش مصنوعی برای درک جهان به طبقهبندی وابستهاند. با این حال، دستهبندیهای استفاده شده برای طبقهبندی دادهها نه خنثی و نه عینی هستند، بلکه بازتابدهنده تعصبات و فرضیات سازندگان آنها هستند. این تعصبات میتوانند در سیستمهای هوش مصنوعی رمزگذاری شوند و به نتایج تبعیضآمیز منجر شوند.
مسئله تعصب. نشان داده شده است که سیستمهای هوش مصنوعی در حوزههای مختلف، از شناسایی چهره تا عدالت کیفری، تعصب نشان میدهند. این تعصبات اغلب الگوهای تاریخی تبعیض را منعکس میکنند و نابرابریهای موجود را تداوم و تشدید میکنند. بهعنوان مثال، سیستمهای شناسایی چهره ممکن است برای افرادی با پوست تیره دقت کمتری داشته باشند که منجر به شناسایی نادرست و دستگیریهای نادرست میشود.
فراتر از مباحث تعصب. برای حل مسئله تعصب در هوش مصنوعی، باید فراتر از اصلاحات فنی برویم و به ساختارهای اجتماعی و سیاسی زیرین که دادهها و الگوریتمهای مورد استفاده برای آموزش سیستمهای هوش مصنوعی را شکل میدهند، بپردازیم. این نیازمند به چالش کشیدن دینامیکهای قدرتی است که نابرابری را تداوم میبخشند و ترویج رویکردهای عادلانهتر و فراگیرتر در توسعه هوش مصنوعی است.
5. شناسایی احساسات: علم پرچالش خواندن احساسات
راهحل معمای Clever Hans، بهنوشتهی Pfungst، هدایت ناخودآگاه از سوی پرسشگران اسب بود.
ادعای احساسات جهانی. سیستمهای شناسایی احساسات بر این ایده استوارند که احساسات جهانی هستند و میتوانند بهطور قابل اعتمادی از روی حالات چهره شناسایی شوند. با این حال، این ادعا به شدت مورد مناقشه است و بسیاری از محققان بر این باورند که احساسات متغیرهای فرهنگی و وابسته به زمینه هستند.
تأثیر پل اکرمن. کارهای روانشناس پل اکرمن در شکلگیری حوزه شناسایی احساسات تأثیرگذار بوده است. تحقیقات اکرمن که از دهه 1960 آغاز شد، ادعا میکرد که مجموعهای از احساسات پایهای را شناسایی کرده است که بهطور جهانی ابراز و شناسایی میشوند. با این حال، روشها و یافتههای او بهدلیل عدم دقت علمی به شدت مورد انتقاد قرار گرفته است.
نگرانیهای اخلاقی. با وجود تردیدهای علمی در مورد شناسایی احساسات، این ابزارها بهسرعت در زمینههای مختلف با ریسک بالا، از استخدام تا پلیس، به کار گرفته میشوند. این موضوع نگرانیهای اخلاقی جدی را به وجود میآورد، زیرا افراد ممکن است بر اساس ارزیابیهای نادرست و غیرقابل اعتماد از وضعیت عاطفی خود قضاوت و مورد تبعیض قرار گیرند.
6. هوش مصنوعی بهعنوان ابزاری از قدرت دولتی: نظارت و کنترل
گذشته و حال نظامی هوش مصنوعی، شیوههای نظارت، استخراج داده و ارزیابی ریسک را که امروزه مشاهده میکنیم، شکل داده است.
ریشههای نظامی هوش مصنوعی. توسعه هوش مصنوعی به شدت تحت تأثیر تأمین مالی و اولویتهای نظامی قرار دارد. این موضوع بر تمرکز این حوزه بر نظارت، استخراج داده و ارزیابی ریسک تأثیر گذاشته و به پیامدهای اخلاقی و اجتماعی توجهی نمیکند.
آرشیو اسنودن. آرشیو اسنودن نشان میدهد که تا چه حد نهادهای اطلاعاتی از هوش مصنوعی برای جمعآوری و تحلیل دادهها بهصورت انبوه استفاده کردهاند. این ابزارها که زمانی برای مقاصد امنیت ملی اختصاص داده شده بودند، اکنون بهطور داخلی به کار گرفته میشوند و مرزهای بین نظارت نظامی و غیرنظامی را محو میکنند.
استراتژی سومین جبران. استراتژی سومین جبران ارتش ایالات متحده بهدنبال حفظ تسلط خود در هوش مصنوعی با همکاری با بخش فناوری است. این موضوع منجر به رابطه نزدیکی بین ارتش و سیلیکونولی شده است، بهطوریکه شرکتهای فناوری ابزارها و تخصصهای هوش مصنوعی را به وزارت دفاع ارائه میدهند.
7. خانههای بزرگ هوش مصنوعی: متمرکز کردن قدرت و گسترش نابرابریها
این سیاستها توسط خانههای بزرگ هوش مصنوعی هدایت میشوند که شامل چندین شرکت است که بر محاسبات سیارهای در مقیاس بزرگ تسلط دارند.
تمرکز قدرت. صنعت هوش مصنوعی تحت تسلط تعداد کمی از شرکتهای فناوری قدرتمند است. این شرکتها مقادیر زیادی داده، منابع و تخصص را کنترل میکنند و به آنها مزیت قابل توجهی در شکلدهی به توسعه و استقرار سیستمهای هوش مصنوعی میدهد.
گسترش نابرابریها. تمرکز قدرت در دستان چند غول فناوری، نابرابریهای موجود را تشدید میکند. سیستمهای هوش مصنوعی اغلب بهگونهای طراحی میشوند که به منافع این شرکتها خدمت کنند و فاصله بین ثروتمندان و فقیران، قدرتمندان و حاشیهنشینان را بیشتر کنند.
نیاز به مقررات. برای مقابله با تمرکز قدرت در صنعت هوش مصنوعی، به مقررات قویتری نیاز داریم که رقابت را ترویج کرده، حریم خصوصی را محافظت کند و اطمینان حاصل کند که سیستمهای هوش مصنوعی بهنحوی استفاده میشوند که به نفع جامعه بهطور کلی باشد. این نیازمند به چالش کشیدن تسلط غولهای فناوری و ترویج اشکال دموکراتیکتر و پاسخگوتر از حاکمیت هوش مصنوعی است.
8. به چالش کشیدن منطقها: بهسوی جنبشهای متصل برای عدالت
با تغییر شرایط زمین، باید خواستههای حفاظت از دادهها، حقوق کار، عدالت اقلیمی و برابری نژادی را بهطور همزمان شنید.
جنبشهای متصل. برای حل مشکلات بنیادی هوش مصنوعی، نیاز به ارتباط مسائل قدرت و عدالت داریم. این شامل حفاظت از دادهها، حقوق کار، عدالت اقلیمی و برابری نژادی است. با همکاری، این جنبشها میتوانند به چالش ساختارهای قدرتی بپردازند که هوش مصنوعی در حال حاضر تقویت میکند.
سیاستهای رد. ما باید ایدهای را که هوش مصنوعی اجتنابناپذیر است و هیچ انتخابی جز پذیرش پیامدهای آن نداریم، رد کنیم. این نیازمند به چالش کشیدن روایتهای تعیینگرایی فناوری و خواستار اشکال دموکراتیکتر و پاسخگوتر از حاکمیت هوش مصنوعی است.
چشمانداز متفاوت. با ارتباط مسائل قدرت و عدالت، میتوانیم چشمانداز متفاوتی برای هوش مصنوعی ایجاد کنیم، چشماندازی که به رفاه انسانی، پایداری زیستمحیطی و برابری اجتماعی اولویت میدهد. این نیازمند به چالش کشیدن منطقهای استخراجی هوش مصنوعی و ساختن آیندهای عادلانهتر و پایدارتر برای همه است.
آخرین بهروزرسانی::
نقد و بررسی
کتاب اطلس هوش مصنوعی نظرات متفاوتی را به خود جلب کرده است. برخی از منتقدان به بررسی انتقادی تأثیرات اجتماعی و زیستمحیطی هوش مصنوعی در این کتاب اشاره کرده و آن را ستایش میکنند، در حالی که دیگران به نوشتار تکراری و کمبود راهحلها در آن انتقاد میکنند. خوانندگان از بررسی هزینههای مادی هوش مصنوعی، استثمار نیروی کار و نگرانیهای اخلاقی در این کتاب قدردانی میکنند. با این حال، برخی آن را بیش از حد بدبینانه و فاقد عمق فنی میدانند. این کتاب به خاطر رویکرد جامع خود مورد تحسین قرار گرفته، اما به خاطر لحن آکادمیک و گاهی عدم تمرکز نیز مورد انتقاد قرار میگیرد. با وجود کاستیهایش، بسیاری آن را کتابی مهم برای درک پیامدهای گستردهتر هوش مصنوعی میدانند.
Similar Books









