Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Empire of AI

Empire of AI

Dreams and Nightmares in Sam Altman's OpenAI
توسط Karen Hao 2025 496 صفحات
4.17
367 امتیازها
گوش دادن
Try Full Access for 7 Days
Unlock listening & more!
Continue

نکات کلیدی

۱. تأسیس ایدئالیستی OpenAI به‌سرعت جای خود را به جستجوی قدرت و سود داد.

در چهار سال بعد، OpenAI تبدیل به همان چیزی شد که خود ادعا می‌کرد نخواهد شد.

نوع‌دوستی اولیه. OpenAI به‌عنوان یک سازمان غیرانتفاعی توسط افرادی چون ایلان ماسک و سم آلتمن تأسیس شد و در ابتدا متعهد به سرمایه‌گذاری یک میلیارد دلار برای توسعه هوش مصنوعی عمومی (AGI) به نفع بشریت بود، با تأکید بر شفافیت، همکاری و حتی فداکاری در صورتی که پروژه‌ای دیگر از آن پیشی بگیرد. هدف اصلی جلوگیری از کنترل AGI توسط یک شرکت واحد مانند گوگل بود.

گرایش به تجاری‌سازی. فشارهای مالی و کشمکش‌های داخلی، به‌ویژه پس از خروج ماسک، آلتمن را واداشت تا ساختار OpenAI را به یک نهاد «سود محدود» تغییر دهد. این تغییر امکان جذب سرمایه‌های کلان، از جمله سرمایه‌گذاری یک میلیارد دلاری مایکروسافت، را فراهم کرد اما مسیر بنیادین آن را به سمت تجاری‌سازی تهاجمی و محرمانگی سوق داد و اولویت را به کسب مقام نخست در AGI به جای پایبندی به آرمان‌های اولیه داد.

فرسایش اصول. این گذار نشانه‌ای آشکار از فاصله گرفتن از مأموریت اصلی بود.

  • شفافیت جای خود را به محرمانگی داد.
  • همکاری به رقابت شدید تبدیل شد.
  • تمرکز از پژوهش آزاد به ساخت محصولات سودآور مانند ChatGPT تغییر یافت که به دنبال ارزش‌گذاری‌های کلان بود.
    این تحول نشان داد که پروژه، باوجود ظاهر نجیبانه، تحت تأثیر خودخواهی و تمایل به تسلط نیز قرار دارد.

۲. مقیاس‌پذیری بی‌وقفه مدل‌های هوش مصنوعی به استراتژی اصلی OpenAI بدل شد، که ناشی از پیشگویی خودتحقق‌بخش بود.

قانون OpenAI، یا آنچه بعدها شرکت با تعقیب شدیدتر قوانین مقیاس‌پذیری جایگزین کرد، دقیقاً همان است. این یک پدیده طبیعی نیست، بلکه پیشگویی خودتحقق‌بخش است.

فرضیه مقیاس‌پذیری. با الهام از مشاهده بهبود عملکرد هوش مصنوعی با افزایش منابع محاسباتی («محاسبه»)، به‌ویژه پس از پیشرفت ImageNet در سال ۲۰۱۲، رهبران OpenAI، به‌خصوص ایلیا سوتسکِور و گرگ بروکمن، نظریه‌پردازی کردند که مقیاس‌دادن شبکه‌های عصبی ساده به اندازه‌های بی‌سابقه سریع‌ترین مسیر به AGI است. آن‌ها متوجه شدند که استفاده از محاسبه در هوش مصنوعی سریع‌تر از قانون مور رشد می‌کند.

نیاز به محاسبات عظیم. این فرضیه تقاضای سیری‌ناپذیری برای کارت‌های گرافیک و ابررایانه‌ها ایجاد کرد که بسیار فراتر از منابع یک سازمان غیرانتفاعی بود.

  • آموزش GPT-3 به ابررایانه‌ای با ۱۰ هزار کارت گرافیک نیاز داشت.
  • مدل‌های آینده مانند GPT-4 و فراتر از آن به ده‌ها یا صدها هزار کارت گرافیک نیاز خواهند داشت.
  • هزینه تخمینی ابررایانه «فاز ۵» آینده می‌تواند به ۱۰۰ میلیارد دلار برسد.
    این نیاز فزاینده به سرمایه و زیرساخت، تغییر به مدل سودمحور و اتکا به شرکایی مانند مایکروسافت را تثبیت کرد.

یک ضرورت استراتژیک. مقیاس‌پذیری نه تنها رویکردی فنی بلکه استراتژی کسب‌وکار شد.

  • برای نخست بودن یا بهترین بودن باید در منحنی مقیاس پیشتاز بود.
  • عقب ماندن به معنای از دست دادن نفوذ در توسعه AGI بود.
    این باور به «مقیاس بالاتر از همه» قوانین عصر جدید هوش مصنوعی را تعیین کرد و کل صنعت را به مسابقه‌ای پرهزینه و منابع‌بر کشاند، بی‌توجه به رویکردهای جایگزین یا پیامدهای احتمالی.

۳. رشد امپراتوری هوش مصنوعی با بهره‌کشی از نیروی کار آسیب‌پذیر جهانی برای برچسب‌گذاری داده‌ها تأمین می‌شود.

پشت وعده‌های فناوری‌هایشان برای افزایش بهره‌وری، آزادسازی اقتصادی و ایجاد شغل‌های جدید که قرار بود اتوماسیون را جبران کند، واقعیت امروز کاملاً برعکس بوده است.

نیروی کار پنهان. آموزش مدل‌های هوش مصنوعی، به‌ویژه مدل‌های زبانی بزرگ، نیازمند نیروی کار انسانی گسترده برای جمع‌آوری، پاک‌سازی و برچسب‌گذاری داده‌هاست. این «کار ارواح» اغلب به کارگران کم‌درآمد در سراسر جهان، به‌ویژه در کشورهایی با مشکلات اقتصادی، برون‌سپاری می‌شود.

بهره‌کشی در اقتصادهای بحران‌زده. شرکت‌هایی مانند Scale AI و Sama از بحران‌هایی مانند فروپاشی اقتصادی ونزوئلا یا تأثیر همه‌گیری در کنیا بهره برده‌اند تا کارگران ناامید را برای انجام وظایف خسته‌کننده و اغلب آسیب‌زننده روانی با دستمزد ناچیز جذب کنند.

  • ونزوئلایی‌ها کمتر از یک دلار در ساعت در پلتفرم‌هایی مانند Remotasks کار می‌کردند.
  • کارگران کنیا کمتر از ۲ دلار در ساعت برای پالایش محتوای سمی برای OpenAI دریافت می‌کردند.
    این اتکا به نیروی کار شکننده، بازتابی از شیوه‌های استعماری تاریخی در بهره‌کشی از جمعیت‌های تحت سلطه برای استخراج منابع است.

هزینه «تالاب‌های داده». تغییر به آموزش مدل‌ها بر داده‌های عظیم و بدون پالایش («تالاب‌های داده») نیاز به نظارت محتوا و یادگیری تقویتی از بازخورد انسانی (RLHF) را افزایش داد. این امر کارگران را در معرض محتوای آزاردهنده، از جمله تصاویر سوءاستفاده جنسی از کودکان، قرار داد که پیامدهای شدید روانی به همراه داشت، اغلب بدون حمایت کافی یا جبران منصفانه.

۴. ساخت امپراتوری هوش مصنوعی نیازمند منابع عظیم است که هزینه‌های زیست‌محیطی قابل توجهی در سراسر جهان تحمیل می‌کند.

اگر بخواهیم این فناوری را همانند گذشته توسعه دهیم، زمین را ویران خواهیم کرد.

زیرساخت فیزیکی. مدل‌های هوش مصنوعی، به‌ویژه مدل‌های بزرگ مولد، به مراکز داده عظیم («هایپراسکیلرها» و «مگاکمپس‌ها») برای آموزش و استنتاج نیاز دارند. این تأسیسات مصرف انرژی، زمین، مواد معدنی و آب بسیار زیادی دارند.

افزایش ردپای زیست‌محیطی. تقاضا برای منابع با افزایش مقیاس به‌طور نمایی رشد می‌کند.

  • پیش‌بینی می‌شود مراکز داده تا سال ۲۰۳۰، ۸٪ از برق آمریکا را مصرف کنند.
  • مصرف انرژی محاسبات هوش مصنوعی در جهان می‌تواند از هند بیشتر شود.
  • تقاضای هوش مصنوعی ممکن است تا سال ۲۰۲۷، بین ۱.۱ تا ۱.۷ تریلیون گالن آب شیرین در جهان مصرف کند.
    این شدت مصرف منابع تغییرات اقلیمی را تشدید و محیط‌های محلی، به‌ویژه در مناطق با کمبود آب، را تحت فشار قرار می‌دهد.

تأثیر نامتناسب. بار زیست‌محیطی به‌طور عمده بر جوامع، اغلب در جنوب جهانی، که مراکز داده به دلیل ارزان بودن زمین، انرژی و آب در آنجا ساخته می‌شوند، تحمیل می‌شود. این جوامع که به‌دلیل استخراج تاریخی آسیب‌پذیر هستند، با مشکلاتی چون:

  • کاهش منابع آب،
  • افزایش تقاضای انرژی که شبکه‌های محلی را تحت فشار قرار می‌دهد،
  • آلودگی صوتی و جابجایی زمین مواجه‌اند.
    با وجود ادعاهای پایداری شرکت‌ها، واقعیت اغلب ادامه غارت منابع به نفع غول‌های فناوری دوردست است.

۵. درگیری‌های داخلی بر سر ایمنی در برابر تجاری‌سازی با تسریع عرضه OpenAI شدت گرفت.

برای موفقیت، نیاز داریم این سه قبیله به یک قبیله واحد تبدیل شوند—در حالی که قدرت‌های هر قبیله حفظ شود—و در جهت AGI که بیشترین منفعت را برای بشریت دارد، همکاری کنند.

گروه‌های درون OpenAI. از ابتدا، OpenAI با تقسیمات داخلی مشخص می‌شد که به‌صورت کلی به «پژوهش اکتشافی» (پیشبرد قابلیت‌ها)، «ایمنی» (تمرکز بر ریسک‌ها) و «استارتاپ» (سرعت عمل و ساخت محصول) شناخته می‌شدند. این گروه‌ها اغلب بر سر اولویت‌ها و سرعت توسعه با هم درگیر بودند.

نگرانی‌های ایمنی در برابر فوریت محصول. گروه «ایمنی»، به‌ویژه کسانی که بر ریسک‌های فاجعه‌بار و وجودی (دومرز) تمرکز داشتند، از سرعت بالای مقیاس‌پذیری و عرضه مدل‌هایی مانند GPT-3 و DALL-E 2 بدون آزمایش یا مکانیزم‌های ایمنی کافی نگران بودند و خواستار احتیاط و تأخیر شدند.

فشارهای تجاری غالب شدند. بخش «کاربردی» و قبیله «استارتاپ» که با سرمایه‌گذاری و نیاز به درآمد تقویت شده بودند، برای عرضه سریع‌تر محصولات («عرضه تکراری») فشار آوردند.

  • API GPT-3 با وجود نگرانی‌های ایمنی عرضه شد.
  • DALL-E 2 به‌عنوان «پیش‌نمایش پژوهشی» برای مدیریت ریسک منتشر شد.
  • ChatGPT به‌دلیل رقابت احساس‌شده به سرعت عرضه شد.
    این تصمیمات اغلب اعتراضات ایمنی را نادیده گرفت و تنش ایجاد کرد و منجر به خروج پژوهشگران کلیدی ایمنی شد که احساس می‌کردند نگرانی‌هایشان برای منافع تجاری کنار گذاشته شده است.

۶. سبک رهبری سم آلتمن—با ویژگی‌هایی چون جاه‌طلبی، معامله‌گری و ادعای دستکاری—هم موفقیت و هم آشفتگی را به همراه داشت.

«سم در به‌دست آوردن قدرت بسیار ماهر است.»

جاه‌طلبی و شبکه‌سازی. سم آلتمن با جاه‌طلبی بی‌وقفه، استعداد معامله‌گری و تمرکز استراتژیک بر ساخت شبکه‌های قدرتمند شناخته می‌شود. او از موقعیت خود در Y Combinator و روابطش با افرادی چون پیتر تیل و رید هافمن برای پیشبرد حرفه و جایگاه OpenAI بهره برد.

رفتارهای متناقض. آلتمن کاریزماتیک و ظاهراً موافق به نظر می‌رسد، اما دچار اضطراب و الگوی گفتن آنچه افراد می‌خواهند بشنوند است. این باعث سردرگمی، بی‌اعتمادی و تعارض میان همکاران و شرکا شد، از جمله:

  • ارائه نادرست توافق‌ها با مایکروسافت،
  • ایجاد رقابت میان مدیران (مثلاً سوتسکِور و پاچوکی)،
  • تضعیف کسانی که با او مخالفت می‌کردند.
    این رفتارها، هرچند به‌ظاهر جزئی، حس بی‌ثباتی گسترده‌ای در سطوح بالای سازمان ایجاد کرد.

اتهامات دروغ‌گویی و سوءاستفاده. اتهامات جدی‌تری، از جمله از سوی خواهرش آنی آلتمن و همکاران سابقی مانند جفری ایروینگ، تصویری از تاریخچه طولانی دستکاری، دروغ‌گویی و سوءاستفاده ارائه می‌دهند. اگرچه آلتمن و خانواده‌اش این ادعاها را رد می‌کنند، این موضوع در میان برخی باعث شکل‌گیری نگرشی شد که رفتار شخصی او عمیقاً مشکل‌ساز و مرتبط با رهبری یک شرکت قدرتمند هوش مصنوعی است.

۷. بحران هیئت‌مدیره در ۲۰۲۳، کشمکش‌های عمیق قدرت و شکست‌های حاکمیتی در رأس توسعه هوش مصنوعی را آشکار کرد.

این بحران به روشنی نشان داد که چگونه کشمکش قدرت میان تعداد اندکی از نخبگان سیلیکون ولی آینده هوش مصنوعی را شکل می‌دهد.

نگرانی‌های هیئت‌مدیره. هیئت‌مدیره غیرانتفاعی OpenAI که مسئول اولویت دادن به مأموریت بر سود بود، نسبت به سبک رهبری سم آلتمن، کم‌صداقتی ادراک‌شده و رفتارهایی که به نظر می‌رسید نظارت هیئت و فرهنگ ایمنی شرکت را تضعیف می‌کند، نگران شد. بازخورد از مدیران ارشد مانند ایلیا سوتسکِور و میرا موراتی این نگرانی‌ها را تقویت کرد.

اخراج و پیامدها. تصمیم هیئت‌مدیره برای برکناری آلتمن دوره‌ای پنج‌روزه از آشفتگی ایجاد کرد.

  • کارکنان تهدید به استعفای دسته‌جمعی کردند.
  • سرمایه‌گذاران هیئت را تحت فشار گذاشتند تا آلتمن را بازگردانند.
  • مایکروسافت به‌صورت علنی از آلتمن حمایت کرد و به کارکنان جداشده پیشنهاد شغل داد.
    واکنش سریع و گسترده نشان داد که هیئت‌مدیره نفوذ آلتمن و وفاداری عمیق کارکنان و ذینفعان کلیدی به او را دست‌کم گرفته بود.

شکست حاکمیتی. این بحران شکنندگی ساختار حاکمیتی منحصربه‌فرد OpenAI را نشان داد. هیئت‌مدیره غیرانتفاعی، با وجود مأموریت خود، در برابر فشار منافع مالی و تهدید فروپاشی شرکت تسلیم شد. این رویداد تأکید کرد که تصمیمات حیاتی درباره فناوری با پیامدهای جهانی پشت درهای بسته توسط گروه کوچکی گرفته می‌شود، با شفافیت محدود حتی برای کارکنان.

۸. OpenAI فعالانه سیاست‌های هوش مصنوعی را به نفع شرکت‌های بزرگ و مدل‌های پیشرفته شکل می‌دهد و اغلب آسیب‌های فعلی را نادیده می‌گیرد.

تیم آماده‌سازی آلتمن این را موفقیتی چشمگیر دانست.

کمپین تأثیرگذاری سیاستی. پس از موفقیت ChatGPT، سم آلتمن و OpenAI تلاش گسترده‌ای برای لابی‌گری جهانی آغاز کردند و با سیاست‌گذاران سراسر جهان دیدار کردند تا مقررات هوش مصنوعی را شکل دهند. شهادت آلتمن در کنگره نقطه عطفی بود که OpenAI را به‌عنوان رهبر مسئول و مدافع تضمین‌های لازم معرفی کرد.

تمرکز بر ریسک‌های «مرزی». پیشنهادات سیاستی OpenAI، که توسط «انجمن مدل‌های مرزی» (شامل گوگل و Anthropic) نیز تکرار می‌شود، بر تنظیم ریسک‌های بالقوه فاجعه‌بار آینده از مدل‌های هوش مصنوعی بسیار توانمند («مرزی») تأکید دارد. این رویکرد توجه را از تنظیم آسیب‌های مستند و فوری سیستم‌های موجود، مانند:

  • جابجایی و بهره‌کشی نیروی کار،
  • هزینه‌های زیست‌محیطی،
  • تبعیض و تعصب،
  • نقض حق نشر و حریم خصوصی داده‌ها،
    دور می‌کند.

آستانه‌های محاسباتی و کنترل صادرات. پیشنهادات کلیدی مانند استفاده از آستانه‌های محاسباتی (مثلاً ۱۰^۲۶ عملیات شناور) برای شناسایی مدل‌های «مرزی» و محدود کردن صادرات آن‌ها (احتمالاً ممنوعیت وزن‌های مدل‌های متن‌باز) با استراتژی مقیاس‌پذیری و منافع رقابتی OpenAI همسو است. این اقدامات خطر تثبیت سلطه شرکت‌های دارای منابع محاسباتی عظیم را دارد و تحقیقات مستقل را محدود می‌کند.

۹. استعاره «امپراتوری هوش مصنوعی» شباهت‌های نگران‌کننده‌ای با استعمار و استخراج منابع تاریخی نشان می‌دهد.

در طول سال‌ها، تنها یک استعاره یافتم که ماهیت این بازیگران قدرت در هوش مصنوعی را به‌خوبی توصیف می‌کند: امپراتوری‌ها.

استخراج منابع. مانند امپراتوری‌های تاریخی، شرکت‌های هوش مصنوعی منابع ارزشمندی را تصاحب و استخراج می‌کنند:

  • آثار هنرمندان، نویسندگان و کاربران آنلاین (داده‌ها)،
  • نیروی کار کم‌درآمد جهانی (برچسب‌گذاری داده‌ها، نظارت محتوا)،
  • زمین، انرژی، آب و مواد معدنی برای مراکز داده و سخت‌افزار.
    این استخراج اغلب بدون رضایت، جبران منصفانه یا توجه به جوامع و محیط‌های محلی انجام می‌شود.

توجیه از طریق روایت. تعقیب AGI و وعده آینده‌ای بهتر («مدرنیته»، «پیشرفت»، «فراوانی») به‌عنوان روایت قدرتمندی برای توجیه این استخراج و بهره‌کشی عمل می‌کند. این مشابه استفاده امپراتوری‌های تاریخی از مفاهیمی چون «ماموریت‌های تمدنی» برای مشروعیت‌بخشی به اقداماتشان است.

تمرکز ثروت و قدرت. منافع این نظام به‌طور نامتناسبی به اقلیت کوچکی در سیلیکون ولی و شرکت‌های هم‌پیمان می‌رسد، در حالی که هزینه‌ها بر دوش جمعیت‌های آسیب‌پذیر جهانی است. رقابت بی‌وقفه برای پیشی گرفتن در «مسابقه هوش مصنوعی» این پویایی استخراجی را تش

آخرین به‌روزرسانی::

FAQ

What is Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI by Karen Hao about?

  • In-depth OpenAI profile: The book offers a comprehensive look at OpenAI’s rise, internal power struggles, and the broader implications of its work on artificial intelligence.
  • Focus on power and governance: It examines how a small group of tech elites, led by Sam Altman, shape the future of AI, highlighting the tension between idealistic missions and commercial pressures.
  • Societal and global impact: Karen Hao explores AI’s effects on labor, the environment, and the concentration of wealth and influence, framing AI development as a new form of empire-building.
  • Insider access: The narrative is based on over 300 interviews and extensive documentation, providing rare behind-the-scenes insights into OpenAI and the global AI industry.

Why should I read Empire of AI by Karen Hao?

  • Reveals hidden complexities: The book uncovers the human, ethical, and political struggles behind AI’s development, challenging simplistic narratives of technological progress.
  • Societal and ethical context: Readers gain awareness of the real-world costs of AI, including labor exploitation, environmental harm, and the marginalization of vulnerable communities.
  • Nuanced leadership portrait: It provides a balanced, detailed view of Sam Altman and OpenAI’s internal politics, showing how personalities and corporate culture shape AI’s trajectory.
  • Alternative perspectives: The book introduces community-driven AI projects and movements, offering hope for more ethical and inclusive AI futures.

What are the key takeaways from Empire of AI by Karen Hao?

  • AI is political: Progress in AI is driven by the ambitions and conflicts of a few powerful individuals and corporations, not just scientific merit.
  • Scaling and its costs: OpenAI’s doctrine of scaling compute and data to achieve AGI fuels a costly, competitive race with significant social and environmental consequences.
  • Concentration of benefits and harms: The rewards of AI are concentrated among elites, while workers and marginalized groups bear the burdens.
  • Transparency and governance challenges: OpenAI’s shift from openness to secrecy illustrates the difficulties of responsible AI governance in a high-stakes environment.
  • Possibility of alternatives: The book argues for diverse AI approaches and stronger policies to democratize AI’s benefits and mitigate its harms.

Who is Sam Altman and how is he portrayed in Empire of AI by Karen Hao?

  • Central figure and CEO: Sam Altman is the CEO and cofounder of OpenAI, depicted as a charismatic, ambitious, and sometimes controversial leader.
  • Complex personality: The book explores Altman’s background, personal traits, and leadership style, highlighting his ambition, sensitivity, and tendency toward secrecy and manipulation.
  • Power struggles: Altman’s decisions, including his brief ouster and reinstatement, exemplify the intense internal conflicts and governance challenges at OpenAI.
  • Public image vs. reality: While Altman carefully curates his public persona, the book reveals the anxieties and contradictions beneath his leadership.

What is OpenAI’s mission and how has it evolved according to Empire of AI?

  • Original nonprofit mission: OpenAI was founded to develop artificial general intelligence (AGI) for the benefit of all humanity, emphasizing openness and collaboration.
  • Shift to for-profit model: Financial pressures led to the creation of a capped-profit partnership, allowing OpenAI to raise billions while still claiming to prioritize its mission.
  • Erosion of ideals: Over time, commitments to transparency and altruism gave way to secrecy, commercialization, and competitive urgency.
  • Mission as justification: The mission is often invoked to rationalize rapid scaling and secrecy, with the belief that being first is essential to ensuring beneficial AI outcomes.

What is artificial general intelligence (AGI) and how is it portrayed in Empire of AI by Karen Hao?

  • Definition of AGI: AGI refers to highly autonomous AI systems that outperform humans at most economically valuable work, representing the theoretical pinnacle of AI research.
  • Uncertain and aspirational goal: The book emphasizes that AGI is an amorphous, largely unknowable target, with no clear markers for success or timeline.
  • Scaling hypothesis: OpenAI’s leadership, especially Ilya Sutskever, believes AGI will emerge primarily through scaling simple neural networks with massive compute and data.
  • Rhetorical tool: AGI serves as a powerful narrative to justify OpenAI’s aggressive resource consumption and secrecy, even as current AI systems fall short of true general intelligence.

What are the “scaling laws” and “OpenAI’s Law” described in Empire of AI by Karen Hao?

  • OpenAI’s Law: This term describes the rapid doubling of compute used in AI breakthroughs, far outpacing Moore’s Law and requiring massive computational resources.
  • Scaling laws: These are empirical relationships showing how AI model performance improves predictably with increases in training data, compute, and model size.
  • Strategic importance: Scaling laws underpin OpenAI’s focus on building ever-larger models like GPT-3 and GPT-4, driving its resource-intensive approach.
  • Consequences: The pursuit of scaling leads to enormous financial, environmental, and social costs, and creates a high-stakes race that shapes the entire AI industry.

How does Empire of AI by Karen Hao describe the role of human labor and data annotation in AI development?

  • Foundational human labor: The book reveals that AI models rely heavily on low-paid annotators, often in the Global South, who label data and moderate content under harsh conditions.
  • Exploitation and precarity: Workers face unstable pay, psychological harm, and limited protections, with companies exploiting crises in countries like Kenya and Venezuela to source cheap labor.
  • Invisible but essential: Despite their critical role in AI’s success, these workers remain largely invisible and unsupported, highlighting a hidden supply chain.
  • Calls for reform: The book discusses organizing efforts and research initiatives advocating for fair pay and labor rights in the AI industry.

What environmental and resource impacts of AI are highlighted in Empire of AI by Karen Hao?

  • Massive energy consumption: Training and running large AI models require enormous computing power, leading to significant carbon emissions and energy use.
  • Water and land use: Data centers consume vast amounts of water for cooling and occupy large land areas, often in vulnerable or marginalized communities.
  • Extractivism and local harm: Mining for resources like lithium and copper, especially in places like Chile’s Atacama Desert, disrupts ecosystems and displaces Indigenous communities.
  • Corporate greenwashing: Tech companies often downplay environmental harms, promoting efficiency narratives while lacking transparency about AI’s true carbon footprint.

What were the key events and lessons from the OpenAI board crisis in Empire of AI by Karen Hao?

  • Altman’s firing and reinstatement: In November 2023, OpenAI’s board abruptly fired CEO Sam Altman, citing concerns about his leadership and honesty, but reinstated him after employee and investor backlash.
  • Internal divisions: The crisis exposed deep fractures within OpenAI’s leadership, including conflicts among Altman, Greg Brockman, Ilya Sutskever, and Mira Murati.
  • Governance failures: The board struggled with oversight, lacked independent legal support, and faced challenges in holding Altman accountable.
  • Aftermath: The episode led to resignations, loss of trust, and highlighted the precarious balance of power in governing a powerful AI company.

How does Empire of AI by Karen Hao address AI safety and the ideological divide within OpenAI?

  • Safety vs. speed: The book describes a factional split between those prioritizing AI safety (“Doomers”) and those pushing for rapid deployment and commercialization (“Boomers”).
  • Superalignment and preparedness: OpenAI launched initiatives like Superalignment and the Preparedness Framework to evaluate and mitigate dangerous AI capabilities, but these were often rushed or deprioritized.
  • Internal conflict: Safety advocates clashed with leadership, leading to departures of key researchers and raising concerns about the company’s commitment to responsible AI.
  • Broader implications: The book underscores the need for independent oversight, transparency, and whistleblower protections to ensure AI safety.

What is reinforcement learning from human feedback (RLHF) and how is it explained in Empire of AI by Karen Hao?

  • Definition and purpose: RLHF is a technique where human contractors provide examples and rank AI outputs to teach models to produce more helpful, truthful, and harmless responses.
  • Process details: Workers write ideal answers to prompts and rank multiple AI-generated responses, allowing the model to learn from this feedback and adjust its outputs.
  • Impact on AI models: RLHF was central to developing InstructGPT, ChatGPT, and GPT-4’s chat capabilities, improving usability and safety.
  • Limitations: Despite its benefits, RLHF cannot fully eliminate errors or hallucinations, as neural networks inherently produce probabilistic outputs.

What are some of the best quotes from Empire of AI by Karen Hao and what do they mean?

  • On explaining AI: Joseph Weizenbaum’s quote, “It is said that to explain is to explain away... its magic crumbles away,” highlights the tension between AI’s perceived intelligence and its mechanistic reality.
  • On success and vision: Sam Altman’s statement, “Successful people create companies. More successful people create countries. The most successful people create religions,” reflects his view of tech founders as visionaries shaping belief systems.
  • On OpenAI’s mission: Altman wrote, “Building AGI that benefits humanity is perhaps the most important project in the world... We must put the mission ahead of any individual preferences,” underscoring the company’s framing of its work as a historic, collective endeavor.
  • On AI’s future: Altman predicted,

نقد و بررسی

4.17 از 5
میانگین از 367 امتیازات از Goodreads و Amazon.

کتاب «امپراتوری هوش مصنوعی» با نظرات متفاوتی روبه‌رو شده است؛ از یک‌سو، گزارش‌های تحقیقی آن درباره‌ی شرکت OpenAI و سم آلتمن مورد تحسین قرار گرفته و از سوی دیگر، به دلیل برداشت‌های جانبدارانه و کمبود عمق فنی مورد انتقاد واقع شده است. برخی خوانندگان از افشاگرهای کتاب درباره‌ی تأثیرات زیست‌محیطی و نیروی کار در حوزه‌ی هوش مصنوعی استقبال کرده‌اند، در حالی که عده‌ای دیگر آن را بیش از حد انتقادی و تحت تأثیر دیدگاه‌های ایدئولوژیک می‌دانند. ساختار روایت و تمرکز بر جزئیات شخصی نیز از جمله موضوعات بحث‌برانگیز بوده است. در مجموع، خوانندگان به بینش‌های ارائه‌شده درباره‌ی روند تحول OpenAI و شیوه‌های صنعت هوش مصنوعی ارزش می‌نهند، اما دیدگاه‌ها درباره‌ی زاویه‌ی دید و نتیجه‌گیری‌های کتاب متفاوت است.

Your rating:
4.59
116 امتیازها

درباره نویسنده

کارن هاو، روزنامه‌نگار حوزه فناوری، به‌خاطر پوشش اخبار هوش مصنوعی و تأثیرات اجتماعی آن شناخته شده است. او تجربه‌ی گسترده‌ای در گزارش‌دهی درباره شرکت‌هایی مانند OpenAI و دیگر شرکت‌های بزرگ فناوری دارد و سال‌هاست که صنعت هوش مصنوعی را دنبال می‌کند. رویکرد هاو ترکیبی از پژوهش‌های عمیق و نگاهی انتقادی به دینامیک قدرت و پیامدهای اخلاقی توسعه هوش مصنوعی است. آثار او اغلب به موضوعاتی چون مسئولیت‌پذیری، شرایط کاری و پیامدهای زیست‌محیطی در بخش فناوری می‌پردازد. سبک نوشتاری هاو جذاب و قابل فهم توصیف شده است، هرچند برخی خوانندگان دیدگاه‌های او را بحث‌برانگیز می‌دانند. پیشینه‌ی او در روزنامه‌نگاری و فناوری، درک دقیق و پیچیده‌ای از مسائل هوش مصنوعی برایش فراهم آورده است.

Listen
Now playing
Empire of AI
0:00
-0:00
Now playing
Empire of AI
0:00
-0:00
1x
Voice
Speed
Dan
Andrew
Michelle
Lauren
1.0×
+
200 words per minute
Queue
Home
Swipe
Library
Get App
Create a free account to unlock:
Recommendations: Personalized for you
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
200,000+ readers
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 4
📜 Unlimited History
Free users are limited to 4
📥 Unlimited Downloads
Free users are limited to 1
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Jul 22,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
200,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Start a 7-Day Free Trial
7 days free, then $44.99/year. Cancel anytime.
Scanner
Find a barcode to scan

Settings
General
Widget
Loading...