نکات کلیدی
۱. تأسیس ایدئالیستی OpenAI بهسرعت جای خود را به جستجوی قدرت و سود داد.
در چهار سال بعد، OpenAI تبدیل به همان چیزی شد که خود ادعا میکرد نخواهد شد.
نوعدوستی اولیه. OpenAI بهعنوان یک سازمان غیرانتفاعی توسط افرادی چون ایلان ماسک و سم آلتمن تأسیس شد و در ابتدا متعهد به سرمایهگذاری یک میلیارد دلار برای توسعه هوش مصنوعی عمومی (AGI) به نفع بشریت بود، با تأکید بر شفافیت، همکاری و حتی فداکاری در صورتی که پروژهای دیگر از آن پیشی بگیرد. هدف اصلی جلوگیری از کنترل AGI توسط یک شرکت واحد مانند گوگل بود.
گرایش به تجاریسازی. فشارهای مالی و کشمکشهای داخلی، بهویژه پس از خروج ماسک، آلتمن را واداشت تا ساختار OpenAI را به یک نهاد «سود محدود» تغییر دهد. این تغییر امکان جذب سرمایههای کلان، از جمله سرمایهگذاری یک میلیارد دلاری مایکروسافت، را فراهم کرد اما مسیر بنیادین آن را به سمت تجاریسازی تهاجمی و محرمانگی سوق داد و اولویت را به کسب مقام نخست در AGI به جای پایبندی به آرمانهای اولیه داد.
فرسایش اصول. این گذار نشانهای آشکار از فاصله گرفتن از مأموریت اصلی بود.
- شفافیت جای خود را به محرمانگی داد.
- همکاری به رقابت شدید تبدیل شد.
- تمرکز از پژوهش آزاد به ساخت محصولات سودآور مانند ChatGPT تغییر یافت که به دنبال ارزشگذاریهای کلان بود.
این تحول نشان داد که پروژه، باوجود ظاهر نجیبانه، تحت تأثیر خودخواهی و تمایل به تسلط نیز قرار دارد.
۲. مقیاسپذیری بیوقفه مدلهای هوش مصنوعی به استراتژی اصلی OpenAI بدل شد، که ناشی از پیشگویی خودتحققبخش بود.
قانون OpenAI، یا آنچه بعدها شرکت با تعقیب شدیدتر قوانین مقیاسپذیری جایگزین کرد، دقیقاً همان است. این یک پدیده طبیعی نیست، بلکه پیشگویی خودتحققبخش است.
فرضیه مقیاسپذیری. با الهام از مشاهده بهبود عملکرد هوش مصنوعی با افزایش منابع محاسباتی («محاسبه»)، بهویژه پس از پیشرفت ImageNet در سال ۲۰۱۲، رهبران OpenAI، بهخصوص ایلیا سوتسکِور و گرگ بروکمن، نظریهپردازی کردند که مقیاسدادن شبکههای عصبی ساده به اندازههای بیسابقه سریعترین مسیر به AGI است. آنها متوجه شدند که استفاده از محاسبه در هوش مصنوعی سریعتر از قانون مور رشد میکند.
نیاز به محاسبات عظیم. این فرضیه تقاضای سیریناپذیری برای کارتهای گرافیک و ابررایانهها ایجاد کرد که بسیار فراتر از منابع یک سازمان غیرانتفاعی بود.
- آموزش GPT-3 به ابررایانهای با ۱۰ هزار کارت گرافیک نیاز داشت.
- مدلهای آینده مانند GPT-4 و فراتر از آن به دهها یا صدها هزار کارت گرافیک نیاز خواهند داشت.
- هزینه تخمینی ابررایانه «فاز ۵» آینده میتواند به ۱۰۰ میلیارد دلار برسد.
این نیاز فزاینده به سرمایه و زیرساخت، تغییر به مدل سودمحور و اتکا به شرکایی مانند مایکروسافت را تثبیت کرد.
یک ضرورت استراتژیک. مقیاسپذیری نه تنها رویکردی فنی بلکه استراتژی کسبوکار شد.
- برای نخست بودن یا بهترین بودن باید در منحنی مقیاس پیشتاز بود.
- عقب ماندن به معنای از دست دادن نفوذ در توسعه AGI بود.
این باور به «مقیاس بالاتر از همه» قوانین عصر جدید هوش مصنوعی را تعیین کرد و کل صنعت را به مسابقهای پرهزینه و منابعبر کشاند، بیتوجه به رویکردهای جایگزین یا پیامدهای احتمالی.
۳. رشد امپراتوری هوش مصنوعی با بهرهکشی از نیروی کار آسیبپذیر جهانی برای برچسبگذاری دادهها تأمین میشود.
پشت وعدههای فناوریهایشان برای افزایش بهرهوری، آزادسازی اقتصادی و ایجاد شغلهای جدید که قرار بود اتوماسیون را جبران کند، واقعیت امروز کاملاً برعکس بوده است.
نیروی کار پنهان. آموزش مدلهای هوش مصنوعی، بهویژه مدلهای زبانی بزرگ، نیازمند نیروی کار انسانی گسترده برای جمعآوری، پاکسازی و برچسبگذاری دادههاست. این «کار ارواح» اغلب به کارگران کمدرآمد در سراسر جهان، بهویژه در کشورهایی با مشکلات اقتصادی، برونسپاری میشود.
بهرهکشی در اقتصادهای بحرانزده. شرکتهایی مانند Scale AI و Sama از بحرانهایی مانند فروپاشی اقتصادی ونزوئلا یا تأثیر همهگیری در کنیا بهره بردهاند تا کارگران ناامید را برای انجام وظایف خستهکننده و اغلب آسیبزننده روانی با دستمزد ناچیز جذب کنند.
- ونزوئلاییها کمتر از یک دلار در ساعت در پلتفرمهایی مانند Remotasks کار میکردند.
- کارگران کنیا کمتر از ۲ دلار در ساعت برای پالایش محتوای سمی برای OpenAI دریافت میکردند.
این اتکا به نیروی کار شکننده، بازتابی از شیوههای استعماری تاریخی در بهرهکشی از جمعیتهای تحت سلطه برای استخراج منابع است.
هزینه «تالابهای داده». تغییر به آموزش مدلها بر دادههای عظیم و بدون پالایش («تالابهای داده») نیاز به نظارت محتوا و یادگیری تقویتی از بازخورد انسانی (RLHF) را افزایش داد. این امر کارگران را در معرض محتوای آزاردهنده، از جمله تصاویر سوءاستفاده جنسی از کودکان، قرار داد که پیامدهای شدید روانی به همراه داشت، اغلب بدون حمایت کافی یا جبران منصفانه.
۴. ساخت امپراتوری هوش مصنوعی نیازمند منابع عظیم است که هزینههای زیستمحیطی قابل توجهی در سراسر جهان تحمیل میکند.
اگر بخواهیم این فناوری را همانند گذشته توسعه دهیم، زمین را ویران خواهیم کرد.
زیرساخت فیزیکی. مدلهای هوش مصنوعی، بهویژه مدلهای بزرگ مولد، به مراکز داده عظیم («هایپراسکیلرها» و «مگاکمپسها») برای آموزش و استنتاج نیاز دارند. این تأسیسات مصرف انرژی، زمین، مواد معدنی و آب بسیار زیادی دارند.
افزایش ردپای زیستمحیطی. تقاضا برای منابع با افزایش مقیاس بهطور نمایی رشد میکند.
- پیشبینی میشود مراکز داده تا سال ۲۰۳۰، ۸٪ از برق آمریکا را مصرف کنند.
- مصرف انرژی محاسبات هوش مصنوعی در جهان میتواند از هند بیشتر شود.
- تقاضای هوش مصنوعی ممکن است تا سال ۲۰۲۷، بین ۱.۱ تا ۱.۷ تریلیون گالن آب شیرین در جهان مصرف کند.
این شدت مصرف منابع تغییرات اقلیمی را تشدید و محیطهای محلی، بهویژه در مناطق با کمبود آب، را تحت فشار قرار میدهد.
تأثیر نامتناسب. بار زیستمحیطی بهطور عمده بر جوامع، اغلب در جنوب جهانی، که مراکز داده به دلیل ارزان بودن زمین، انرژی و آب در آنجا ساخته میشوند، تحمیل میشود. این جوامع که بهدلیل استخراج تاریخی آسیبپذیر هستند، با مشکلاتی چون:
- کاهش منابع آب،
- افزایش تقاضای انرژی که شبکههای محلی را تحت فشار قرار میدهد،
- آلودگی صوتی و جابجایی زمین مواجهاند.
با وجود ادعاهای پایداری شرکتها، واقعیت اغلب ادامه غارت منابع به نفع غولهای فناوری دوردست است.
۵. درگیریهای داخلی بر سر ایمنی در برابر تجاریسازی با تسریع عرضه OpenAI شدت گرفت.
برای موفقیت، نیاز داریم این سه قبیله به یک قبیله واحد تبدیل شوند—در حالی که قدرتهای هر قبیله حفظ شود—و در جهت AGI که بیشترین منفعت را برای بشریت دارد، همکاری کنند.
گروههای درون OpenAI. از ابتدا، OpenAI با تقسیمات داخلی مشخص میشد که بهصورت کلی به «پژوهش اکتشافی» (پیشبرد قابلیتها)، «ایمنی» (تمرکز بر ریسکها) و «استارتاپ» (سرعت عمل و ساخت محصول) شناخته میشدند. این گروهها اغلب بر سر اولویتها و سرعت توسعه با هم درگیر بودند.
نگرانیهای ایمنی در برابر فوریت محصول. گروه «ایمنی»، بهویژه کسانی که بر ریسکهای فاجعهبار و وجودی (دومرز) تمرکز داشتند، از سرعت بالای مقیاسپذیری و عرضه مدلهایی مانند GPT-3 و DALL-E 2 بدون آزمایش یا مکانیزمهای ایمنی کافی نگران بودند و خواستار احتیاط و تأخیر شدند.
فشارهای تجاری غالب شدند. بخش «کاربردی» و قبیله «استارتاپ» که با سرمایهگذاری و نیاز به درآمد تقویت شده بودند، برای عرضه سریعتر محصولات («عرضه تکراری») فشار آوردند.
- API GPT-3 با وجود نگرانیهای ایمنی عرضه شد.
- DALL-E 2 بهعنوان «پیشنمایش پژوهشی» برای مدیریت ریسک منتشر شد.
- ChatGPT بهدلیل رقابت احساسشده به سرعت عرضه شد.
این تصمیمات اغلب اعتراضات ایمنی را نادیده گرفت و تنش ایجاد کرد و منجر به خروج پژوهشگران کلیدی ایمنی شد که احساس میکردند نگرانیهایشان برای منافع تجاری کنار گذاشته شده است.
۶. سبک رهبری سم آلتمن—با ویژگیهایی چون جاهطلبی، معاملهگری و ادعای دستکاری—هم موفقیت و هم آشفتگی را به همراه داشت.
«سم در بهدست آوردن قدرت بسیار ماهر است.»
جاهطلبی و شبکهسازی. سم آلتمن با جاهطلبی بیوقفه، استعداد معاملهگری و تمرکز استراتژیک بر ساخت شبکههای قدرتمند شناخته میشود. او از موقعیت خود در Y Combinator و روابطش با افرادی چون پیتر تیل و رید هافمن برای پیشبرد حرفه و جایگاه OpenAI بهره برد.
رفتارهای متناقض. آلتمن کاریزماتیک و ظاهراً موافق به نظر میرسد، اما دچار اضطراب و الگوی گفتن آنچه افراد میخواهند بشنوند است. این باعث سردرگمی، بیاعتمادی و تعارض میان همکاران و شرکا شد، از جمله:
- ارائه نادرست توافقها با مایکروسافت،
- ایجاد رقابت میان مدیران (مثلاً سوتسکِور و پاچوکی)،
- تضعیف کسانی که با او مخالفت میکردند.
این رفتارها، هرچند بهظاهر جزئی، حس بیثباتی گستردهای در سطوح بالای سازمان ایجاد کرد.
اتهامات دروغگویی و سوءاستفاده. اتهامات جدیتری، از جمله از سوی خواهرش آنی آلتمن و همکاران سابقی مانند جفری ایروینگ، تصویری از تاریخچه طولانی دستکاری، دروغگویی و سوءاستفاده ارائه میدهند. اگرچه آلتمن و خانوادهاش این ادعاها را رد میکنند، این موضوع در میان برخی باعث شکلگیری نگرشی شد که رفتار شخصی او عمیقاً مشکلساز و مرتبط با رهبری یک شرکت قدرتمند هوش مصنوعی است.
۷. بحران هیئتمدیره در ۲۰۲۳، کشمکشهای عمیق قدرت و شکستهای حاکمیتی در رأس توسعه هوش مصنوعی را آشکار کرد.
این بحران به روشنی نشان داد که چگونه کشمکش قدرت میان تعداد اندکی از نخبگان سیلیکون ولی آینده هوش مصنوعی را شکل میدهد.
نگرانیهای هیئتمدیره. هیئتمدیره غیرانتفاعی OpenAI که مسئول اولویت دادن به مأموریت بر سود بود، نسبت به سبک رهبری سم آلتمن، کمصداقتی ادراکشده و رفتارهایی که به نظر میرسید نظارت هیئت و فرهنگ ایمنی شرکت را تضعیف میکند، نگران شد. بازخورد از مدیران ارشد مانند ایلیا سوتسکِور و میرا موراتی این نگرانیها را تقویت کرد.
اخراج و پیامدها. تصمیم هیئتمدیره برای برکناری آلتمن دورهای پنجروزه از آشفتگی ایجاد کرد.
- کارکنان تهدید به استعفای دستهجمعی کردند.
- سرمایهگذاران هیئت را تحت فشار گذاشتند تا آلتمن را بازگردانند.
- مایکروسافت بهصورت علنی از آلتمن حمایت کرد و به کارکنان جداشده پیشنهاد شغل داد.
واکنش سریع و گسترده نشان داد که هیئتمدیره نفوذ آلتمن و وفاداری عمیق کارکنان و ذینفعان کلیدی به او را دستکم گرفته بود.
شکست حاکمیتی. این بحران شکنندگی ساختار حاکمیتی منحصربهفرد OpenAI را نشان داد. هیئتمدیره غیرانتفاعی، با وجود مأموریت خود، در برابر فشار منافع مالی و تهدید فروپاشی شرکت تسلیم شد. این رویداد تأکید کرد که تصمیمات حیاتی درباره فناوری با پیامدهای جهانی پشت درهای بسته توسط گروه کوچکی گرفته میشود، با شفافیت محدود حتی برای کارکنان.
۸. OpenAI فعالانه سیاستهای هوش مصنوعی را به نفع شرکتهای بزرگ و مدلهای پیشرفته شکل میدهد و اغلب آسیبهای فعلی را نادیده میگیرد.
تیم آمادهسازی آلتمن این را موفقیتی چشمگیر دانست.
کمپین تأثیرگذاری سیاستی. پس از موفقیت ChatGPT، سم آلتمن و OpenAI تلاش گستردهای برای لابیگری جهانی آغاز کردند و با سیاستگذاران سراسر جهان دیدار کردند تا مقررات هوش مصنوعی را شکل دهند. شهادت آلتمن در کنگره نقطه عطفی بود که OpenAI را بهعنوان رهبر مسئول و مدافع تضمینهای لازم معرفی کرد.
تمرکز بر ریسکهای «مرزی». پیشنهادات سیاستی OpenAI، که توسط «انجمن مدلهای مرزی» (شامل گوگل و Anthropic) نیز تکرار میشود، بر تنظیم ریسکهای بالقوه فاجعهبار آینده از مدلهای هوش مصنوعی بسیار توانمند («مرزی») تأکید دارد. این رویکرد توجه را از تنظیم آسیبهای مستند و فوری سیستمهای موجود، مانند:
- جابجایی و بهرهکشی نیروی کار،
- هزینههای زیستمحیطی،
- تبعیض و تعصب،
- نقض حق نشر و حریم خصوصی دادهها،
دور میکند.
آستانههای محاسباتی و کنترل صادرات. پیشنهادات کلیدی مانند استفاده از آستانههای محاسباتی (مثلاً ۱۰^۲۶ عملیات شناور) برای شناسایی مدلهای «مرزی» و محدود کردن صادرات آنها (احتمالاً ممنوعیت وزنهای مدلهای متنباز) با استراتژی مقیاسپذیری و منافع رقابتی OpenAI همسو است. این اقدامات خطر تثبیت سلطه شرکتهای دارای منابع محاسباتی عظیم را دارد و تحقیقات مستقل را محدود میکند.
۹. استعاره «امپراتوری هوش مصنوعی» شباهتهای نگرانکنندهای با استعمار و استخراج منابع تاریخی نشان میدهد.
در طول سالها، تنها یک استعاره یافتم که ماهیت این بازیگران قدرت در هوش مصنوعی را بهخوبی توصیف میکند: امپراتوریها.
استخراج منابع. مانند امپراتوریهای تاریخی، شرکتهای هوش مصنوعی منابع ارزشمندی را تصاحب و استخراج میکنند:
- آثار هنرمندان، نویسندگان و کاربران آنلاین (دادهها)،
- نیروی کار کمدرآمد جهانی (برچسبگذاری دادهها، نظارت محتوا)،
- زمین، انرژی، آب و مواد معدنی برای مراکز داده و سختافزار.
این استخراج اغلب بدون رضایت، جبران منصفانه یا توجه به جوامع و محیطهای محلی انجام میشود.
توجیه از طریق روایت. تعقیب AGI و وعده آیندهای بهتر («مدرنیته»، «پیشرفت»، «فراوانی») بهعنوان روایت قدرتمندی برای توجیه این استخراج و بهرهکشی عمل میکند. این مشابه استفاده امپراتوریهای تاریخی از مفاهیمی چون «ماموریتهای تمدنی» برای مشروعیتبخشی به اقداماتشان است.
تمرکز ثروت و قدرت. منافع این نظام بهطور نامتناسبی به اقلیت کوچکی در سیلیکون ولی و شرکتهای همپیمان میرسد، در حالی که هزینهها بر دوش جمعیتهای آسیبپذیر جهانی است. رقابت بیوقفه برای پیشی گرفتن در «مسابقه هوش مصنوعی» این پویایی استخراجی را تش
آخرین بهروزرسانی::
FAQ
What is Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI by Karen Hao about?
- In-depth OpenAI profile: The book offers a comprehensive look at OpenAI’s rise, internal power struggles, and the broader implications of its work on artificial intelligence.
- Focus on power and governance: It examines how a small group of tech elites, led by Sam Altman, shape the future of AI, highlighting the tension between idealistic missions and commercial pressures.
- Societal and global impact: Karen Hao explores AI’s effects on labor, the environment, and the concentration of wealth and influence, framing AI development as a new form of empire-building.
- Insider access: The narrative is based on over 300 interviews and extensive documentation, providing rare behind-the-scenes insights into OpenAI and the global AI industry.
Why should I read Empire of AI by Karen Hao?
- Reveals hidden complexities: The book uncovers the human, ethical, and political struggles behind AI’s development, challenging simplistic narratives of technological progress.
- Societal and ethical context: Readers gain awareness of the real-world costs of AI, including labor exploitation, environmental harm, and the marginalization of vulnerable communities.
- Nuanced leadership portrait: It provides a balanced, detailed view of Sam Altman and OpenAI’s internal politics, showing how personalities and corporate culture shape AI’s trajectory.
- Alternative perspectives: The book introduces community-driven AI projects and movements, offering hope for more ethical and inclusive AI futures.
What are the key takeaways from Empire of AI by Karen Hao?
- AI is political: Progress in AI is driven by the ambitions and conflicts of a few powerful individuals and corporations, not just scientific merit.
- Scaling and its costs: OpenAI’s doctrine of scaling compute and data to achieve AGI fuels a costly, competitive race with significant social and environmental consequences.
- Concentration of benefits and harms: The rewards of AI are concentrated among elites, while workers and marginalized groups bear the burdens.
- Transparency and governance challenges: OpenAI’s shift from openness to secrecy illustrates the difficulties of responsible AI governance in a high-stakes environment.
- Possibility of alternatives: The book argues for diverse AI approaches and stronger policies to democratize AI’s benefits and mitigate its harms.
Who is Sam Altman and how is he portrayed in Empire of AI by Karen Hao?
- Central figure and CEO: Sam Altman is the CEO and cofounder of OpenAI, depicted as a charismatic, ambitious, and sometimes controversial leader.
- Complex personality: The book explores Altman’s background, personal traits, and leadership style, highlighting his ambition, sensitivity, and tendency toward secrecy and manipulation.
- Power struggles: Altman’s decisions, including his brief ouster and reinstatement, exemplify the intense internal conflicts and governance challenges at OpenAI.
- Public image vs. reality: While Altman carefully curates his public persona, the book reveals the anxieties and contradictions beneath his leadership.
What is OpenAI’s mission and how has it evolved according to Empire of AI?
- Original nonprofit mission: OpenAI was founded to develop artificial general intelligence (AGI) for the benefit of all humanity, emphasizing openness and collaboration.
- Shift to for-profit model: Financial pressures led to the creation of a capped-profit partnership, allowing OpenAI to raise billions while still claiming to prioritize its mission.
- Erosion of ideals: Over time, commitments to transparency and altruism gave way to secrecy, commercialization, and competitive urgency.
- Mission as justification: The mission is often invoked to rationalize rapid scaling and secrecy, with the belief that being first is essential to ensuring beneficial AI outcomes.
What is artificial general intelligence (AGI) and how is it portrayed in Empire of AI by Karen Hao?
- Definition of AGI: AGI refers to highly autonomous AI systems that outperform humans at most economically valuable work, representing the theoretical pinnacle of AI research.
- Uncertain and aspirational goal: The book emphasizes that AGI is an amorphous, largely unknowable target, with no clear markers for success or timeline.
- Scaling hypothesis: OpenAI’s leadership, especially Ilya Sutskever, believes AGI will emerge primarily through scaling simple neural networks with massive compute and data.
- Rhetorical tool: AGI serves as a powerful narrative to justify OpenAI’s aggressive resource consumption and secrecy, even as current AI systems fall short of true general intelligence.
What are the “scaling laws” and “OpenAI’s Law” described in Empire of AI by Karen Hao?
- OpenAI’s Law: This term describes the rapid doubling of compute used in AI breakthroughs, far outpacing Moore’s Law and requiring massive computational resources.
- Scaling laws: These are empirical relationships showing how AI model performance improves predictably with increases in training data, compute, and model size.
- Strategic importance: Scaling laws underpin OpenAI’s focus on building ever-larger models like GPT-3 and GPT-4, driving its resource-intensive approach.
- Consequences: The pursuit of scaling leads to enormous financial, environmental, and social costs, and creates a high-stakes race that shapes the entire AI industry.
How does Empire of AI by Karen Hao describe the role of human labor and data annotation in AI development?
- Foundational human labor: The book reveals that AI models rely heavily on low-paid annotators, often in the Global South, who label data and moderate content under harsh conditions.
- Exploitation and precarity: Workers face unstable pay, psychological harm, and limited protections, with companies exploiting crises in countries like Kenya and Venezuela to source cheap labor.
- Invisible but essential: Despite their critical role in AI’s success, these workers remain largely invisible and unsupported, highlighting a hidden supply chain.
- Calls for reform: The book discusses organizing efforts and research initiatives advocating for fair pay and labor rights in the AI industry.
What environmental and resource impacts of AI are highlighted in Empire of AI by Karen Hao?
- Massive energy consumption: Training and running large AI models require enormous computing power, leading to significant carbon emissions and energy use.
- Water and land use: Data centers consume vast amounts of water for cooling and occupy large land areas, often in vulnerable or marginalized communities.
- Extractivism and local harm: Mining for resources like lithium and copper, especially in places like Chile’s Atacama Desert, disrupts ecosystems and displaces Indigenous communities.
- Corporate greenwashing: Tech companies often downplay environmental harms, promoting efficiency narratives while lacking transparency about AI’s true carbon footprint.
What were the key events and lessons from the OpenAI board crisis in Empire of AI by Karen Hao?
- Altman’s firing and reinstatement: In November 2023, OpenAI’s board abruptly fired CEO Sam Altman, citing concerns about his leadership and honesty, but reinstated him after employee and investor backlash.
- Internal divisions: The crisis exposed deep fractures within OpenAI’s leadership, including conflicts among Altman, Greg Brockman, Ilya Sutskever, and Mira Murati.
- Governance failures: The board struggled with oversight, lacked independent legal support, and faced challenges in holding Altman accountable.
- Aftermath: The episode led to resignations, loss of trust, and highlighted the precarious balance of power in governing a powerful AI company.
How does Empire of AI by Karen Hao address AI safety and the ideological divide within OpenAI?
- Safety vs. speed: The book describes a factional split between those prioritizing AI safety (“Doomers”) and those pushing for rapid deployment and commercialization (“Boomers”).
- Superalignment and preparedness: OpenAI launched initiatives like Superalignment and the Preparedness Framework to evaluate and mitigate dangerous AI capabilities, but these were often rushed or deprioritized.
- Internal conflict: Safety advocates clashed with leadership, leading to departures of key researchers and raising concerns about the company’s commitment to responsible AI.
- Broader implications: The book underscores the need for independent oversight, transparency, and whistleblower protections to ensure AI safety.
What is reinforcement learning from human feedback (RLHF) and how is it explained in Empire of AI by Karen Hao?
- Definition and purpose: RLHF is a technique where human contractors provide examples and rank AI outputs to teach models to produce more helpful, truthful, and harmless responses.
- Process details: Workers write ideal answers to prompts and rank multiple AI-generated responses, allowing the model to learn from this feedback and adjust its outputs.
- Impact on AI models: RLHF was central to developing InstructGPT, ChatGPT, and GPT-4’s chat capabilities, improving usability and safety.
- Limitations: Despite its benefits, RLHF cannot fully eliminate errors or hallucinations, as neural networks inherently produce probabilistic outputs.
What are some of the best quotes from Empire of AI by Karen Hao and what do they mean?
- On explaining AI: Joseph Weizenbaum’s quote, “It is said that to explain is to explain away... its magic crumbles away,” highlights the tension between AI’s perceived intelligence and its mechanistic reality.
- On success and vision: Sam Altman’s statement, “Successful people create companies. More successful people create countries. The most successful people create religions,” reflects his view of tech founders as visionaries shaping belief systems.
- On OpenAI’s mission: Altman wrote, “Building AGI that benefits humanity is perhaps the most important project in the world... We must put the mission ahead of any individual preferences,” underscoring the company’s framing of its work as a historic, collective endeavor.
- On AI’s future: Altman predicted,
نقد و بررسی
کتاب «امپراتوری هوش مصنوعی» با نظرات متفاوتی روبهرو شده است؛ از یکسو، گزارشهای تحقیقی آن دربارهی شرکت OpenAI و سم آلتمن مورد تحسین قرار گرفته و از سوی دیگر، به دلیل برداشتهای جانبدارانه و کمبود عمق فنی مورد انتقاد واقع شده است. برخی خوانندگان از افشاگرهای کتاب دربارهی تأثیرات زیستمحیطی و نیروی کار در حوزهی هوش مصنوعی استقبال کردهاند، در حالی که عدهای دیگر آن را بیش از حد انتقادی و تحت تأثیر دیدگاههای ایدئولوژیک میدانند. ساختار روایت و تمرکز بر جزئیات شخصی نیز از جمله موضوعات بحثبرانگیز بوده است. در مجموع، خوانندگان به بینشهای ارائهشده دربارهی روند تحول OpenAI و شیوههای صنعت هوش مصنوعی ارزش مینهند، اما دیدگاهها دربارهی زاویهی دید و نتیجهگیریهای کتاب متفاوت است.