Points clés
1. L’idéalisme fondateur d’OpenAI a rapidement cédé la place à la quête de pouvoir et de profit.
En l’espace de quatre ans, OpenAI est devenue tout ce qu’elle affirmait ne pas vouloir être.
Altruisme initial. Fondée en tant qu’organisation à but non lucratif par des figures telles qu’Elon Musk et Sam Altman, OpenAI s’était engagée à investir un milliard de dollars pour développer une intelligence artificielle générale (IAG) au bénéfice de l’humanité, en mettant l’accent sur l’ouverture, la collaboration, voire le sacrifice si un autre projet la surpassait. L’objectif était d’empêcher qu’une seule entreprise, comme Google, ne contrôle l’IAG.
Virage vers la commercialisation. Sous la pression financière et les luttes de pouvoir internes, notamment après le départ de Musk, Altman a restructuré OpenAI en entité à « profit limité ». Cette transformation a permis de lever des capitaux importants, notamment un investissement d’un milliard de dollars de Microsoft, mais a fondamentalement modifié la trajectoire de l’organisation vers une commercialisation agressive et un secret accru, privilégiant la course à l’IAG au détriment des idéaux fondateurs.
Affaiblissement des principes. Ce tournant a marqué un éloignement net de la mission initiale.
- La transparence a laissé place au secret.
- La collaboration a cédé devant une concurrence féroce.
- L’accent s’est déplacé de la recherche ouverte vers la création de produits lucratifs comme ChatGPT, visant des valorisations colossales.
Cette transformation révèle que le projet, malgré son cadre noble, était aussi mû par l’ego et la quête de domination.
2. L’augmentation incessante de la taille des modèles d’IA est devenue la stratégie centrale d’OpenAI, portée par une prophétie auto-réalisatrice.
La « loi d’OpenAI », ou ce que l’entreprise a ensuite remplacé par une quête encore plus frénétique des soi-disant lois d’échelle, est exactement la même. Ce n’est pas un phénomène naturel. C’est une prophétie auto-réalisatrice.
L’hypothèse de l’échelle. Inspirés par l’observation que les performances de l’IA s’amélioraient avec l’augmentation des ressources informatiques (« compute »), notamment après la percée ImageNet de 2012, les dirigeants d’OpenAI, en particulier Ilya Sutskever et Greg Brockman, ont théorisé que la montée en taille des réseaux neuronaux simples vers des dimensions inédites était la voie la plus rapide vers l’IAG. Ils ont noté que l’utilisation du calcul en IA croissait plus vite que la loi de Moore.
Le besoin massif de calcul. Cette hypothèse a engendré une demande insatiable de GPU et de supercalculateurs, bien au-delà des moyens d’une organisation à but non lucratif.
- L’entraînement de GPT-3 nécessitait un supercalculateur doté de 10 000 GPU.
- Les modèles futurs comme GPT-4 et au-delà en demanderaient des dizaines, voire des centaines de milliers.
- Le coût estimé d’un supercalculateur « Phase 5 » pourrait atteindre 100 milliards de dollars.
Cette escalade des besoins en capital et en infrastructures a consolidé le passage à un modèle à but lucratif et la dépendance à des partenaires comme Microsoft.
Un impératif stratégique. L’échelle est devenue non seulement une approche technique, mais une stratégie commerciale.
- Être le premier ou le meilleur exigeait de rester en tête sur la courbe de l’échelle.
- Prendre du retard signifiait perdre de l’influence sur le développement de l’IAG.
Cette croyance en la « taille avant tout » a fixé les règles de la nouvelle ère de l’IA, poussant toute l’industrie dans une course gourmande en ressources, au mépris des approches alternatives ou des risques potentiels.
3. La croissance de l’empire de l’IA repose sur l’exploitation d’une main-d’œuvre mondiale vulnérable pour l’annotation des données.
Derrière les promesses de technologies améliorant la productivité, libérant économiquement et créant des emplois pour compenser l’automatisation, la réalité actuelle est tout autre.
La main-d’œuvre invisible. L’entraînement des modèles d’IA, en particulier les grands modèles de langage, requiert d’énormes quantités de travail humain pour collecter, nettoyer et annoter les données. Ce « travail fantôme » est souvent externalisé à des travailleurs à bas salaire dans le monde entier, notamment dans des pays en difficulté économique.
Exploitation dans les économies en crise. Des entreprises comme Scale AI et Sama ont profité de crises, telles que l’effondrement économique du Venezuela ou l’impact de la pandémie au Kenya, pour recruter des travailleurs désespérés acceptant des tâches fastidieuses et souvent psychologiquement éprouvantes pour quelques centimes.
- Les Vénézuéliens travaillaient pour moins d’un dollar de l’heure sur des plateformes comme Remotasks.
- Les Kényans étaient payés moins de 2 dollars de l’heure pour filtrer des contenus toxiques pour OpenAI.
Cette dépendance à une main-d’œuvre précaire rappelle les pratiques coloniales historiques d’exploitation des populations subjugées pour l’extraction des ressources.
Le coût des « marécages de données ». Le passage à l’entraînement sur des ensembles de données massifs et non filtrés (« data swamps ») a accru le besoin de modération de contenu et d’apprentissage par renforcement avec retour humain (RLHF). Cela a exposé les travailleurs à des contenus perturbants, y compris des abus sexuels sur enfants, entraînant de graves conséquences sur leur santé mentale, souvent sans soutien ni rémunération équitable.
4. Construire l’empire de l’IA exige des ressources colossales, imposant un lourd tribut environnemental à l’échelle mondiale.
Si nous continuons à développer cette technologie comme auparavant, nous allons dévaster la planète.
Infrastructures physiques. Les modèles d’IA, en particulier les grands modèles génératifs, nécessitent d’immenses centres de données physiques (« hyperscalers » et « mégacampus ») pour l’entraînement et l’inférence. Ces installations consomment d’énormes quantités d’énergie, de terres, de minéraux et d’eau.
Empreinte environnementale croissante. La demande en ressources augmente de façon exponentielle avec la montée en échelle.
- Les centres de données pourraient représenter 8 % de la consommation électrique américaine d’ici 2030.
- Le calcul pour l’IA dans le monde pourrait consommer plus d’énergie que l’Inde.
- La demande en eau douce pour l’IA pourrait atteindre entre 1,1 et 1,7 trillion de gallons d’ici 2027.
Cette intensité des ressources aggrave le changement climatique et met à rude épreuve les environnements locaux, notamment dans les régions en stress hydrique.
Impact disproportionné. Le fardeau environnemental pèse lourdement sur des communautés souvent situées dans le Sud global, où les centres de données sont implantés en raison du coût faible des terres, de l’énergie et de l’eau. Ces populations, déjà vulnérables à cause de l’extractivisme historique, subissent :
- L’épuisement des ressources en eau.
- Une demande énergétique accrue mettant à mal les réseaux locaux.
- La pollution sonore et le déplacement des terres.
Malgré les discours sur la durabilité des entreprises, la réalité est souvent une continuation du pillage des ressources au profit de géants technologiques éloignés.
5. Les conflits internes entre sécurité et commercialisation se sont intensifiés à mesure qu’OpenAI accélère le déploiement.
Pour réussir, nous avons besoin que ces trois clans s’unissent en une seule tribu — tout en conservant les forces de chaque clan — œuvrant pour une IAG qui profite au maximum à l’humanité.
Les factions au sein d’OpenAI. Dès ses débuts, OpenAI a été marquée par des divisions internes caricaturées en « Recherche exploratoire » (amélioration des capacités), « Sécurité » (gestion des risques) et « Startup » (rapidité et production). Ces factions s’opposaient souvent sur les priorités et le rythme du développement.
Inquiétudes sur la sécurité vs urgence produit. Le clan « Sécurité », notamment ceux focalisés sur les risques catastrophiques et existentiels (les « Doomers »), s’est alarmé de la montée rapide et du déploiement de modèles comme GPT-3 et DALL-E 2 sans tests ni mécanismes de sécurité suffisants. Ils prônaient prudence et retard.
Les pressions commerciales l’ont emporté. La division « Appliquée » et le clan « Startup », soutenus par les investissements et la nécessité de revenus, ont poussé à des sorties rapides de produits (« déploiement itératif »).
- L’API GPT-3 a été lancée malgré les inquiétudes.
- DALL-E 2 est sorti en « aperçu de recherche » pour gérer les risques.
- ChatGPT a été précipité face à la concurrence perçue.
Ces décisions ont souvent ignoré les objections de sécurité, créant des tensions et provoquant le départ de chercheurs clés qui estimaient que leurs préoccupations étaient sacrifiées au profit commercial.
6. Le style de leadership de Sam Altman — marqué par l’ambition, la négociation et des manipulations alléguées — a alimenté succès et turbulences.
« Sam est extrêmement doué pour devenir puissant. »
Ambition et construction de réseau. Sam Altman se distingue par une ambition sans relâche, un talent pour les négociations et une stratégie axée sur la construction de réseaux influents. Il a tiré parti de sa position chez Y Combinator et de ses relations avec des figures comme Peter Thiel et Reid Hoffman pour faire avancer sa carrière et la position d’OpenAI.
Comportements contradictoires. Altman est décrit comme charismatique et agréable en apparence, mais aussi sujet à l’anxiété et à une habitude de dire à chacun ce qu’il veut entendre. Cela a semé confusion, méfiance et conflits parmi collègues et partenaires, notamment :
- Des représentations erronées d’accords avec Microsoft.
- Des rivalités fomentées entre dirigeants (ex. Sutskever et Pachocki).
- Le discrédit de ceux qui le défiaient.
Ces comportements, subtils individuellement, ont créé un climat d’instabilité au plus haut niveau.
Allégations de malhonnêteté et d’abus. Des accusations plus graves, notamment de sa sœur Annie Altman et d’anciens collègues comme Geoffrey Irving, dressent un tableau d’une longue histoire de manipulations, de malhonnêteté et d’abus présumés. Bien qu’Altman et sa famille démentent ces faits, ils ont contribué à une perception, chez certains, d’un comportement personnel profondément problématique, potentiellement pertinent pour sa direction d’une entreprise d’IA puissante.
7. La crise du conseil d’administration en 2023 a révélé de profondes luttes de pouvoir et des échecs de gouvernance au sommet du développement de l’IA.
Elle a montré de manière limpide à quel point une lutte de pouvoir entre une poignée d’élites de la Silicon Valley façonne l’avenir de l’IA.
Les inquiétudes du conseil. Le conseil d’administration à but non lucratif d’OpenAI, chargé de privilégier la mission sur le profit, s’est de plus en plus inquiété du style de leadership de Sam Altman, de son manque perçu de franchise et de comportements semblant miner la supervision du conseil et la culture de sécurité de l’entreprise. Les retours de cadres supérieurs comme Ilya Sutskever et Mira Murati ont renforcé ces préoccupations.
Le renvoi et ses conséquences. La décision du conseil de licencier Altman a déclenché une période chaotique de cinq jours.
- Les employés ont menacé une démission massive.
- Les investisseurs ont fait pression pour sa réintégration.
- Microsoft a publiquement soutenu Altman et proposé des emplois aux salariés partants.
Ce retour de bâton rapide et massif a mis en lumière la sous-estimation par le conseil de l’influence d’Altman et de la loyauté profonde qu’il suscite chez employés et parties prenantes clés.
Échec de gouvernance. La crise a révélé la fragilité de la structure de gouvernance unique d’OpenAI. Le conseil à but non lucratif, malgré son mandat, a finalement cédé sous la pression des intérêts financiers et la menace d’effondrement de l’entreprise. Cet épisode souligne que des décisions cruciales concernant une technologie aux implications mondiales ont été prises à huis clos par un petit groupe, avec une transparence limitée même envers les employés.
8. OpenAI façonne activement la politique de l’IA pour favoriser les acteurs établis et les modèles de pointe, en minimisant souvent les dommages actuels.
L’équipe de préparation d’Altman a considéré cela comme un succès retentissant.
Campagne d’influence politique. Après le succès de ChatGPT, Sam Altman et OpenAI ont lancé une intense campagne de lobbying mondiale, rencontrant des décideurs politiques pour orienter la régulation de l’IA. Le témoignage d’Altman devant le Congrès a été un moment clé, positionnant OpenAI en leader responsable plaidant pour des garde-fous nécessaires.
Accent sur les risques « de pointe ». Les propositions politiques d’OpenAI, reprises par le « Frontier Model Forum » (incluant Google et Anthropic), insistent sur la régulation des risques futurs, potentiellement catastrophiques, liés aux modèles d’IA très puissants (« de pointe »). Cela détourne l’attention de la régulation des dommages immédiats et documentés des systèmes existants, tels que :
- La perte d’emplois et l’exploitation du travail.
- Les coûts environnementaux.
- Les biais et discriminations.
- Les violations du droit d’auteur et de la vie privée.
Seuils de calcul et contrôles à l’export. Des propositions clés, comme l’utilisation de seuils de calcul (ex. 10^26 FLOPs) pour identifier les modèles « de pointe » et restreindre leur exportation (interdiction possible des poids open source), s’alignent sur la stratégie d’échelle d’OpenAI et ses intérêts concurrentiels. Ces mesures risquent de renforcer la domination des entreprises disposant de ressources massives, tout en freinant la recherche indépendante.
9. La métaphore de « l’empire de l’IA » révèle des parallèles troublants avec le colonialisme et l’extractivisme historiques.
Au fil des années, je n’ai trouvé qu’une seule métaphore qui saisit la nature de ces acteurs puissants de l’IA : des empires.
Extraction des ressources. À l’instar des empires historiques, les entreprises d’IA s’emparent et extraient des ressources précieuses :
- Le travail des artistes, écrivains et utilisateurs en ligne (données).
- La main-d’œuvre à bas salaire mondiale (annotation, modération).
- Les terres, l’énergie, l’eau et les minéraux pour centres de données et matériel.
Cette extraction se fait souvent sans consentement, sans rémunération équitable ni considération pour les communautés et environnements locaux.
Justification par le récit. La quête de l’IAG et la promesse d’un avenir meilleur (« modernité », « progrès », « abondance ») servent de puissant récit pour légitimer cette extraction et exploitation. Cela rappelle comment les empires historiques utilisaient des « missions civilisatrices » pour justifier leurs actions.
Concentration de richesse et de pouvoir. Les bénéfices de ce système reviennent de manière disproportionnée à une petite élite de la Silicon Valley et des entreprises alliées, tandis que les coûts sont supportés par des populations vulnérables à travers le monde. La course effrénée à la suprématie dans la « course à l’IA » alimente encore cette dynamique extractive, consolidant pouvoir et richesse au sommet.
10. Des visions alternatives pour le développement de l’IA ouvrent la voie à une technologie décentralisée, éthique et portée par les communautés.
L’intelligence artificielle n’a pas à être ce qu’elle est aujourd’hui.
Résister au paradigme dominant. Des communautés et organisations à travers le monde contestent le modèle actuel de développement de l’IA, centralisé, gourmand en ressources et extractif. Elles soutiennent que l’IA peut être développée autrement, en priorisant le bien-être humain et la durabilité environnementale.
Exemples d’approches alternatives :
- IA communautaire : Des projets comme Te Hiku Media en Nouvelle-Zélande développent des IA (ex. reconnaissance vocale) fondées sur le consentement communautaire, la réciprocité et la souveraineté des données, utilisant des modèles petits et spécifiques.
- Instituts de recherche éthique : Des organisations comme DAIR (Distributed AI Research Institute) mènent des recherches centrées sur les communautés affectées, remettant en question les systèmes existants et rémunérant équitablement le travail.
- Mouvements activistes : Des groupes comme MOSACAT au Chili luttent contre les impacts environnementaux des centres de données, prônant le contrôle local des ressources et imaginant une infrastructure IA intégrée à la restauration écologique.
Redistribution du pouvoir. Ces initiatives visent à déplacer le pouvoir hors des empires centralisés de l’IA en :
- Promouvant la production indépendante de savoir et la recherche.
- Exigeant transparence sur les données, modèles et chaînes d’approvisionnement.
- Défendant des protections renforcées pour le travail et l’environnement.
- Construisant un pouvoir collectif par la solidarité transfrontalière et l’organisation.
Cette vision cherche à remodeler le développement de l’IA vers un avenir plus démocratique, équitable et durable.
Dernière mise à jour:
FAQ
What is Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI by Karen Hao about?
- In-depth OpenAI profile: The book offers a comprehensive look at OpenAI’s rise, internal power struggles, and the broader implications of its work on artificial intelligence.
- Focus on power and governance: It examines how a small group of tech elites, led by Sam Altman, shape the future of AI, highlighting the tension between idealistic missions and commercial pressures.
- Societal and global impact: Karen Hao explores AI’s effects on labor, the environment, and the concentration of wealth and influence, framing AI development as a new form of empire-building.
- Insider access: The narrative is based on over 300 interviews and extensive documentation, providing rare behind-the-scenes insights into OpenAI and the global AI industry.
Why should I read Empire of AI by Karen Hao?
- Reveals hidden complexities: The book uncovers the human, ethical, and political struggles behind AI’s development, challenging simplistic narratives of technological progress.
- Societal and ethical context: Readers gain awareness of the real-world costs of AI, including labor exploitation, environmental harm, and the marginalization of vulnerable communities.
- Nuanced leadership portrait: It provides a balanced, detailed view of Sam Altman and OpenAI’s internal politics, showing how personalities and corporate culture shape AI’s trajectory.
- Alternative perspectives: The book introduces community-driven AI projects and movements, offering hope for more ethical and inclusive AI futures.
What are the key takeaways from Empire of AI by Karen Hao?
- AI is political: Progress in AI is driven by the ambitions and conflicts of a few powerful individuals and corporations, not just scientific merit.
- Scaling and its costs: OpenAI’s doctrine of scaling compute and data to achieve AGI fuels a costly, competitive race with significant social and environmental consequences.
- Concentration of benefits and harms: The rewards of AI are concentrated among elites, while workers and marginalized groups bear the burdens.
- Transparency and governance challenges: OpenAI’s shift from openness to secrecy illustrates the difficulties of responsible AI governance in a high-stakes environment.
- Possibility of alternatives: The book argues for diverse AI approaches and stronger policies to democratize AI’s benefits and mitigate its harms.
Who is Sam Altman and how is he portrayed in Empire of AI by Karen Hao?
- Central figure and CEO: Sam Altman is the CEO and cofounder of OpenAI, depicted as a charismatic, ambitious, and sometimes controversial leader.
- Complex personality: The book explores Altman’s background, personal traits, and leadership style, highlighting his ambition, sensitivity, and tendency toward secrecy and manipulation.
- Power struggles: Altman’s decisions, including his brief ouster and reinstatement, exemplify the intense internal conflicts and governance challenges at OpenAI.
- Public image vs. reality: While Altman carefully curates his public persona, the book reveals the anxieties and contradictions beneath his leadership.
What is OpenAI’s mission and how has it evolved according to Empire of AI?
- Original nonprofit mission: OpenAI was founded to develop artificial general intelligence (AGI) for the benefit of all humanity, emphasizing openness and collaboration.
- Shift to for-profit model: Financial pressures led to the creation of a capped-profit partnership, allowing OpenAI to raise billions while still claiming to prioritize its mission.
- Erosion of ideals: Over time, commitments to transparency and altruism gave way to secrecy, commercialization, and competitive urgency.
- Mission as justification: The mission is often invoked to rationalize rapid scaling and secrecy, with the belief that being first is essential to ensuring beneficial AI outcomes.
What is artificial general intelligence (AGI) and how is it portrayed in Empire of AI by Karen Hao?
- Definition of AGI: AGI refers to highly autonomous AI systems that outperform humans at most economically valuable work, representing the theoretical pinnacle of AI research.
- Uncertain and aspirational goal: The book emphasizes that AGI is an amorphous, largely unknowable target, with no clear markers for success or timeline.
- Scaling hypothesis: OpenAI’s leadership, especially Ilya Sutskever, believes AGI will emerge primarily through scaling simple neural networks with massive compute and data.
- Rhetorical tool: AGI serves as a powerful narrative to justify OpenAI’s aggressive resource consumption and secrecy, even as current AI systems fall short of true general intelligence.
What are the “scaling laws” and “OpenAI’s Law” described in Empire of AI by Karen Hao?
- OpenAI’s Law: This term describes the rapid doubling of compute used in AI breakthroughs, far outpacing Moore’s Law and requiring massive computational resources.
- Scaling laws: These are empirical relationships showing how AI model performance improves predictably with increases in training data, compute, and model size.
- Strategic importance: Scaling laws underpin OpenAI’s focus on building ever-larger models like GPT-3 and GPT-4, driving its resource-intensive approach.
- Consequences: The pursuit of scaling leads to enormous financial, environmental, and social costs, and creates a high-stakes race that shapes the entire AI industry.
How does Empire of AI by Karen Hao describe the role of human labor and data annotation in AI development?
- Foundational human labor: The book reveals that AI models rely heavily on low-paid annotators, often in the Global South, who label data and moderate content under harsh conditions.
- Exploitation and precarity: Workers face unstable pay, psychological harm, and limited protections, with companies exploiting crises in countries like Kenya and Venezuela to source cheap labor.
- Invisible but essential: Despite their critical role in AI’s success, these workers remain largely invisible and unsupported, highlighting a hidden supply chain.
- Calls for reform: The book discusses organizing efforts and research initiatives advocating for fair pay and labor rights in the AI industry.
What environmental and resource impacts of AI are highlighted in Empire of AI by Karen Hao?
- Massive energy consumption: Training and running large AI models require enormous computing power, leading to significant carbon emissions and energy use.
- Water and land use: Data centers consume vast amounts of water for cooling and occupy large land areas, often in vulnerable or marginalized communities.
- Extractivism and local harm: Mining for resources like lithium and copper, especially in places like Chile’s Atacama Desert, disrupts ecosystems and displaces Indigenous communities.
- Corporate greenwashing: Tech companies often downplay environmental harms, promoting efficiency narratives while lacking transparency about AI’s true carbon footprint.
What were the key events and lessons from the OpenAI board crisis in Empire of AI by Karen Hao?
- Altman’s firing and reinstatement: In November 2023, OpenAI’s board abruptly fired CEO Sam Altman, citing concerns about his leadership and honesty, but reinstated him after employee and investor backlash.
- Internal divisions: The crisis exposed deep fractures within OpenAI’s leadership, including conflicts among Altman, Greg Brockman, Ilya Sutskever, and Mira Murati.
- Governance failures: The board struggled with oversight, lacked independent legal support, and faced challenges in holding Altman accountable.
- Aftermath: The episode led to resignations, loss of trust, and highlighted the precarious balance of power in governing a powerful AI company.
How does Empire of AI by Karen Hao address AI safety and the ideological divide within OpenAI?
- Safety vs. speed: The book describes a factional split between those prioritizing AI safety (“Doomers”) and those pushing for rapid deployment and commercialization (“Boomers”).
- Superalignment and preparedness: OpenAI launched initiatives like Superalignment and the Preparedness Framework to evaluate and mitigate dangerous AI capabilities, but these were often rushed or deprioritized.
- Internal conflict: Safety advocates clashed with leadership, leading to departures of key researchers and raising concerns about the company’s commitment to responsible AI.
- Broader implications: The book underscores the need for independent oversight, transparency, and whistleblower protections to ensure AI safety.
What is reinforcement learning from human feedback (RLHF) and how is it explained in Empire of AI by Karen Hao?
- Definition and purpose: RLHF is a technique where human contractors provide examples and rank AI outputs to teach models to produce more helpful, truthful, and harmless responses.
- Process details: Workers write ideal answers to prompts and rank multiple AI-generated responses, allowing the model to learn from this feedback and adjust its outputs.
- Impact on AI models: RLHF was central to developing InstructGPT, ChatGPT, and GPT-4’s chat capabilities, improving usability and safety.
- Limitations: Despite its benefits, RLHF cannot fully eliminate errors or hallucinations, as neural networks inherently produce probabilistic outputs.
What are some of the best quotes from Empire of AI by Karen Hao and what do they mean?
- On explaining AI: Joseph Weizenbaum’s quote, “It is said that to explain is to explain away... its magic crumbles away,” highlights the tension between AI’s perceived intelligence and its mechanistic reality.
- On success and vision: Sam Altman’s statement, “Successful people create companies. More successful people create countries. The most successful people create religions,” reflects his view of tech founders as visionaries shaping belief systems.
- On OpenAI’s mission: Altman wrote, “Building AGI that benefits humanity is perhaps the most important project in the world... We must put the mission ahead of any individual preferences,” underscoring the company’s framing of its work as a historic, collective endeavor.
- On AI’s future: Altman predicted,
Avis
Empire of AI suscite des avis partagés : salué pour son enquête approfondie sur OpenAI et Sam Altman, il est cependant critiqué pour un certain parti pris et un manque de profondeur technique. Certains lecteurs apprécient la mise en lumière des impacts environnementaux et sociaux de l’intelligence artificielle, tandis que d’autres jugent l’ouvrage trop critique et idéologiquement orienté. La structure narrative et l’attention portée aux détails personnels divisent également. Dans l’ensemble, ce livre offre des éclairages précieux sur l’évolution d’OpenAI et les pratiques de l’industrie de l’IA, mais les opinions divergent quant à son point de vue et ses conclusions.