Searching...
Français
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Atlas of AI

Atlas of AI

Power, Politics, and the Planetary Costs of Artificial Intelligence
par Kate Crawford 2020 288 pages
3.96
2.4K évaluations
Écouter
Try Full Access for 7 Days
Unlock listening & more!
Continue

Points clés

1. La base matérielle de l’IA : la Terre comme industrie extractive

Les médias computationnels participent désormais aux processus géologiques (et climatologiques), de la transformation des matériaux terrestres en infrastructures et dispositifs à l’alimentation de ces nouveaux systèmes par les réserves de pétrole et de gaz.

La dépendance de l’IA aux ressources. L’intelligence artificielle n’est pas un concept immatériel, mais une industrie profondément matérielle, dépendante de l’extraction des ressources de la Terre. Des mines de lithium du Nevada aux gisements de terres rares en Mongolie intérieure, la création des systèmes d’IA nécessite une chaîne d’approvisionnement massive en minéraux, énergie et matériaux. Cette demande alimente des pratiques minières destructrices pour l’environnement, souvent ignorées dans les débats sur le progrès technologique.

L’impact environnemental. La demande en ressources du secteur technologique contribue de manière significative à la dégradation environnementale. L’extraction des minéraux contamine les cours d’eau, détruit les forêts et déplace des communautés. Par ailleurs, la nature énergivore de l’IA, notamment lors de l’entraînement de modèles volumineux, accroît une empreinte carbone croissante, rivalisant avec celle de l’aviation.

Un changement de perspective nécessaire. Pour comprendre le véritable coût de l’IA, il faut dépasser les promesses abstraites du progrès technologique et considérer ses conséquences matérielles. Cela implique de reconnaître les coûts environnementaux et humains liés à l’extraction des ressources, à la consommation énergétique et aux chaînes d’approvisionnement mondiales qui soutiennent les systèmes d’IA.

2. Le coût humain : l’exploitation du travail dans les systèmes d’IA

Coordonner les actions des humains avec les mouvements répétitifs des robots et des machines de chaîne a toujours impliqué un contrôle des corps dans l’espace et le temps.

La dépendance de l’IA au travail humain. Malgré le discours sur l’automatisation, les systèmes d’IA reposent largement sur un travail humain souvent invisible et mal rémunéré. Cela inclut les travailleurs à la tâche numérique qui étiquettent les données, les employés des entrepôts Amazon qui préparent les commandes, ou les modérateurs de contenu qui filtrent les contenus nuisibles. Ces travailleurs sont essentiels au fonctionnement des systèmes d’IA, mais leurs contributions sont fréquemment sous-évaluées et leurs conditions de travail exploitées.

Le temps et le contrôle. La gestion du temps est au cœur de l’exploitation du travail dans les systèmes d’IA. Les travailleurs subissent une surveillance constante et une évaluation algorithmique, chaque action étant suivie et mesurée pour maximiser l’efficacité. Cela crée un environnement de travail stressant et déshumanisant, où les travailleurs sont traités comme de simples prolongements de la machine.

La nécessité de la solidarité ouvrière. Pour lutter contre l’exploitation du travail dans les systèmes d’IA, les travailleurs doivent s’organiser et exiger de meilleures conditions, des salaires justes et un plus grand contrôle sur leur temps et leur travail. Cela suppose de construire une solidarité entre les différents secteurs de l’industrie de l’IA, des mineurs aux ingénieurs, et de remettre en cause les structures de pouvoir qui perpétuent cette exploitation.

3. Les données comme infrastructure : l’effacement du contexte et du consentement

Tout matériel numérique accessible au public — y compris les données personnelles ou potentiellement nuisibles — est susceptible d’être récolté pour constituer des jeux de données servant à entraîner des modèles d’IA.

L’extraction des données. L’industrie de l’IA repose sur la collecte massive de données, souvent sans consentement ni respect de la vie privée. Cela inclut des informations personnelles, images et textes arrachés à Internet pour entraîner les modèles d’IA. Cette pratique considère les données comme une ressource gratuite, ignorant les implications éthiques et sociales de la collecte et de l’utilisation des informations des individus à leur insu ou sans leur accord.

De l’image à l’infrastructure. La transformation des images en données les dépouille de leur contexte et de leur sens. Photos d’identité, selfies et clichés personnels sont réduits à des points de données, utilisés pour entraîner des systèmes de reconnaissance faciale et autres modèles d’IA. Cet effacement du contexte peut engendrer des résultats biaisés et discriminatoires, les systèmes apprenant à associer certains traits à des stéréotypes négatifs.

Les enjeux éthiques. Les pratiques actuelles de collecte et d’utilisation des données dans l’IA soulèvent de profondes questions éthiques. Il faut dépasser l’idée que les données sont une ressource neutre et reconnaître les dynamiques de pouvoir inhérentes à leur collecte, étiquetage et usage. Cela nécessite l’élaboration de directives éthiques et de régulations protégeant la vie privée et empêchant les abus.

4. La classification comme pouvoir : coder les biais dans les systèmes d’IA

En observant comment les classifications sont établies, on voit comment les schémas techniques imposent des hiérarchies et amplifient les inégalités.

La classification comme acte politique. Les systèmes d’IA s’appuient sur la classification pour comprendre le monde. Pourtant, les catégories utilisées ne sont ni neutres ni objectives, mais reflètent les biais et présupposés de leurs créateurs. Ces biais peuvent être intégrés dans les systèmes d’IA, conduisant à des résultats discriminatoires.

Le problème des biais. Il a été démontré que les systèmes d’IA manifestent des biais dans divers domaines, de la reconnaissance faciale à la justice pénale. Ces biais reflètent souvent des schémas historiques de discrimination, perpétuant et amplifiant les inégalités existantes. Par exemple, les systèmes de reconnaissance faciale sont souvent moins précis pour les personnes à la peau plus foncée, entraînant des erreurs d’identification et des arrestations injustifiées.

Au-delà des débats sur les biais. Pour résoudre le problème des biais dans l’IA, il faut dépasser les solutions techniques et s’attaquer aux structures sociales et politiques sous-jacentes qui façonnent les données et algorithmes. Cela implique de remettre en cause les dynamiques de pouvoir qui perpétuent les inégalités et de promouvoir des approches plus équitables et inclusives dans le développement de l’IA.

5. La reconnaissance des affects : la science problématique de la lecture des émotions

La solution à l’énigme de Hans le malin, écrivait Pfungst, résidait dans la direction inconsciente donnée par les questionneurs au cheval.

La prétention des émotions universelles. Les systèmes de reconnaissance des affects reposent sur l’idée que les émotions sont universelles et détectables de manière fiable à partir des expressions faciales. Cette affirmation est cependant très contestée, de nombreux chercheurs soulignant que les émotions varient selon les cultures et dépendent du contexte.

L’influence de Paul Ekman. Les travaux du psychologue Paul Ekman ont largement influencé le domaine de la reconnaissance des affects. Ses recherches, commencées dans les années 1960, prétendaient identifier un ensemble d’émotions de base universellement exprimées et reconnues. Toutefois, ses méthodes et conclusions ont été largement critiquées pour leur manque de rigueur scientifique.

Les enjeux éthiques. Malgré les doutes scientifiques, ces outils sont déployés rapidement dans des contextes à forts enjeux, du recrutement à la police. Cela soulève de graves questions éthiques, car les individus peuvent être jugés et discriminés sur la base d’évaluations inexactes et peu fiables de leur état émotionnel.

6. L’IA comme outil du pouvoir étatique : surveillance et contrôle

Le passé et le présent militaires de l’intelligence artificielle ont façonné les pratiques de surveillance, d’extraction de données et d’évaluation des risques que nous observons aujourd’hui.

Les origines militaires de l’IA. Le développement de l’IA a été fortement influencé par le financement et les priorités militaires. Cela a orienté le champ vers la surveillance, l’extraction de données et l’évaluation des risques, avec peu de considération pour les implications éthiques et sociales.

Les archives Snowden. Les révélations de Snowden montrent à quel point les agences de renseignement ont utilisé l’IA pour collecter et analyser des données à grande échelle. Ces outils, initialement réservés à la sécurité nationale, sont désormais déployés sur le territoire national, brouillant la frontière entre surveillance militaire et civile.

La stratégie du Third Offset. La stratégie américaine du Third Offset vise à maintenir sa suprématie en IA en s’associant au secteur technologique. Cela a conduit à une relation étroite entre l’armée et la Silicon Valley, les entreprises technologiques fournissant outils et expertise au Département de la Défense.

7. Les grandes maisons de l’IA : centralisation du pouvoir et creusement des asymétries

Ces dynamiques sont portées par les Grandes Maisons de l’IA, soit une demi-douzaine d’entreprises qui dominent la computation planétaire à grande échelle.

Concentration du pouvoir. L’industrie de l’IA est dominée par un petit nombre de grandes entreprises technologiques. Ces acteurs contrôlent d’immenses quantités de données, de ressources et de savoir-faire, leur conférant un avantage considérable pour orienter le développement et le déploiement des systèmes d’IA.

L’aggravation des inégalités. La concentration du pouvoir entre les mains de quelques géants technologiques accentue les inégalités existantes. Les systèmes d’IA sont souvent conçus pour servir les intérêts de ces entreprises, creusant davantage le fossé entre riches et pauvres, puissants et marginalisés.

La nécessité d’une régulation. Pour contrer cette concentration, il faut des régulations plus strictes favorisant la concurrence, protégeant la vie privée et garantissant que l’IA serve l’intérêt général. Cela implique de remettre en cause la domination des géants technologiques et de promouvoir des formes de gouvernance de l’IA plus démocratiques et responsables.

8. Remettre en cause les logiques : vers des mouvements interconnectés pour la justice

À mesure que les conditions sur Terre évoluent, les revendications pour la protection des données, les droits du travail, la justice climatique et l’équité raciale doivent être entendues ensemble.

Des mouvements interconnectés. Traiter les problèmes fondamentaux de l’IA exige de relier les questions de pouvoir et de justice. Cela inclut la protection des données, les droits des travailleurs, la justice climatique et l’équité raciale. En unissant leurs forces, ces mouvements peuvent contester les structures de pouvoir que l’IA renforce aujourd’hui.

La politique du refus. Il faut rejeter l’idée que l’IA est inévitable et que nous n’avons d’autre choix que d’en accepter les conséquences. Cela suppose de contester les récits du déterminisme technologique et d’exiger des formes de gouvernance de l’IA plus démocratiques et responsables.

Une autre vision. En reliant les enjeux de pouvoir et de justice, nous pouvons imaginer une autre vision de l’IA, qui place le bien-être humain, la durabilité environnementale et l’équité sociale au cœur des priorités. Cela nécessite de défier les logiques extractives de l’IA et de construire un avenir plus juste et durable pour tous.

Dernière mise à jour:

FAQ

What's Atlas of AI about?

  • Exploration of AI's Impact: Atlas of AI by Kate Crawford delves into the profound implications of artificial intelligence on society, politics, and the environment. It critiques the portrayal of AI as a neutral technology, highlighting its entanglement with power structures and extractive industries.
  • Critique of AI Myths: The book challenges the notion that AI can replicate human intelligence, emphasizing that intelligence is shaped by cultural and historical contexts. Crawford uses examples like Clever Hans to illustrate biases in systems claiming objectivity.
  • Interconnected Systems: Crawford presents AI as a "megamachine" reliant on a vast network of resources, including human labor and natural materials, urging readers to consider the broader implications of AI technologies on human rights and social justice.

Why should I read Atlas of AI?

  • Critical Perspective: The book offers a critical lens on AI, challenging readers to think about the ethical and social ramifications of technology. It encourages a deeper understanding of how AI systems are designed and the biases they may perpetuate.
  • Broader Context: Crawford situates AI within a larger framework of extraction and exploitation, linking it to historical and contemporary issues of power and inequality. This context is crucial for understanding the societal impacts of AI.
  • Engaging Narratives: Combining rigorous research with compelling storytelling, the book makes complex topics accessible and engaging. Readers will find a blend of academic analysis and real-world examples that illustrate the stakes involved in AI development.

What are the key takeaways of Atlas of AI?

  • AI as a Power Structure: The book posits that AI reflects existing power structures, serving the interests of those in control. AI systems are not neutral but are designed to optimize for specific outcomes that often reinforce inequality.
  • Environmental and Labor Costs: Crawford highlights the significant environmental impact of AI, particularly in terms of resource extraction and energy consumption, and reveals how AI systems rely on cheap labor from marginalized communities.
  • Call for Justice: Crawford advocates for a movement towards justice that addresses the interconnectedness of technology, capitalism, and social equity. She urges readers to consider how AI can be reoriented to serve the public good rather than perpetuate harm.

What are the best quotes from Atlas of AI and what do they mean?

  • "Artificial intelligence is a registry of power.": This quote encapsulates Crawford's argument that AI systems reflect and reinforce existing power dynamics rather than being impartial technologies. It suggests that understanding AI requires examining who benefits from its deployment.
  • "The story of Clever Hans is a cautionary reminder that you can’t always be sure of what a model has learned from the data it has been given.": This highlights the potential for bias in AI systems, emphasizing that the data used to train models can lead to misleading conclusions.
  • “AI systems are expressions of power that emerge from wider economic and political forces.”: This quote challenges the reader to critically assess who benefits from AI technologies, emphasizing that AI is not neutral but reflects and amplifies existing power dynamics.

How does Kate Crawford define artificial intelligence in Atlas of AI?

  • Not Artificial or Intelligent: Crawford argues that AI is neither truly artificial nor genuinely intelligent. Instead, it is a complex interplay of human labor, natural resources, and socio-political structures.
  • Embodied and Material: She emphasizes that AI systems are built from physical materials and depend on extensive infrastructures, which include energy and labor. This challenges the common perception of AI as a purely digital phenomenon.
  • Political and Social Practices: Crawford asserts that AI is shaped by political and social practices, meaning it cannot be understood in isolation from the contexts in which it operates.

What is the Clever Hans Effect mentioned in Atlas of AI?

  • Observer-Expectancy Effect: The Clever Hans Effect refers to the phenomenon where a subject performs based on unintentional cues from the observer rather than genuine understanding. This highlights the influence of biases in interpreting intelligence.
  • Implications for AI: Crawford uses this effect to illustrate how AI systems can also be misinterpreted based on the data they are trained on and the expectations of their creators.
  • Broader Context of Intelligence: The effect raises questions about how intelligence is defined and measured, suggesting that our understanding of intelligence is often shaped by cultural and contextual factors.

How does Atlas of AI address the environmental impact of AI?

  • Resource Extraction: Crawford discusses the extensive mining and resource extraction required to power AI technologies, particularly the demand for rare earth minerals, leading to significant ecological damage.
  • Energy Consumption: The book highlights the enormous energy demands of AI systems, particularly in data centers, which contribute to carbon emissions and climate change.
  • Interconnectedness with Climate Justice: Crawford connects the environmental impact of AI to broader issues of climate justice, arguing that the exploitation of resources for AI disproportionately affects marginalized communities.

What role does labor play in the construction of AI according to Atlas of AI?

  • Exploitation of Workers: Crawford reveals how AI systems rely on cheap labor, often sourced from vulnerable populations, to function effectively. This exploitation is a critical aspect of the AI industry.
  • Digital Piecework: The book discusses the rise of digital piecework, where workers are paid minimal amounts to perform tasks that support AI systems, such as labeling data.
  • Surveillance and Control: Crawford highlights how AI technologies increase surveillance and control over workers, leading to a more regimented and exploitative work environment.

How does Atlas of AI address the issue of data extraction?

  • Data Colonialism: Crawford discusses how data extraction often mirrors colonial practices, where marginalized communities are exploited for their data without consent or benefit.
  • Consent and Privacy: The book emphasizes the lack of informed consent in data collection practices, particularly in how personal data is harvested for AI training.
  • Impact on Communities: The extraction of data can have detrimental effects on communities, reinforcing existing inequalities and injustices.

What critiques does Atlas of AI offer regarding emotion recognition technologies?

  • Scientific Foundations Questioned: Crawford highlights that many emotion recognition technologies are based on flawed scientific assumptions, particularly the idea that facial expressions universally correspond to specific emotions.
  • Cultural Bias: The book points out that emotion recognition systems often fail to account for cultural differences in emotional expression, leading to biased outcomes.
  • Potential for Harm: Crawford warns that deploying these technologies without understanding their limitations can lead to harmful consequences, such as misinterpretation of individuals' emotional states.

How does Atlas of AI connect AI to state power?

  • Surveillance and Control: Crawford discusses how AI technologies are increasingly used by state actors for surveillance and control, often without adequate oversight.
  • Military Applications: The book explores the relationship between AI development and military applications, particularly through programs like Project Maven.
  • Corporate-State Collaboration: Crawford highlights the collaboration between tech companies and government agencies, suggesting that this partnership can lead to a lack of accountability and transparency.

What are the implications of Atlas of AI for the future of technology?

  • Reevaluation of AI Development: Crawford's work calls for a reevaluation of how AI technologies are developed and deployed, emphasizing the need for ethical considerations and social responsibility.
  • Advocacy for Justice Movements: The book encourages readers to engage in justice movements that address the intersections of technology, labor, and environmental issues.
  • Critical Engagement with AI: Crawford urges readers to critically engage with AI technologies, questioning their implications and advocating for transparency and accountability.

Avis

3.96 sur 5
Moyenne de 2.4K évaluations de Goodreads et Amazon.

Atlas de l’IA suscite des avis partagés : certains saluent son analyse critique des impacts sociaux et environnementaux de l’intelligence artificielle, tandis que d’autres reprochent une écriture répétitive et une absence de propositions concrètes. Les lecteurs apprécient l’exploration des coûts matériels, de l’exploitation du travail et des enjeux éthiques liés à l’IA. Toutefois, certains jugent l’ouvrage trop pessimiste et manquant de profondeur technique. Si le livre est loué pour son approche globale, il est aussi critiqué pour son ton académique et un certain manque de clarté. Malgré ses défauts, beaucoup le considèrent comme une lecture essentielle pour saisir les implications plus larges de l’intelligence artificielle.

Your rating:
4.41
175 évaluations

À propos de l'auteur

Kate Crawford est une chercheuse de premier plan dans le domaine de l’intelligence artificielle et de ses répercussions sur la société. Reconnue pour son approche interdisciplinaire, elle allie habilement technologie, éthique et sciences sociales. Elle a occupé des postes prestigieux, notamment chez Microsoft Research et à l’Université de New York. Les travaux de Crawford mettent en lumière les coûts cachés et les conséquences des systèmes d’intelligence artificielle, qu’il s’agisse de leur impact environnemental, des conditions de travail qu’ils impliquent ou encore des risques de biais et de discrimination. Auteur prolifique sur ces sujets, elle intervient régulièrement lors de conférences internationales. Sa recherche a profondément enrichi le débat critique autour du développement et de la mise en œuvre de l’intelligence artificielle.

Listen
Now playing
Atlas of AI
0:00
-0:00
Now playing
Atlas of AI
0:00
-0:00
1x
Voice
Speed
Dan
Andrew
Michelle
Lauren
1.0×
+
200 words per minute
Queue
Home
Library
Get App
Create a free account to unlock:
Recommendations: Personalized for you
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
100,000+ readers
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 4
📜 Unlimited History
Free users are limited to 4
📥 Unlimited Downloads
Free users are limited to 1
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Jun 25,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
100,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Start a 7-Day Free Trial
7 days free, then $44.99/year. Cancel anytime.
Scanner
Find a barcode to scan

Settings
General
Widget
Loading...