Wichtige Erkenntnisse
1. Die materielle Basis der KI: Die Erde als Rohstoffindustrie
Die Abhängigkeit der KI von Ressourcen. Künstliche Intelligenz ist kein abstraktes Konzept, sondern eine stark materielle Industrie, die auf der Extraktion der Ressourcen der Erde beruht. Von Lithiumminen in Nevada bis zu Seltenen Erden in der Inneren Mongolei erfordert die Schaffung von KI-Systemen eine umfangreiche Lieferkette von Mineralien, Energie und Materialien. Diese Nachfrage befeuert umweltschädliche Abbaupraktiken, die oft in Diskussionen über technologischen Fortschritt übersehen werden.
Umweltauswirkungen. Der Ressourcenbedarf des Technologiesektors trägt erheblich zur Umweltzerstörung bei. Der Abbau von Mineralien kontaminiert Gewässer, zerstört Wälder und vertreibt Gemeinschaften. Darüber hinaus trägt die energieintensive Natur der KI, insbesondere beim Training großer Modelle, zu einem wachsenden CO2-Fußabdruck bei, der dem der Luftfahrtindustrie Konkurrenz macht.
Notwendigkeit eines Perspektivwechsels. Um die wahren Kosten der KI zu verstehen, müssen wir über die abstrakten Versprechen technologischen Fortschritts hinausblicken und die materiellen Konsequenzen betrachten. Dies erfordert die Anerkennung der ökologischen und menschlichen Kosten, die mit der Ressourcengewinnung, dem Energieverbrauch und den globalen Lieferketten verbunden sind, die KI-Systeme unterstützen.
2. Die menschlichen Kosten: Arbeitsausbeutung in KI-Systemen
Die Abhängigkeit der KI von menschlicher Arbeit. Trotz der Erzählung von der Automatisierung sind KI-Systeme stark auf menschliche Arbeit angewiesen, die oft verborgen und schlecht entlohnt ist. Dazu gehören digitale Stückarbeiter, die Daten kennzeichnen, Amazon-Lagerangestellte, die Bestellungen abwickeln, und Content-Moderatoren, die schädliche Inhalte filtern. Diese Arbeiter sind entscheidend für die Funktionsfähigkeit von KI-Systemen, doch ihre Beiträge werden oft nicht gewürdigt und ihre Arbeitsbedingungen sind ausbeuterisch.
Zeit und Kontrolle. Das Management von Zeit ist zentral für die Ausbeutung von Arbeit in KI-Systemen. Arbeiter sind ständiger Überwachung und algorithmischer Bewertung ausgesetzt, wobei jede ihrer Handlungen verfolgt und gemessen wird, um die Effizienz zu maximieren. Dies schafft ein stressiges und entmenschlichendes Arbeitsumfeld, in dem Arbeiter als bloße Anhängsel der Maschine behandelt werden.
Notwendigkeit von Arbeitersolidarität. Um die Ausbeutung von Arbeit in KI-Systemen anzugehen, müssen sich die Arbeiter organisieren und bessere Arbeitsbedingungen, faire Löhne und mehr Kontrolle über ihre Zeit und Arbeit fordern. Dies erfordert den Aufbau von Solidarität über verschiedene Sektoren der KI-Industrie hinweg, von Minenarbeitern bis zu Ingenieuren, und das Infragestellen der Machtstrukturen, die Ausbeutung aufrechterhalten.
3. Daten als Infrastruktur: Die Auslöschung von Kontext und Zustimmung
Datenextraktion. Die KI-Industrie ist auf die massenhafte Ernte von Daten angewiesen, oft ohne Zustimmung oder Rücksicht auf die Privatsphäre. Dazu gehören persönliche Informationen, Bilder und Texte, die aus dem Internet gesammelt und zur Schulung von KI-Modellen verwendet werden. Diese Praxis behandelt Daten als kostenlose Ressource und ignoriert die ethischen und sozialen Implikationen der Erfassung und Nutzung von Informationen ohne Wissen oder Erlaubnis der Betroffenen.
Von Bildern zu Infrastruktur. Die Transformation von Bildern in Daten entzieht ihnen ihren Kontext und ihre Bedeutung. Mugshots, Selfies und persönliche Fotos werden auf Datenpunkte reduziert, die zur Schulung von Gesichtserkennungssystemen und anderen KI-Modellen verwendet werden. Diese Auslöschung des Kontexts kann zu voreingenommenen und diskriminierenden Ergebnissen führen, da KI-Systeme lernen, bestimmte Merkmale mit negativen Stereotypen zu assoziieren.
Ethische Bedenken. Die aktuellen Praktiken der Datensammlung und -nutzung in der KI werfen tiefgreifende ethische Bedenken auf. Wir müssen über die Vorstellung hinausgehen, dass Daten eine neutrale Ressource sind, und die Machtverhältnisse anerkennen, die in ihrer Erfassung, Kennzeichnung und Nutzung innewohnen. Dies erfordert die Entwicklung ethischer Richtlinien und Vorschriften, die die Privatsphäre der Menschen schützen und den Missbrauch ihrer Daten verhindern.
4. Klassifikation als Macht: Verzerrungen in KI-Systemen kodieren
Klassifikation als politischer Akt. KI-Systeme sind auf Klassifikation angewiesen, um die Welt zu verstehen. Die Kategorien, die zur Klassifizierung von Daten verwendet werden, sind jedoch nicht neutral oder objektiv, sondern spiegeln die Vorurteile und Annahmen ihrer Schöpfer wider. Diese Vorurteile können in KI-Systeme kodiert werden, was zu diskriminierenden Ergebnissen führt.
Das Problem der Verzerrung. Es wurde gezeigt, dass KI-Systeme in verschiedenen Bereichen, von der Gesichtserkennung bis zur Strafjustiz, Verzerrungen aufweisen. Diese Verzerrungen spiegeln oft historische Muster der Diskriminierung wider und perpetuieren sowie verstärken bestehende Ungleichheiten. Beispielsweise können Gesichtserkennungssysteme bei Menschen mit dunklerer Hautfarbe weniger genau sein, was zu Fehlidentifikationen und falschen Festnahmen führt.
Über die Debatten zur Verzerrung hinaus. Um das Problem der Verzerrung in der KI anzugehen, müssen wir über technische Lösungen hinausgehen und die zugrunde liegenden sozialen und politischen Strukturen in Frage stellen, die die Daten und Algorithmen prägen, die zur Schulung von KI-Systemen verwendet werden. Dies erfordert das Infragestellen der Machtverhältnisse, die Ungleichheit perpetuieren, und die Förderung gerechterer und inklusiverer Ansätze zur KI-Entwicklung.
5. Affekterkennung: Die umstrittene Wissenschaft der Emotionserkennung
Die Behauptung universeller Emotionen. Systeme zur Affekterkennung basieren auf der Idee, dass Emotionen universell sind und zuverlässig aus Gesichtsausdrücken erkannt werden können. Diese Behauptung ist jedoch stark umstritten, da viele Forscher argumentieren, dass Emotionen kulturell variabel und kontextabhängig sind.
Der Einfluss von Paul Ekman. Die Arbeit des Psychologen Paul Ekman hat die Entwicklung des Bereichs der Affekterkennung maßgeblich geprägt. Ekmans Forschung, die in den 1960er Jahren begann, behauptete, eine Reihe grundlegender Emotionen identifizieren zu können, die universell ausgedrückt und erkannt werden. Seine Methoden und Ergebnisse wurden jedoch wegen mangelnder wissenschaftlicher Strenge weitgehend kritisiert.
Ethische Bedenken. Trotz der wissenschaftlichen Zweifel an der Affekterkennung werden diese Werkzeuge schnell in einer Vielzahl von hochriskanten Kontexten eingesetzt, von der Einstellung bis zur Polizeiarbeit. Dies wirft ernsthafte ethische Bedenken auf, da Menschen möglicherweise aufgrund ungenauer und unzuverlässiger Bewertungen ihres emotionalen Zustands beurteilt und diskriminiert werden.
6. KI als Werkzeug staatlicher Macht: Überwachung und Kontrolle
Militärische Ursprünge der KI. Die Entwicklung der KI wurde stark von militärischer Finanzierung und Prioritäten beeinflusst. Dies hat den Fokus des Feldes auf Überwachung, Datenerfassung und Risikobewertung geprägt, ohne die ethischen und sozialen Implikationen zu berücksichtigen.
Das Snowden-Archiv. Das Snowden-Archiv zeigt das Ausmaß, in dem Geheimdienste KI genutzt haben, um Daten in großem Maßstab zu sammeln und zu analysieren. Diese Werkzeuge, die einst für nationale Sicherheitszwecke reserviert waren, werden nun im Inland eingesetzt, was die Grenzen zwischen militärischer und ziviler Überwachung verwischt.
Die Third Offset-Strategie. Die Third Offset-Strategie des US-Militärs zielt darauf ab, seine Dominanz in der KI aufrechtzuerhalten, indem es Partnerschaften mit dem Technologiesektor eingeht. Dies hat zu einer engen Beziehung zwischen dem Militär und dem Silicon Valley geführt, wobei Technologieunternehmen dem Verteidigungsministerium KI-Werkzeuge und -Expertise zur Verfügung stellen.
7. Die großen Häuser der KI: Macht zentralisieren und Asymmetrien vergrößern
Machtkonzentration. Die KI-Industrie wird von einer kleinen Anzahl mächtiger Technologieunternehmen dominiert. Diese Unternehmen kontrollieren riesige Mengen an Daten, Ressourcen und Fachwissen, was ihnen einen erheblichen Vorteil bei der Gestaltung der Entwicklung und Implementierung von KI-Systemen verschafft.
Wachsende Ungleichheiten. Die Konzentration von Macht in den Händen weniger Technologiegiganten verschärft bestehende Ungleichheiten. KI-Systeme werden oft so gestaltet, dass sie den Interessen dieser Unternehmen dienen, was die Kluft zwischen Reichen und Armen, Mächtigen und Marginalisierten weiter vergrößert.
Notwendigkeit von Regulierung. Um die Machtkonzentration in der KI-Industrie anzugehen, benötigen wir stärkere Vorschriften, die den Wettbewerb fördern, die Privatsphäre schützen und sicherstellen, dass KI-Systeme in einer Weise eingesetzt werden, die der Gesellschaft insgesamt zugutekommt. Dies erfordert das Infragestellen der Dominanz der Technologiegiganten und die Förderung demokratischer und rechenschaftspflichtiger Formen der KI-Governance.
8. Die Logiken herausfordern: Auf dem Weg zu vernetzten Bewegungen für Gerechtigkeit
Vernetzte Bewegungen. Die grundlegenden Probleme der KI zu adressieren, erfordert die Verbindung von Fragen der Macht und Gerechtigkeit. Dazu gehören Datenschutz, Arbeitsrechte, Klimagerechtigkeit und Rassengleichheit. Indem diese Bewegungen zusammenarbeiten, können sie die Machtstrukturen herausfordern, die die KI derzeit verstärkt.
Politik der Ablehnung. Wir müssen die Vorstellung zurückweisen, dass KI unvermeidlich ist und dass wir keine Wahl haben, als ihre Konsequenzen zu akzeptieren. Dies erfordert das Infragestellen der Narrative des technologischen Determinismus und das Fordern nach demokratischeren und rechenschaftspflichtigeren Formen der KI-Governance.
Eine andere Vision. Durch die Verbindung von Fragen der Macht und Gerechtigkeit können wir eine andere Vision für KI schaffen, die das menschliche Wohl, die ökologische Nachhaltigkeit und soziale Gerechtigkeit priorisiert. Dies erfordert das Infragestellen der extraktiven Logiken der KI und den Aufbau einer gerechteren und nachhaltigeren Zukunft für alle.
Zuletzt aktualisiert:
FAQ
What's Atlas of AI about?
- Exploration of AI's Impact: Atlas of AI by Kate Crawford delves into the profound implications of artificial intelligence on society, politics, and the environment. It critiques the portrayal of AI as a neutral technology, highlighting its entanglement with power structures and extractive industries.
- Critique of AI Myths: The book challenges the notion that AI can replicate human intelligence, emphasizing that intelligence is shaped by cultural and historical contexts. Crawford uses examples like Clever Hans to illustrate biases in systems claiming objectivity.
- Interconnected Systems: Crawford presents AI as a "megamachine" reliant on a vast network of resources, including human labor and natural materials, urging readers to consider the broader implications of AI technologies on human rights and social justice.
Why should I read Atlas of AI?
- Critical Perspective: The book offers a critical lens on AI, challenging readers to think about the ethical and social ramifications of technology. It encourages a deeper understanding of how AI systems are designed and the biases they may perpetuate.
- Broader Context: Crawford situates AI within a larger framework of extraction and exploitation, linking it to historical and contemporary issues of power and inequality. This context is crucial for understanding the societal impacts of AI.
- Engaging Narratives: Combining rigorous research with compelling storytelling, the book makes complex topics accessible and engaging. Readers will find a blend of academic analysis and real-world examples that illustrate the stakes involved in AI development.
What are the key takeaways of Atlas of AI?
- AI as a Power Structure: The book posits that AI reflects existing power structures, serving the interests of those in control. AI systems are not neutral but are designed to optimize for specific outcomes that often reinforce inequality.
- Environmental and Labor Costs: Crawford highlights the significant environmental impact of AI, particularly in terms of resource extraction and energy consumption, and reveals how AI systems rely on cheap labor from marginalized communities.
- Call for Justice: Crawford advocates for a movement towards justice that addresses the interconnectedness of technology, capitalism, and social equity. She urges readers to consider how AI can be reoriented to serve the public good rather than perpetuate harm.
What are the best quotes from Atlas of AI and what do they mean?
- "Artificial intelligence is a registry of power.": This quote encapsulates Crawford's argument that AI systems reflect and reinforce existing power dynamics rather than being impartial technologies. It suggests that understanding AI requires examining who benefits from its deployment.
- "The story of Clever Hans is a cautionary reminder that you can’t always be sure of what a model has learned from the data it has been given.": This highlights the potential for bias in AI systems, emphasizing that the data used to train models can lead to misleading conclusions.
- “AI systems are expressions of power that emerge from wider economic and political forces.”: This quote challenges the reader to critically assess who benefits from AI technologies, emphasizing that AI is not neutral but reflects and amplifies existing power dynamics.
How does Kate Crawford define artificial intelligence in Atlas of AI?
- Not Artificial or Intelligent: Crawford argues that AI is neither truly artificial nor genuinely intelligent. Instead, it is a complex interplay of human labor, natural resources, and socio-political structures.
- Embodied and Material: She emphasizes that AI systems are built from physical materials and depend on extensive infrastructures, which include energy and labor. This challenges the common perception of AI as a purely digital phenomenon.
- Political and Social Practices: Crawford asserts that AI is shaped by political and social practices, meaning it cannot be understood in isolation from the contexts in which it operates.
What is the Clever Hans Effect mentioned in Atlas of AI?
- Observer-Expectancy Effect: The Clever Hans Effect refers to the phenomenon where a subject performs based on unintentional cues from the observer rather than genuine understanding. This highlights the influence of biases in interpreting intelligence.
- Implications for AI: Crawford uses this effect to illustrate how AI systems can also be misinterpreted based on the data they are trained on and the expectations of their creators.
- Broader Context of Intelligence: The effect raises questions about how intelligence is defined and measured, suggesting that our understanding of intelligence is often shaped by cultural and contextual factors.
How does Atlas of AI address the environmental impact of AI?
- Resource Extraction: Crawford discusses the extensive mining and resource extraction required to power AI technologies, particularly the demand for rare earth minerals, leading to significant ecological damage.
- Energy Consumption: The book highlights the enormous energy demands of AI systems, particularly in data centers, which contribute to carbon emissions and climate change.
- Interconnectedness with Climate Justice: Crawford connects the environmental impact of AI to broader issues of climate justice, arguing that the exploitation of resources for AI disproportionately affects marginalized communities.
What role does labor play in the construction of AI according to Atlas of AI?
- Exploitation of Workers: Crawford reveals how AI systems rely on cheap labor, often sourced from vulnerable populations, to function effectively. This exploitation is a critical aspect of the AI industry.
- Digital Piecework: The book discusses the rise of digital piecework, where workers are paid minimal amounts to perform tasks that support AI systems, such as labeling data.
- Surveillance and Control: Crawford highlights how AI technologies increase surveillance and control over workers, leading to a more regimented and exploitative work environment.
How does Atlas of AI address the issue of data extraction?
- Data Colonialism: Crawford discusses how data extraction often mirrors colonial practices, where marginalized communities are exploited for their data without consent or benefit.
- Consent and Privacy: The book emphasizes the lack of informed consent in data collection practices, particularly in how personal data is harvested for AI training.
- Impact on Communities: The extraction of data can have detrimental effects on communities, reinforcing existing inequalities and injustices.
What critiques does Atlas of AI offer regarding emotion recognition technologies?
- Scientific Foundations Questioned: Crawford highlights that many emotion recognition technologies are based on flawed scientific assumptions, particularly the idea that facial expressions universally correspond to specific emotions.
- Cultural Bias: The book points out that emotion recognition systems often fail to account for cultural differences in emotional expression, leading to biased outcomes.
- Potential for Harm: Crawford warns that deploying these technologies without understanding their limitations can lead to harmful consequences, such as misinterpretation of individuals' emotional states.
How does Atlas of AI connect AI to state power?
- Surveillance and Control: Crawford discusses how AI technologies are increasingly used by state actors for surveillance and control, often without adequate oversight.
- Military Applications: The book explores the relationship between AI development and military applications, particularly through programs like Project Maven.
- Corporate-State Collaboration: Crawford highlights the collaboration between tech companies and government agencies, suggesting that this partnership can lead to a lack of accountability and transparency.
What are the implications of Atlas of AI for the future of technology?
- Reevaluation of AI Development: Crawford's work calls for a reevaluation of how AI technologies are developed and deployed, emphasizing the need for ethical considerations and social responsibility.
- Advocacy for Justice Movements: The book encourages readers to engage in justice movements that address the intersections of technology, labor, and environmental issues.
- Critical Engagement with AI: Crawford urges readers to critically engage with AI technologies, questioning their implications and advocating for transparency and accountability.
Rezensionen
Atlas der KI erhält gemischte Kritiken. Einige loben die kritische Auseinandersetzung mit den gesellschaftlichen und ökologischen Auswirkungen der Künstlichen Intelligenz, während andere das sich wiederholende Schreiben und das Fehlen von Lösungen bemängeln. Die Leser schätzen die Untersuchung der materiellen Kosten von KI, der Ausbeutung von Arbeitskräften und der ethischen Fragestellungen. Dennoch empfinden manche das Buch als übermäßig pessimistisch und mangelhaft in technischer Tiefe. Es wird für seinen umfassenden Ansatz gelobt, jedoch auch für seinen akademischen Ton und gelegentliche Unschärfen kritisiert. Trotz dieser Mängel betrachten viele es als eine wichtige Lektüre, um die weitreichenden Implikationen der Künstlichen Intelligenz zu verstehen.
Similar Books









