Facebook Pixel
Searching...
Deutsch
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Atlas of AI

Atlas of AI

Power, Politics, and the Planetary Costs of Artificial Intelligence
von Kate Crawford 2020 288 Seiten
3.96
2k+ Bewertungen
Hören
Listen to Summary

Wichtige Erkenntnisse

1. Die materielle Basis der KI: Die Erde als Rohstoffindustrie

Die Abhängigkeit der KI von Ressourcen. Künstliche Intelligenz ist kein abstraktes Konzept, sondern eine stark materielle Industrie, die auf der Extraktion der Ressourcen der Erde beruht. Von Lithiumminen in Nevada bis zu Seltenen Erden in der Inneren Mongolei erfordert die Schaffung von KI-Systemen eine umfangreiche Lieferkette von Mineralien, Energie und Materialien. Diese Nachfrage befeuert umweltschädliche Abbaupraktiken, die oft in Diskussionen über technologischen Fortschritt übersehen werden.

Umweltauswirkungen. Der Ressourcenbedarf des Technologiesektors trägt erheblich zur Umweltzerstörung bei. Der Abbau von Mineralien kontaminiert Gewässer, zerstört Wälder und vertreibt Gemeinschaften. Darüber hinaus trägt die energieintensive Natur der KI, insbesondere beim Training großer Modelle, zu einem wachsenden CO2-Fußabdruck bei, der dem der Luftfahrtindustrie Konkurrenz macht.

Notwendigkeit eines Perspektivwechsels. Um die wahren Kosten der KI zu verstehen, müssen wir über die abstrakten Versprechen technologischen Fortschritts hinausblicken und die materiellen Konsequenzen betrachten. Dies erfordert die Anerkennung der ökologischen und menschlichen Kosten, die mit der Ressourcengewinnung, dem Energieverbrauch und den globalen Lieferketten verbunden sind, die KI-Systeme unterstützen.

2. Die menschlichen Kosten: Arbeitsausbeutung in KI-Systemen

Die Abhängigkeit der KI von menschlicher Arbeit. Trotz der Erzählung von der Automatisierung sind KI-Systeme stark auf menschliche Arbeit angewiesen, die oft verborgen und schlecht entlohnt ist. Dazu gehören digitale Stückarbeiter, die Daten kennzeichnen, Amazon-Lagerangestellte, die Bestellungen abwickeln, und Content-Moderatoren, die schädliche Inhalte filtern. Diese Arbeiter sind entscheidend für die Funktionsfähigkeit von KI-Systemen, doch ihre Beiträge werden oft nicht gewürdigt und ihre Arbeitsbedingungen sind ausbeuterisch.

Zeit und Kontrolle. Das Management von Zeit ist zentral für die Ausbeutung von Arbeit in KI-Systemen. Arbeiter sind ständiger Überwachung und algorithmischer Bewertung ausgesetzt, wobei jede ihrer Handlungen verfolgt und gemessen wird, um die Effizienz zu maximieren. Dies schafft ein stressiges und entmenschlichendes Arbeitsumfeld, in dem Arbeiter als bloße Anhängsel der Maschine behandelt werden.

Notwendigkeit von Arbeitersolidarität. Um die Ausbeutung von Arbeit in KI-Systemen anzugehen, müssen sich die Arbeiter organisieren und bessere Arbeitsbedingungen, faire Löhne und mehr Kontrolle über ihre Zeit und Arbeit fordern. Dies erfordert den Aufbau von Solidarität über verschiedene Sektoren der KI-Industrie hinweg, von Minenarbeitern bis zu Ingenieuren, und das Infragestellen der Machtstrukturen, die Ausbeutung aufrechterhalten.

3. Daten als Infrastruktur: Die Auslöschung von Kontext und Zustimmung

Datenextraktion. Die KI-Industrie ist auf die massenhafte Ernte von Daten angewiesen, oft ohne Zustimmung oder Rücksicht auf die Privatsphäre. Dazu gehören persönliche Informationen, Bilder und Texte, die aus dem Internet gesammelt und zur Schulung von KI-Modellen verwendet werden. Diese Praxis behandelt Daten als kostenlose Ressource und ignoriert die ethischen und sozialen Implikationen der Erfassung und Nutzung von Informationen ohne Wissen oder Erlaubnis der Betroffenen.

Von Bildern zu Infrastruktur. Die Transformation von Bildern in Daten entzieht ihnen ihren Kontext und ihre Bedeutung. Mugshots, Selfies und persönliche Fotos werden auf Datenpunkte reduziert, die zur Schulung von Gesichtserkennungssystemen und anderen KI-Modellen verwendet werden. Diese Auslöschung des Kontexts kann zu voreingenommenen und diskriminierenden Ergebnissen führen, da KI-Systeme lernen, bestimmte Merkmale mit negativen Stereotypen zu assoziieren.

Ethische Bedenken. Die aktuellen Praktiken der Datensammlung und -nutzung in der KI werfen tiefgreifende ethische Bedenken auf. Wir müssen über die Vorstellung hinausgehen, dass Daten eine neutrale Ressource sind, und die Machtverhältnisse anerkennen, die in ihrer Erfassung, Kennzeichnung und Nutzung innewohnen. Dies erfordert die Entwicklung ethischer Richtlinien und Vorschriften, die die Privatsphäre der Menschen schützen und den Missbrauch ihrer Daten verhindern.

4. Klassifikation als Macht: Verzerrungen in KI-Systemen kodieren

Klassifikation als politischer Akt. KI-Systeme sind auf Klassifikation angewiesen, um die Welt zu verstehen. Die Kategorien, die zur Klassifizierung von Daten verwendet werden, sind jedoch nicht neutral oder objektiv, sondern spiegeln die Vorurteile und Annahmen ihrer Schöpfer wider. Diese Vorurteile können in KI-Systeme kodiert werden, was zu diskriminierenden Ergebnissen führt.

Das Problem der Verzerrung. Es wurde gezeigt, dass KI-Systeme in verschiedenen Bereichen, von der Gesichtserkennung bis zur Strafjustiz, Verzerrungen aufweisen. Diese Verzerrungen spiegeln oft historische Muster der Diskriminierung wider und perpetuieren sowie verstärken bestehende Ungleichheiten. Beispielsweise können Gesichtserkennungssysteme bei Menschen mit dunklerer Hautfarbe weniger genau sein, was zu Fehlidentifikationen und falschen Festnahmen führt.

Über die Debatten zur Verzerrung hinaus. Um das Problem der Verzerrung in der KI anzugehen, müssen wir über technische Lösungen hinausgehen und die zugrunde liegenden sozialen und politischen Strukturen in Frage stellen, die die Daten und Algorithmen prägen, die zur Schulung von KI-Systemen verwendet werden. Dies erfordert das Infragestellen der Machtverhältnisse, die Ungleichheit perpetuieren, und die Förderung gerechterer und inklusiverer Ansätze zur KI-Entwicklung.

5. Affekterkennung: Die umstrittene Wissenschaft der Emotionserkennung

Die Behauptung universeller Emotionen. Systeme zur Affekterkennung basieren auf der Idee, dass Emotionen universell sind und zuverlässig aus Gesichtsausdrücken erkannt werden können. Diese Behauptung ist jedoch stark umstritten, da viele Forscher argumentieren, dass Emotionen kulturell variabel und kontextabhängig sind.

Der Einfluss von Paul Ekman. Die Arbeit des Psychologen Paul Ekman hat die Entwicklung des Bereichs der Affekterkennung maßgeblich geprägt. Ekmans Forschung, die in den 1960er Jahren begann, behauptete, eine Reihe grundlegender Emotionen identifizieren zu können, die universell ausgedrückt und erkannt werden. Seine Methoden und Ergebnisse wurden jedoch wegen mangelnder wissenschaftlicher Strenge weitgehend kritisiert.

Ethische Bedenken. Trotz der wissenschaftlichen Zweifel an der Affekterkennung werden diese Werkzeuge schnell in einer Vielzahl von hochriskanten Kontexten eingesetzt, von der Einstellung bis zur Polizeiarbeit. Dies wirft ernsthafte ethische Bedenken auf, da Menschen möglicherweise aufgrund ungenauer und unzuverlässiger Bewertungen ihres emotionalen Zustands beurteilt und diskriminiert werden.

6. KI als Werkzeug staatlicher Macht: Überwachung und Kontrolle

Militärische Ursprünge der KI. Die Entwicklung der KI wurde stark von militärischer Finanzierung und Prioritäten beeinflusst. Dies hat den Fokus des Feldes auf Überwachung, Datenerfassung und Risikobewertung geprägt, ohne die ethischen und sozialen Implikationen zu berücksichtigen.

Das Snowden-Archiv. Das Snowden-Archiv zeigt das Ausmaß, in dem Geheimdienste KI genutzt haben, um Daten in großem Maßstab zu sammeln und zu analysieren. Diese Werkzeuge, die einst für nationale Sicherheitszwecke reserviert waren, werden nun im Inland eingesetzt, was die Grenzen zwischen militärischer und ziviler Überwachung verwischt.

Die Third Offset-Strategie. Die Third Offset-Strategie des US-Militärs zielt darauf ab, seine Dominanz in der KI aufrechtzuerhalten, indem es Partnerschaften mit dem Technologiesektor eingeht. Dies hat zu einer engen Beziehung zwischen dem Militär und dem Silicon Valley geführt, wobei Technologieunternehmen dem Verteidigungsministerium KI-Werkzeuge und -Expertise zur Verfügung stellen.

7. Die großen Häuser der KI: Macht zentralisieren und Asymmetrien vergrößern

Machtkonzentration. Die KI-Industrie wird von einer kleinen Anzahl mächtiger Technologieunternehmen dominiert. Diese Unternehmen kontrollieren riesige Mengen an Daten, Ressourcen und Fachwissen, was ihnen einen erheblichen Vorteil bei der Gestaltung der Entwicklung und Implementierung von KI-Systemen verschafft.

Wachsende Ungleichheiten. Die Konzentration von Macht in den Händen weniger Technologiegiganten verschärft bestehende Ungleichheiten. KI-Systeme werden oft so gestaltet, dass sie den Interessen dieser Unternehmen dienen, was die Kluft zwischen Reichen und Armen, Mächtigen und Marginalisierten weiter vergrößert.

Notwendigkeit von Regulierung. Um die Machtkonzentration in der KI-Industrie anzugehen, benötigen wir stärkere Vorschriften, die den Wettbewerb fördern, die Privatsphäre schützen und sicherstellen, dass KI-Systeme in einer Weise eingesetzt werden, die der Gesellschaft insgesamt zugutekommt. Dies erfordert das Infragestellen der Dominanz der Technologiegiganten und die Förderung demokratischer und rechenschaftspflichtiger Formen der KI-Governance.

8. Die Logiken herausfordern: Auf dem Weg zu vernetzten Bewegungen für Gerechtigkeit

Vernetzte Bewegungen. Die grundlegenden Probleme der KI zu adressieren, erfordert die Verbindung von Fragen der Macht und Gerechtigkeit. Dazu gehören Datenschutz, Arbeitsrechte, Klimagerechtigkeit und Rassengleichheit. Indem diese Bewegungen zusammenarbeiten, können sie die Machtstrukturen herausfordern, die die KI derzeit verstärkt.

Politik der Ablehnung. Wir müssen die Vorstellung zurückweisen, dass KI unvermeidlich ist und dass wir keine Wahl haben, als ihre Konsequenzen zu akzeptieren. Dies erfordert das Infragestellen der Narrative des technologischen Determinismus und das Fordern nach demokratischeren und rechenschaftspflichtigeren Formen der KI-Governance.

Eine andere Vision. Durch die Verbindung von Fragen der Macht und Gerechtigkeit können wir eine andere Vision für KI schaffen, die das menschliche Wohl, die ökologische Nachhaltigkeit und soziale Gerechtigkeit priorisiert. Dies erfordert das Infragestellen der extraktiven Logiken der KI und den Aufbau einer gerechteren und nachhaltigeren Zukunft für alle.

Zuletzt aktualisiert:

Rezensionen

3.96 von 5
Durchschnitt von 2k+ Bewertungen von Goodreads und Amazon.

Atlas der KI erhält gemischte Kritiken. Einige loben die kritische Auseinandersetzung mit den gesellschaftlichen und ökologischen Auswirkungen der Künstlichen Intelligenz, während andere das sich wiederholende Schreiben und das Fehlen von Lösungen bemängeln. Die Leser schätzen die Untersuchung der materiellen Kosten von KI, der Ausbeutung von Arbeitskräften und der ethischen Fragestellungen. Dennoch empfinden manche das Buch als übermäßig pessimistisch und mangelhaft in technischer Tiefe. Es wird für seinen umfassenden Ansatz gelobt, jedoch auch für seinen akademischen Ton und gelegentliche Unschärfen kritisiert. Trotz dieser Mängel betrachten viele es als eine wichtige Lektüre, um die weitreichenden Implikationen der Künstlichen Intelligenz zu verstehen.

Über den Autor

Kate Crawford ist eine führende Wissenschaftlerin und Forscherin im Bereich der künstlichen Intelligenz und deren gesellschaftlichen Auswirkungen. Kate Crawford ist bekannt für ihren interdisziplinären Ansatz, der Technologie, Ethik und Sozialwissenschaften miteinander verbindet. Sie hat an renommierten Institutionen wie Microsoft Research und der New York University gearbeitet. Crawfords Forschung konzentriert sich auf die verborgenen Kosten und Konsequenzen von KI-Systemen, einschließlich ihrer Umweltauswirkungen, Arbeitspraktiken sowie dem Potenzial für Vorurteile und Diskriminierung. Sie hat umfangreich zu diesen Themen veröffentlicht und ist eine gefragte Rednerin auf internationalen Konferenzen. Crawfords Forschung hat maßgeblich zur kritischen Auseinandersetzung mit der Entwicklung und Implementierung von KI beigetragen.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Home
Library
Get App
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Recommendations: Get personalized suggestions
Ratings: Rate books & see your ratings
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Apr 26,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
100,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Scanner
Find a barcode to scan

Settings
General
Widget
Appearance
Loading...
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →