Wichtige Erkenntnisse
1. Die materielle Basis der KI: Die Erde als Rohstoffindustrie
Die Abhängigkeit der KI von Ressourcen. Künstliche Intelligenz ist kein abstraktes Konzept, sondern eine stark materielle Industrie, die auf der Extraktion der Ressourcen der Erde beruht. Von Lithiumminen in Nevada bis zu Seltenen Erden in der Inneren Mongolei erfordert die Schaffung von KI-Systemen eine umfangreiche Lieferkette von Mineralien, Energie und Materialien. Diese Nachfrage befeuert umweltschädliche Abbaupraktiken, die oft in Diskussionen über technologischen Fortschritt übersehen werden.
Umweltauswirkungen. Der Ressourcenbedarf des Technologiesektors trägt erheblich zur Umweltzerstörung bei. Der Abbau von Mineralien kontaminiert Gewässer, zerstört Wälder und vertreibt Gemeinschaften. Darüber hinaus trägt die energieintensive Natur der KI, insbesondere beim Training großer Modelle, zu einem wachsenden CO2-Fußabdruck bei, der dem der Luftfahrtindustrie Konkurrenz macht.
Notwendigkeit eines Perspektivwechsels. Um die wahren Kosten der KI zu verstehen, müssen wir über die abstrakten Versprechen technologischen Fortschritts hinausblicken und die materiellen Konsequenzen betrachten. Dies erfordert die Anerkennung der ökologischen und menschlichen Kosten, die mit der Ressourcengewinnung, dem Energieverbrauch und den globalen Lieferketten verbunden sind, die KI-Systeme unterstützen.
2. Die menschlichen Kosten: Arbeitsausbeutung in KI-Systemen
Die Abhängigkeit der KI von menschlicher Arbeit. Trotz der Erzählung von der Automatisierung sind KI-Systeme stark auf menschliche Arbeit angewiesen, die oft verborgen und schlecht entlohnt ist. Dazu gehören digitale Stückarbeiter, die Daten kennzeichnen, Amazon-Lagerangestellte, die Bestellungen abwickeln, und Content-Moderatoren, die schädliche Inhalte filtern. Diese Arbeiter sind entscheidend für die Funktionsfähigkeit von KI-Systemen, doch ihre Beiträge werden oft nicht gewürdigt und ihre Arbeitsbedingungen sind ausbeuterisch.
Zeit und Kontrolle. Das Management von Zeit ist zentral für die Ausbeutung von Arbeit in KI-Systemen. Arbeiter sind ständiger Überwachung und algorithmischer Bewertung ausgesetzt, wobei jede ihrer Handlungen verfolgt und gemessen wird, um die Effizienz zu maximieren. Dies schafft ein stressiges und entmenschlichendes Arbeitsumfeld, in dem Arbeiter als bloße Anhängsel der Maschine behandelt werden.
Notwendigkeit von Arbeitersolidarität. Um die Ausbeutung von Arbeit in KI-Systemen anzugehen, müssen sich die Arbeiter organisieren und bessere Arbeitsbedingungen, faire Löhne und mehr Kontrolle über ihre Zeit und Arbeit fordern. Dies erfordert den Aufbau von Solidarität über verschiedene Sektoren der KI-Industrie hinweg, von Minenarbeitern bis zu Ingenieuren, und das Infragestellen der Machtstrukturen, die Ausbeutung aufrechterhalten.
3. Daten als Infrastruktur: Die Auslöschung von Kontext und Zustimmung
Datenextraktion. Die KI-Industrie ist auf die massenhafte Ernte von Daten angewiesen, oft ohne Zustimmung oder Rücksicht auf die Privatsphäre. Dazu gehören persönliche Informationen, Bilder und Texte, die aus dem Internet gesammelt und zur Schulung von KI-Modellen verwendet werden. Diese Praxis behandelt Daten als kostenlose Ressource und ignoriert die ethischen und sozialen Implikationen der Erfassung und Nutzung von Informationen ohne Wissen oder Erlaubnis der Betroffenen.
Von Bildern zu Infrastruktur. Die Transformation von Bildern in Daten entzieht ihnen ihren Kontext und ihre Bedeutung. Mugshots, Selfies und persönliche Fotos werden auf Datenpunkte reduziert, die zur Schulung von Gesichtserkennungssystemen und anderen KI-Modellen verwendet werden. Diese Auslöschung des Kontexts kann zu voreingenommenen und diskriminierenden Ergebnissen führen, da KI-Systeme lernen, bestimmte Merkmale mit negativen Stereotypen zu assoziieren.
Ethische Bedenken. Die aktuellen Praktiken der Datensammlung und -nutzung in der KI werfen tiefgreifende ethische Bedenken auf. Wir müssen über die Vorstellung hinausgehen, dass Daten eine neutrale Ressource sind, und die Machtverhältnisse anerkennen, die in ihrer Erfassung, Kennzeichnung und Nutzung innewohnen. Dies erfordert die Entwicklung ethischer Richtlinien und Vorschriften, die die Privatsphäre der Menschen schützen und den Missbrauch ihrer Daten verhindern.
4. Klassifikation als Macht: Verzerrungen in KI-Systemen kodieren
Klassifikation als politischer Akt. KI-Systeme sind auf Klassifikation angewiesen, um die Welt zu verstehen. Die Kategorien, die zur Klassifizierung von Daten verwendet werden, sind jedoch nicht neutral oder objektiv, sondern spiegeln die Vorurteile und Annahmen ihrer Schöpfer wider. Diese Vorurteile können in KI-Systeme kodiert werden, was zu diskriminierenden Ergebnissen führt.
Das Problem der Verzerrung. Es wurde gezeigt, dass KI-Systeme in verschiedenen Bereichen, von der Gesichtserkennung bis zur Strafjustiz, Verzerrungen aufweisen. Diese Verzerrungen spiegeln oft historische Muster der Diskriminierung wider und perpetuieren sowie verstärken bestehende Ungleichheiten. Beispielsweise können Gesichtserkennungssysteme bei Menschen mit dunklerer Hautfarbe weniger genau sein, was zu Fehlidentifikationen und falschen Festnahmen führt.
Über die Debatten zur Verzerrung hinaus. Um das Problem der Verzerrung in der KI anzugehen, müssen wir über technische Lösungen hinausgehen und die zugrunde liegenden sozialen und politischen Strukturen in Frage stellen, die die Daten und Algorithmen prägen, die zur Schulung von KI-Systemen verwendet werden. Dies erfordert das Infragestellen der Machtverhältnisse, die Ungleichheit perpetuieren, und die Förderung gerechterer und inklusiverer Ansätze zur KI-Entwicklung.
5. Affekterkennung: Die umstrittene Wissenschaft der Emotionserkennung
Die Behauptung universeller Emotionen. Systeme zur Affekterkennung basieren auf der Idee, dass Emotionen universell sind und zuverlässig aus Gesichtsausdrücken erkannt werden können. Diese Behauptung ist jedoch stark umstritten, da viele Forscher argumentieren, dass Emotionen kulturell variabel und kontextabhängig sind.
Der Einfluss von Paul Ekman. Die Arbeit des Psychologen Paul Ekman hat die Entwicklung des Bereichs der Affekterkennung maßgeblich geprägt. Ekmans Forschung, die in den 1960er Jahren begann, behauptete, eine Reihe grundlegender Emotionen identifizieren zu können, die universell ausgedrückt und erkannt werden. Seine Methoden und Ergebnisse wurden jedoch wegen mangelnder wissenschaftlicher Strenge weitgehend kritisiert.
Ethische Bedenken. Trotz der wissenschaftlichen Zweifel an der Affekterkennung werden diese Werkzeuge schnell in einer Vielzahl von hochriskanten Kontexten eingesetzt, von der Einstellung bis zur Polizeiarbeit. Dies wirft ernsthafte ethische Bedenken auf, da Menschen möglicherweise aufgrund ungenauer und unzuverlässiger Bewertungen ihres emotionalen Zustands beurteilt und diskriminiert werden.
6. KI als Werkzeug staatlicher Macht: Überwachung und Kontrolle
Militärische Ursprünge der KI. Die Entwicklung der KI wurde stark von militärischer Finanzierung und Prioritäten beeinflusst. Dies hat den Fokus des Feldes auf Überwachung, Datenerfassung und Risikobewertung geprägt, ohne die ethischen und sozialen Implikationen zu berücksichtigen.
Das Snowden-Archiv. Das Snowden-Archiv zeigt das Ausmaß, in dem Geheimdienste KI genutzt haben, um Daten in großem Maßstab zu sammeln und zu analysieren. Diese Werkzeuge, die einst für nationale Sicherheitszwecke reserviert waren, werden nun im Inland eingesetzt, was die Grenzen zwischen militärischer und ziviler Überwachung verwischt.
Die Third Offset-Strategie. Die Third Offset-Strategie des US-Militärs zielt darauf ab, seine Dominanz in der KI aufrechtzuerhalten, indem es Partnerschaften mit dem Technologiesektor eingeht. Dies hat zu einer engen Beziehung zwischen dem Militär und dem Silicon Valley geführt, wobei Technologieunternehmen dem Verteidigungsministerium KI-Werkzeuge und -Expertise zur Verfügung stellen.
7. Die großen Häuser der KI: Macht zentralisieren und Asymmetrien vergrößern
Machtkonzentration. Die KI-Industrie wird von einer kleinen Anzahl mächtiger Technologieunternehmen dominiert. Diese Unternehmen kontrollieren riesige Mengen an Daten, Ressourcen und Fachwissen, was ihnen einen erheblichen Vorteil bei der Gestaltung der Entwicklung und Implementierung von KI-Systemen verschafft.
Wachsende Ungleichheiten. Die Konzentration von Macht in den Händen weniger Technologiegiganten verschärft bestehende Ungleichheiten. KI-Systeme werden oft so gestaltet, dass sie den Interessen dieser Unternehmen dienen, was die Kluft zwischen Reichen und Armen, Mächtigen und Marginalisierten weiter vergrößert.
Notwendigkeit von Regulierung. Um die Machtkonzentration in der KI-Industrie anzugehen, benötigen wir stärkere Vorschriften, die den Wettbewerb fördern, die Privatsphäre schützen und sicherstellen, dass KI-Systeme in einer Weise eingesetzt werden, die der Gesellschaft insgesamt zugutekommt. Dies erfordert das Infragestellen der Dominanz der Technologiegiganten und die Förderung demokratischer und rechenschaftspflichtiger Formen der KI-Governance.
8. Die Logiken herausfordern: Auf dem Weg zu vernetzten Bewegungen für Gerechtigkeit
Vernetzte Bewegungen. Die grundlegenden Probleme der KI zu adressieren, erfordert die Verbindung von Fragen der Macht und Gerechtigkeit. Dazu gehören Datenschutz, Arbeitsrechte, Klimagerechtigkeit und Rassengleichheit. Indem diese Bewegungen zusammenarbeiten, können sie die Machtstrukturen herausfordern, die die KI derzeit verstärkt.
Politik der Ablehnung. Wir müssen die Vorstellung zurückweisen, dass KI unvermeidlich ist und dass wir keine Wahl haben, als ihre Konsequenzen zu akzeptieren. Dies erfordert das Infragestellen der Narrative des technologischen Determinismus und das Fordern nach demokratischeren und rechenschaftspflichtigeren Formen der KI-Governance.
Eine andere Vision. Durch die Verbindung von Fragen der Macht und Gerechtigkeit können wir eine andere Vision für KI schaffen, die das menschliche Wohl, die ökologische Nachhaltigkeit und soziale Gerechtigkeit priorisiert. Dies erfordert das Infragestellen der extraktiven Logiken der KI und den Aufbau einer gerechteren und nachhaltigeren Zukunft für alle.
Zuletzt aktualisiert:
Rezensionen
Atlas der KI erhält gemischte Kritiken. Einige loben die kritische Auseinandersetzung mit den gesellschaftlichen und ökologischen Auswirkungen der Künstlichen Intelligenz, während andere das sich wiederholende Schreiben und das Fehlen von Lösungen bemängeln. Die Leser schätzen die Untersuchung der materiellen Kosten von KI, der Ausbeutung von Arbeitskräften und der ethischen Fragestellungen. Dennoch empfinden manche das Buch als übermäßig pessimistisch und mangelhaft in technischer Tiefe. Es wird für seinen umfassenden Ansatz gelobt, jedoch auch für seinen akademischen Ton und gelegentliche Unschärfen kritisiert. Trotz dieser Mängel betrachten viele es als eine wichtige Lektüre, um die weitreichenden Implikationen der Künstlichen Intelligenz zu verstehen.
Similar Books









