Facebook Pixel
Searching...
Deutsch
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

von Joy Buolamwini 2023 336 Seiten
4.17
500+ Bewertungen
Technology
Artificial Intelligence
Science
Hören

Wichtige Erkenntnisse

1. Der kodierte Blick: Voreingenommenheit in KI-Systemen aufdecken

"Standardeinstellungen sind nicht neutral. Sie spiegeln oft den kodierten Blick wider – die Vorlieben derjenigen, die die Macht haben, zu entscheiden, auf welche Themen sie sich konzentrieren."

Der kodierte Blick bezieht sich darauf, wie die Prioritäten, Vorlieben und Vorurteile derjenigen, die Technologie entwickeln, durch Diskriminierung und Auslöschung Schaden anrichten können. Joy Buolamwini entdeckte dieses Konzept, als sie an einem Gesichtserkennungsprojekt am MIT arbeitete und eine weiße Maske tragen musste, damit das System ihr Gesicht erkannte. Diese Erfahrung veranlasste sie, die Voreingenommenheit in KI-Systemen, insbesondere in Gesichtserkennungstechnologien, zu untersuchen.

Wichtige Erkenntnisse:

  • KI-Systeme schneiden bei dunkelhäutigen Personen und Frauen oft schlecht ab
  • Benchmark-Datensätze, die zur Schulung von KI-Modellen verwendet werden, sind häufig zugunsten von hellhäutigen Männern verzerrt
  • Diese Voreingenommenheiten können reale Konsequenzen haben, von falschen Verhaftungen bis hin zu verweigerten Chancen

Buolamwinis Forschung zeigte, dass die Gesichtsanalyse-Systeme großer Technologieunternehmen erhebliche Genauigkeitsunterschiede basierend auf Hauttyp und Geschlecht aufwiesen, mit Fehlerquoten von bis zu 34,4 % zwischen hellhäutigen Männern und dunkelhäutigen Frauen.

2. Vom Kunstprojekt zur globalen Bewegung: Die Geburt der Algorithmic Justice League

"Ich würde mich nicht zurückhalten. Ein Doktorand, der gegen Technologieriesen antritt, war nicht der typische Weg, aber auch nicht das Programmieren in Weißmaske, um von einer Maschine gesehen zu werden."

Die Algorithmic Justice League (AJL) entstand aus Buolamwinis Masterarbeit am MIT. Was als Kunstinstallation begann, die die Grenzen der Gesichtserkennungstechnologie erforschte, entwickelte sich zu einer globalen Bewegung für algorithmische Rechenschaftspflicht und Gerechtigkeit.

Mission der AJL:

  • Bewusstsein für die Auswirkungen von KI-Voreingenommenheit schaffen
  • Für inklusivere und gerechtere KI-Systeme eintreten
  • Werkzeuge und Methoden zur Überprüfung von KI-Systemen auf Voreingenommenheit entwickeln
  • Mit politischen Entscheidungsträgern und Branchenführern zusammenarbeiten, um verantwortungsvolle KI-Entwicklung zu fördern

Die Arbeit der Organisation hat politische Entscheidungen, Unternehmenspraktiken und öffentliche Diskussionen über KI-Ethik beeinflusst und zeigt die Kraft der Kombination von akademischer Forschung mit Aktivismus und Kunst.

3. Algorithmische Audits: Schwachstellen in kommerziellen KI-Produkten aufdecken

"Selbst wenn mein Klassenprojekt bei mir nicht funktionierte? Meine hellhäutigen Klassenkameraden schienen es zu genießen. Und natürlich könnte es sicherlich von Vorteil sein, nicht erkannt zu werden, angesichts der Konsequenzen der Überwachung von Individuen und der Gefahren der Massenüberwachung."

Algorithmische Audits sind systematische Bewertungen von KI-Systemen, um Voreingenommenheiten und Leistungsunterschiede zwischen verschiedenen demografischen Gruppen zu identifizieren. Buolamwinis "Gender Shades"-Projekt war ein bahnbrechendes algorithmisches Audit, das erhebliche Genauigkeitslücken in kommerziellen Geschlechtsklassifikationssystemen aufdeckte.

Wichtige Erkenntnisse des Gender Shades Audits:

  • Alle getesteten Systeme schnitten bei dunkelhäutigen Frauen am schlechtesten ab
  • Die größte Genauigkeitslücke betrug 34,4 % zwischen hellhäutigen Männern und dunkelhäutigen Frauen
  • Das Audit zeigte, dass selbst die KI-Produkte führender Technologieunternehmen erhebliche Voreingenommenheiten aufwiesen

Das Gender Shades Projekt und nachfolgende Audits haben zu Verbesserungen in kommerziellen KI-Systemen und einem erhöhten Bewusstsein für die Notwendigkeit vielfältiger Testdatensätze und rigoroser Bewertungsmethoden geführt.

4. Die Kraft eindrucksvoller Audits: Die Auswirkungen von KI menschlich machen

"Können Maschinen meine Königinnen jemals so sehen, wie ich sie sehe? Können Maschinen unsere Großmütter jemals so sehen, wie wir sie kannten?"

Eindrucksvolle Audits nutzen künstlerischen Ausdruck und persönliche Erzählungen, um die menschlichen Auswirkungen algorithmischer Voreingenommenheit zu veranschaulichen. Buolamwinis Spoken-Word-Stück "AI, Ain't I A Woman?" ist ein herausragendes Beispiel, das zeigt, wie KI-Systeme Bilder prominenter schwarzer Frauen falsch klassifizierten.

Auswirkungen eindrucksvoller Audits:

  • Die Konsequenzen von KI-Voreingenommenheit menschlich machen
  • Ein breiteres Publikum über akademische Kreise hinaus erreichen
  • Zu Handlungen und politischen Veränderungen inspirieren

Das Video "AI, Ain't I A Woman?" wurde viral und war im Dokumentarfilm "Coded Bias" zu sehen, was dazu beitrug, das öffentliche Bewusstsein für KI-Voreingenommenheit und deren reale Auswirkungen zu schärfen.

5. Gegen das Auslöschen kämpfen: Marginalisierte Stimmen in der Technologie verstärken

"Still zu sein über meine Erkenntnisse hätte keinen Schaden verhindert, weil diese Systeme bereits in Entwicklung waren. Mein Sprechen bot die Möglichkeit, alternative Wege zu erwägen, einschließlich der Nichtnutzung."

Das Auslöschen bekämpfen in KI und Technologie bedeutet, aktiv marginalisierte Stimmen zu verstärken und den Status quo herauszufordern. Buolamwinis Erfahrungen mit medialem Auslöschen und akademischen Hürden unterstreichen die Bedeutung vielfältiger Perspektiven in der KI-Forschung und -Entwicklung.

Strategien zur Bekämpfung des Auslöschens:

  • Zusammenarbeit mit und Unterstützung von unterrepräsentierten Forschern und Praktikern
  • Nutzung von Medienplattformen, um vielfältige Stimmen und Erfahrungen hervorzuheben
  • Institutionen und Unternehmen herausfordern, systemische Voreingenommenheiten anzugehen

Buolamwinis Arbeit mit dem Dokumentarfilm "Coded Bias" und ihre Advocacy-Bemühungen haben dazu beigetragen, die Beiträge von Frauen und People of Color in der KI-Ethik und -Forschung ins Rampenlicht zu rücken.

6. Über die Akademie hinaus: Engagement mit Politikern und der Öffentlichkeit

"Der Kongress wird etwas dagegen unternehmen."

Das Engagement mit Politikern ist entscheidend, um Forschungsergebnisse in reale Veränderungen umzusetzen. Buolamwinis Aussagen vor dem Kongress und ihre Arbeit mit Regierungsbehörden zeigen, welchen Einfluss Forscher auf politische Entscheidungen haben können.

Wichtige politische Engagements:

  • Aussage vor dem Kongress zur Gesichtserkennungstechnologie
  • Beitrag zur Entwicklung der AI Bill of Rights
  • Unterstützung lokaler Bemühungen zur Regulierung der Nutzung von Gesichtserkennung durch Strafverfolgungsbehörden

Diese Bemühungen haben zu einer verstärkten Überprüfung von KI-Systemen, vorgeschlagener Gesetzgebung und politischen Veränderungen auf verschiedenen Regierungsebenen geführt.

7. Die Kosten der Inklusion und Exklusion in der KI-Entwicklung

"Es gibt Kosten der Inklusion und Kosten der Exklusion, die bei der Gestaltung und Implementierung von KI-Systemen berücksichtigt werden müssen."

Die Balance zwischen Inklusion und Exklusion in der KI-Entwicklung erfordert eine sorgfältige Abwägung potenzieller Vorteile und Schäden. Während vielfältige Datensätze die Leistung von KI verbessern können, könnten sie auch eine umfassendere Überwachung und Kontrolle ermöglichen.

Überlegungen:

  • Verbesserung der KI-Genauigkeit kann nützliche Anwendungen (z.B. medizinische Diagnostik) verbessern
  • Genauere Gesichtserkennung könnte auch Massenüberwachung ermöglichen
  • Das Ausschließen bestimmter Gruppen aus Datensätzen kann die Privatsphäre schützen, aber zu schlechterer Leistung für diese Gruppen führen

Buolamwini plädiert für einen nuancierten Ansatz, der die breiteren gesellschaftlichen Auswirkungen von KI-Systemen berücksichtigt, anstatt sich ausschließlich auf technische Leistungskennzahlen zu konzentrieren.

8. Auf dem Weg zur algorithmischen Gerechtigkeit: Von der Forschung zur realen Veränderung

"Wir brauchen Gesetze. Im Laufe der Jahre wurden Entwürfe für Gesetze zur algorithmischen Rechenschaftspflicht, zu Fernbiometrie-Technologien und zum Datenschutz eingeführt. Mit wachsendem Bewusstsein über die Auswirkungen von KI auf unser Leben müssen wir wissen, dass unsere Regierungsinstitutionen unsere Bürgerrechte schützen werden, unabhängig davon, wie sich die Technologie entwickelt."

Algorithmische Gerechtigkeit erfordert einen vielschichtigen Ansatz, der Forschung, Advocacy, politische Veränderungen und öffentliches Engagement kombiniert. Buolamwinis Weg von der Doktorandin zur einflussreichen KI-Ethikerin zeigt das Potenzial von Einzelpersonen, systemische Veränderungen voranzutreiben.

Wichtige Komponenten im Kampf für algorithmische Gerechtigkeit:

  • Strenge Forschung und Audits von KI-Systemen
  • Öffentlichkeitsarbeit und Aufklärungskampagnen
  • Zusammenarbeit mit politischen Entscheidungsträgern und Branchenführern
  • Unterstützung von Basisinitiativen und Gemeinschaftsorganisationen

Die Veröffentlichung der AI Bill of Rights und das wachsende öffentliche Bewusstsein für KI-Ethik-Fragen zeigen Fortschritte, aber anhaltende Wachsamkeit und Advocacy sind notwendig, um sicherzustellen, dass KI-Systeme entwickelt und eingesetzt werden, um Menschenrechte zu respektieren und Gerechtigkeit zu fördern.

Zuletzt aktualisiert:

Rezensionen

4.17 von 5
Durchschnitt von 500+ Bewertungen von Goodreads und Amazon.

Die Entschleierung der KI wird für ihre zugängliche Erkundung von KI-Voreingenommenheit und Ethik gelobt. Leser schätzen Buolamwinis persönliche Reise und Einblicke in die Technikwelt. Viele finden das Buch informativ und zum Nachdenken anregend, wobei die Bedeutung der Auseinandersetzung mit algorithmischer Voreingenommenheit hervorgehoben wird. Einige Rezensenten bemerken den memoirenartigen Stil und wünschen sich mehr technische Tiefe. Insgesamt wird das Buch als ein wichtiger Beitrag zum Verständnis der gesellschaftlichen Auswirkungen von KI angesehen, obwohl die Meinungen über das Gleichgewicht zwischen persönlicher Erzählung und technischem Inhalt variieren.

Über den Autor

Dr. Joy Buolamwini ist Informatikerin, Forscherin und Aktivistin, bekannt für ihre Arbeit zur algorithmischen Voreingenommenheit in der KI. Sie gründete die Algorithmic Justice League, um Diskriminierung in KI-Systemen zu bekämpfen. Buolamwini erlangte Anerkennung für ihre Forschung zu Gesichtserkennungstechnologien und deren Voreingenommenheit gegenüber Frauen und Menschen mit Hautfarbe. Sie hat ihre Erkenntnisse Politikern und Technologieunternehmen präsentiert und setzt sich für eine inklusivere und ethischere KI-Entwicklung ein. Buolamwini ist auch als "Poet of Code" bekannt, da sie Poesie in ihre technische Arbeit integriert. Ihre Bemühungen haben die Diskussionen über KI-Ethik und Fairness maßgeblich beeinflusst.

0:00
-0:00
1x
Dan
Jennifer
Andrew
Sarah
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Bookmarks – save your favorite books
History – revisit books later
Ratings – rate books & see your ratings
Unlock unlimited listening
Your first week's on us!
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Nov 1,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
“...I can 10x the number of books I can read...”
“...exceptionally accurate, engaging, and beautifully presented...”
“...better than any amazon review when I'm making a book-buying decision...”
Save 62%
Yearly
$119.88 $44.99/yr
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance