Facebook Pixel
Searching...
Deutsch
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

My Mission to Protect What Is Human in a World of Machines
von Joy Buolamwini 2023 336 Seiten
4.15
1k+ Bewertungen
Hören
Hören

Wichtige Erkenntnisse

1. Der kodierte Blick: Voreingenommenheit in KI-Systemen aufdecken

"Standardeinstellungen sind nicht neutral. Sie spiegeln oft den kodierten Blick wider – die Vorlieben derjenigen, die die Macht haben, zu entscheiden, auf welche Themen sie sich konzentrieren."

Der kodierte Blick bezieht sich darauf, wie die Prioritäten, Vorlieben und Vorurteile derjenigen, die Technologie entwickeln, durch Diskriminierung und Auslöschung Schaden anrichten können. Joy Buolamwini entdeckte dieses Konzept, als sie an einem Gesichtserkennungsprojekt am MIT arbeitete und eine weiße Maske tragen musste, damit das System ihr Gesicht erkannte. Diese Erfahrung veranlasste sie, die Voreingenommenheit in KI-Systemen, insbesondere in Gesichtserkennungstechnologien, zu untersuchen.

Wichtige Erkenntnisse:

  • KI-Systeme schneiden bei dunkelhäutigen Personen und Frauen oft schlecht ab
  • Benchmark-Datensätze, die zur Schulung von KI-Modellen verwendet werden, sind häufig zugunsten von hellhäutigen Männern verzerrt
  • Diese Voreingenommenheiten können reale Konsequenzen haben, von falschen Verhaftungen bis hin zu verweigerten Chancen

Buolamwinis Forschung zeigte, dass die Gesichtsanalyse-Systeme großer Technologieunternehmen erhebliche Genauigkeitsunterschiede basierend auf Hauttyp und Geschlecht aufwiesen, mit Fehlerquoten von bis zu 34,4 % zwischen hellhäutigen Männern und dunkelhäutigen Frauen.

2. Vom Kunstprojekt zur globalen Bewegung: Die Geburt der Algorithmic Justice League

"Ich würde mich nicht zurückhalten. Ein Doktorand, der gegen Technologieriesen antritt, war nicht der typische Weg, aber auch nicht das Programmieren in Weißmaske, um von einer Maschine gesehen zu werden."

Die Algorithmic Justice League (AJL) entstand aus Buolamwinis Masterarbeit am MIT. Was als Kunstinstallation begann, die die Grenzen der Gesichtserkennungstechnologie erforschte, entwickelte sich zu einer globalen Bewegung für algorithmische Rechenschaftspflicht und Gerechtigkeit.

Mission der AJL:

  • Bewusstsein für die Auswirkungen von KI-Voreingenommenheit schaffen
  • Für inklusivere und gerechtere KI-Systeme eintreten
  • Werkzeuge und Methoden zur Überprüfung von KI-Systemen auf Voreingenommenheit entwickeln
  • Mit politischen Entscheidungsträgern und Branchenführern zusammenarbeiten, um verantwortungsvolle KI-Entwicklung zu fördern

Die Arbeit der Organisation hat politische Entscheidungen, Unternehmenspraktiken und öffentliche Diskussionen über KI-Ethik beeinflusst und zeigt die Kraft der Kombination von akademischer Forschung mit Aktivismus und Kunst.

3. Algorithmische Audits: Schwachstellen in kommerziellen KI-Produkten aufdecken

"Selbst wenn mein Klassenprojekt bei mir nicht funktionierte? Meine hellhäutigen Klassenkameraden schienen es zu genießen. Und natürlich könnte es sicherlich von Vorteil sein, nicht erkannt zu werden, angesichts der Konsequenzen der Überwachung von Individuen und der Gefahren der Massenüberwachung."

Algorithmische Audits sind systematische Bewertungen von KI-Systemen, um Voreingenommenheiten und Leistungsunterschiede zwischen verschiedenen demografischen Gruppen zu identifizieren. Buolamwinis "Gender Shades"-Projekt war ein bahnbrechendes algorithmisches Audit, das erhebliche Genauigkeitslücken in kommerziellen Geschlechtsklassifikationssystemen aufdeckte.

Wichtige Erkenntnisse des Gender Shades Audits:

  • Alle getesteten Systeme schnitten bei dunkelhäutigen Frauen am schlechtesten ab
  • Die größte Genauigkeitslücke betrug 34,4 % zwischen hellhäutigen Männern und dunkelhäutigen Frauen
  • Das Audit zeigte, dass selbst die KI-Produkte führender Technologieunternehmen erhebliche Voreingenommenheiten aufwiesen

Das Gender Shades Projekt und nachfolgende Audits haben zu Verbesserungen in kommerziellen KI-Systemen und einem erhöhten Bewusstsein für die Notwendigkeit vielfältiger Testdatensätze und rigoroser Bewertungsmethoden geführt.

4. Die Kraft eindrucksvoller Audits: Die Auswirkungen von KI menschlich machen

"Können Maschinen meine Königinnen jemals so sehen, wie ich sie sehe? Können Maschinen unsere Großmütter jemals so sehen, wie wir sie kannten?"

Eindrucksvolle Audits nutzen künstlerischen Ausdruck und persönliche Erzählungen, um die menschlichen Auswirkungen algorithmischer Voreingenommenheit zu veranschaulichen. Buolamwinis Spoken-Word-Stück "AI, Ain't I A Woman?" ist ein herausragendes Beispiel, das zeigt, wie KI-Systeme Bilder prominenter schwarzer Frauen falsch klassifizierten.

Auswirkungen eindrucksvoller Audits:

  • Die Konsequenzen von KI-Voreingenommenheit menschlich machen
  • Ein breiteres Publikum über akademische Kreise hinaus erreichen
  • Zu Handlungen und politischen Veränderungen inspirieren

Das Video "AI, Ain't I A Woman?" wurde viral und war im Dokumentarfilm "Coded Bias" zu sehen, was dazu beitrug, das öffentliche Bewusstsein für KI-Voreingenommenheit und deren reale Auswirkungen zu schärfen.

5. Gegen das Auslöschen kämpfen: Marginalisierte Stimmen in der Technologie verstärken

"Still zu sein über meine Erkenntnisse hätte keinen Schaden verhindert, weil diese Systeme bereits in Entwicklung waren. Mein Sprechen bot die Möglichkeit, alternative Wege zu erwägen, einschließlich der Nichtnutzung."

Das Auslöschen bekämpfen in KI und Technologie bedeutet, aktiv marginalisierte Stimmen zu verstärken und den Status quo herauszufordern. Buolamwinis Erfahrungen mit medialem Auslöschen und akademischen Hürden unterstreichen die Bedeutung vielfältiger Perspektiven in der KI-Forschung und -Entwicklung.

Strategien zur Bekämpfung des Auslöschens:

  • Zusammenarbeit mit und Unterstützung von unterrepräsentierten Forschern und Praktikern
  • Nutzung von Medienplattformen, um vielfältige Stimmen und Erfahrungen hervorzuheben
  • Institutionen und Unternehmen herausfordern, systemische Voreingenommenheiten anzugehen

Buolamwinis Arbeit mit dem Dokumentarfilm "Coded Bias" und ihre Advocacy-Bemühungen haben dazu beigetragen, die Beiträge von Frauen und People of Color in der KI-Ethik und -Forschung ins Rampenlicht zu rücken.

6. Über die Akademie hinaus: Engagement mit Politikern und der Öffentlichkeit

"Der Kongress wird etwas dagegen unternehmen."

Das Engagement mit Politikern ist entscheidend, um Forschungsergebnisse in reale Veränderungen umzusetzen. Buolamwinis Aussagen vor dem Kongress und ihre Arbeit mit Regierungsbehörden zeigen, welchen Einfluss Forscher auf politische Entscheidungen haben können.

Wichtige politische Engagements:

  • Aussage vor dem Kongress zur Gesichtserkennungstechnologie
  • Beitrag zur Entwicklung der AI Bill of Rights
  • Unterstützung lokaler Bemühungen zur Regulierung der Nutzung von Gesichtserkennung durch Strafverfolgungsbehörden

Diese Bemühungen haben zu einer verstärkten Überprüfung von KI-Systemen, vorgeschlagener Gesetzgebung und politischen Veränderungen auf verschiedenen Regierungsebenen geführt.

7. Die Kosten der Inklusion und Exklusion in der KI-Entwicklung

"Es gibt Kosten der Inklusion und Kosten der Exklusion, die bei der Gestaltung und Implementierung von KI-Systemen berücksichtigt werden müssen."

Die Balance zwischen Inklusion und Exklusion in der KI-Entwicklung erfordert eine sorgfältige Abwägung potenzieller Vorteile und Schäden. Während vielfältige Datensätze die Leistung von KI verbessern können, könnten sie auch eine umfassendere Überwachung und Kontrolle ermöglichen.

Überlegungen:

  • Verbesserung der KI-Genauigkeit kann nützliche Anwendungen (z.B. medizinische Diagnostik) verbessern
  • Genauere Gesichtserkennung könnte auch Massenüberwachung ermöglichen
  • Das Ausschließen bestimmter Gruppen aus Datensätzen kann die Privatsphäre schützen, aber zu schlechterer Leistung für diese Gruppen führen

Buolamwini plädiert für einen nuancierten Ansatz, der die breiteren gesellschaftlichen Auswirkungen von KI-Systemen berücksichtigt, anstatt sich ausschließlich auf technische Leistungskennzahlen zu konzentrieren.

8. Auf dem Weg zur algorithmischen Gerechtigkeit: Von der Forschung zur realen Veränderung

"Wir brauchen Gesetze. Im Laufe der Jahre wurden Entwürfe für Gesetze zur algorithmischen Rechenschaftspflicht, zu Fernbiometrie-Technologien und zum Datenschutz eingeführt. Mit wachsendem Bewusstsein über die Auswirkungen von KI auf unser Leben müssen wir wissen, dass unsere Regierungsinstitutionen unsere Bürgerrechte schützen werden, unabhängig davon, wie sich die Technologie entwickelt."

Algorithmische Gerechtigkeit erfordert einen vielschichtigen Ansatz, der Forschung, Advocacy, politische Veränderungen und öffentliches Engagement kombiniert. Buolamwinis Weg von der Doktorandin zur einflussreichen KI-Ethikerin zeigt das Potenzial von Einzelpersonen, systemische Veränderungen voranzutreiben.

Wichtige Komponenten im Kampf für algorithmische Gerechtigkeit:

  • Strenge Forschung und Audits von KI-Systemen
  • Öffentlichkeitsarbeit und Aufklärungskampagnen
  • Zusammenarbeit mit politischen Entscheidungsträgern und Branchenführern
  • Unterstützung von Basisinitiativen und Gemeinschaftsorganisationen

Die Veröffentlichung der AI Bill of Rights und das wachsende öffentliche Bewusstsein für KI-Ethik-Fragen zeigen Fortschritte, aber anhaltende Wachsamkeit und Advocacy sind notwendig, um sicherzustellen, dass KI-Systeme entwickelt und eingesetzt werden, um Menschenrechte zu respektieren und Gerechtigkeit zu fördern.

Zuletzt aktualisiert:

FAQ

What's Unmasking AI about?

  • Exploration of AI and Society: Unmasking AI by Joy Buolamwini examines the intersection of artificial intelligence and social justice, focusing on how AI can perpetuate biases and discrimination.
  • Personal Narrative: The book combines Buolamwini's personal experiences with rigorous research, detailing her journey as a researcher and activist in the field of algorithmic justice.
  • Coded Gaze Concept: A central theme is the "coded gaze," which refers to how the biases of technology creators can be embedded in AI systems, leading to harmful outcomes.
  • Call to Action: Buolamwini emphasizes the need for collective action to ensure AI serves humanity equitably, advocating for algorithmic justice and diverse representation in tech development.

Why should I read Unmasking AI?

  • Timely and Relevant Topic: As AI technologies become more integrated into daily life, understanding their implications is crucial. Buolamwini's insights provide a necessary critique of these systems.
  • Personal and Engaging Narrative: The book combines storytelling with research, making complex topics accessible. Buolamwini's journey offers inspiration and motivation for readers.
  • Empowerment Through Knowledge: Reading this book equips individuals with the knowledge to question and challenge the status quo in technology, encouraging critical thinking about societal structures.
  • Insightful Perspective: It provides a unique viewpoint from a leading voice in algorithmic justice, essential for anyone interested in technology's impact on society.

What are the key takeaways of Unmasking AI?

  • AI Reflects Human Bias: AI systems are not neutral; they reflect the biases of their creators, leading to real-world consequences for marginalized groups.
  • Importance of Diverse Representation: Buolamwini argues for the necessity of diverse voices in technology development to ensure AI serves all communities fairly.
  • Call to Action: The book urges readers to engage in conversations about AI and its societal impacts, advocating for algorithmic justice and shaping the future of technology.
  • Collective Action for Change: Buolamwini emphasizes the need for a united front against harmful AI practices, encouraging participation in movements for algorithmic justice.

What are the best quotes from Unmasking AI and what do they mean?

  • "The coded gaze describes the ways...": This quote highlights how biases can be embedded in AI systems, leading to discrimination against marginalized groups.
  • "We cannot have racial justice...": It underscores the urgent need for ethical considerations in AI development, particularly in sensitive areas like law enforcement.
  • "AI will not solve poverty...": Buolamwini emphasizes that technological solutions cannot address systemic societal issues without addressing underlying social and economic structures.
  • "Your silence will not protect you.": This quote underscores the importance of speaking out against injustices, particularly in the context of AI and technology.

How does Joy Buolamwini define the "coded gaze" in Unmasking AI?

  • Definition of Coded Gaze: The "coded gaze" is how technology reflects the biases of its creators, leading to harmful outcomes for marginalized communities.
  • Examples of Coded Gaze: Buolamwini shares personal anecdotes, such as her experience with facial recognition technology that failed to recognize her dark-skinned face.
  • Broader Implications: The concept extends beyond race and gender, encompassing various forms of discrimination, including ableism and ageism.
  • Call for Critical Examination: Buolamwini calls for a critical examination of technology to ensure it serves all communities equitably.

What is algorithmic bias, as defined in Unmasking AI?

  • Definition of Algorithmic Bias: It refers to the systematic and unfair discrimination that occurs when AI systems produce different outcomes for different demographic groups.
  • Real-World Implications: Buolamwini's research shows how algorithmic bias can lead to misidentification and wrongful arrests, particularly for people of color.
  • Need for Accountability: Addressing algorithmic bias requires transparency and accountability from tech companies, with rigorous testing and auditing of AI systems.
  • Impact on Society: The book provides examples of how these biases manifest in technologies like facial recognition, affecting marginalized communities disproportionately.

What are the implications of AI technologies on marginalized communities as discussed in Unmasking AI?

  • Discrimination in AI Systems: AI technologies, particularly facial recognition, can lead to discrimination against marginalized groups, often misidentifying or not recognizing individuals.
  • Real-World Consequences: Instances of AI failures have resulted in wrongful arrests and other serious repercussions for individuals from marginalized communities.
  • Need for Ethical AI: Buolamwini advocates for ethical AI systems that prioritize the needs and rights of all individuals, emphasizing inclusive data and diverse representation.
  • Urgent Accountability: The book underscores the urgent need for accountability in AI development to prevent discrimination and harm.

How does Unmasking AI address the issue of data collection and representation?

  • Critique of Data Practices: Buolamwini critiques data collection practices that prioritize convenience over inclusivity, often lacking representation of diverse populations.
  • Importance of Diverse Datasets: The book emphasizes the need for datasets that accurately reflect societal diversity to prevent biased outcomes in AI systems.
  • Call for Transparency: Buolamwini urges tech companies to disclose data sourcing and demographics, essential for building trust and accountability in AI technologies.
  • Impact on AI Development: Without diverse representation in data, AI systems will continue to perpetuate existing inequalities, highlighting the need for change.

How does Joy Buolamwini's work contribute to the fight for algorithmic justice?

  • Founding the Algorithmic Justice League: Buolamwini established the organization to raise awareness about AI bias and advocate for equitable technology.
  • Research and Activism: Her work combines academic research with grassroots activism, making her a prominent figure in the movement for algorithmic justice.
  • Influencing Policy: Buolamwini's advocacy has led to significant discussions around AI regulation, including calls for moratoriums on facial recognition use by law enforcement.
  • Community Engagement: She emphasizes the importance of community engagement in addressing AI harms, ensuring that affected voices are heard.

What is the significance of the "Gender Shades" project mentioned in Unmasking AI?

  • Research on Facial Recognition: The "Gender Shades" project examined facial recognition systems' performance across demographic groups, revealing significant accuracy disparities.
  • Impact on Industry Standards: The findings influenced major tech companies to reconsider practices and improve algorithms, prompting discussions about AI ethics.
  • Raising Awareness: The project catalyzed broader conversations about representation and bias in AI, highlighting the need for diverse datasets and inclusive practices.
  • Influence on Policy: It has served as a foundation for advocating policy changes to address algorithmic bias and ensure ethical AI development.

How does Unmasking AI propose solutions for algorithmic bias?

  • Advocacy for Algorithmic Justice: Buolamwini calls for ethical considerations in AI development, encouraging conversations about societal impacts and equitable solutions.
  • Diverse Representation in Tech: The book highlights the importance of including diverse voices in technology development to ensure fair AI systems.
  • Policy Recommendations: Buolamwini suggests collaboration between policymakers and tech companies to create regulations addressing algorithmic bias.
  • Accountability and Transparency: Emphasizes the need for accountability and transparency in AI systems to prevent discrimination and harm.

How can individuals contribute to the movement for algorithmic justice?

  • Educate Yourself and Others: Buolamwini encourages learning about AI and its societal impacts, sharing knowledge to build an informed community.
  • Advocate for Change: Participate in advocacy efforts, such as supporting legislation addressing AI bias and discrimination, and engage with local organizations.
  • Challenge Harmful Practices: Question and challenge AI technologies that perpetuate harm, holding companies accountable for a just technological landscape.
  • Empowerment Through Action: Individuals can contribute to a more equitable future by actively participating in movements for algorithmic justice.

Rezensionen

4.15 von 5
Durchschnitt von 1k+ Bewertungen von Goodreads und Amazon.

Die Entschleierung der KI wird für ihre zugängliche Erkundung von KI-Voreingenommenheit und Ethik gelobt. Leser schätzen Buolamwinis persönliche Reise und Einblicke in die Technikwelt. Viele finden das Buch informativ und zum Nachdenken anregend, wobei die Bedeutung der Auseinandersetzung mit algorithmischer Voreingenommenheit hervorgehoben wird. Einige Rezensenten bemerken den memoirenartigen Stil und wünschen sich mehr technische Tiefe. Insgesamt wird das Buch als ein wichtiger Beitrag zum Verständnis der gesellschaftlichen Auswirkungen von KI angesehen, obwohl die Meinungen über das Gleichgewicht zwischen persönlicher Erzählung und technischem Inhalt variieren.

Über den Autor

Dr. Joy Buolamwini ist Informatikerin, Forscherin und Aktivistin, bekannt für ihre Arbeit zur algorithmischen Voreingenommenheit in der KI. Sie gründete die Algorithmic Justice League, um Diskriminierung in KI-Systemen zu bekämpfen. Buolamwini erlangte Anerkennung für ihre Forschung zu Gesichtserkennungstechnologien und deren Voreingenommenheit gegenüber Frauen und Menschen mit Hautfarbe. Sie hat ihre Erkenntnisse Politikern und Technologieunternehmen präsentiert und setzt sich für eine inklusivere und ethischere KI-Entwicklung ein. Buolamwini ist auch als "Poet of Code" bekannt, da sie Poesie in ihre technische Arbeit integriert. Ihre Bemühungen haben die Diskussionen über KI-Ethik und Fairness maßgeblich beeinflusst.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Mar 2,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
50,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →