Facebook Pixel
Searching...
Français
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

My Mission to Protect What Is Human in a World of Machines
par Joy Buolamwini 2023 336 pages
4.15
1k+ évaluations
Écouter
Écouter

Points clés

1. Le Regard Codé : Dévoiler les Biais dans les Systèmes d'IA

"Les paramètres par défaut ne sont pas neutres. Ils reflètent souvent le regard codé—les préférences de ceux qui ont le pouvoir de choisir les sujets à traiter."

Le regard codé fait référence à la manière dont les priorités, les préférences et les préjugés de ceux qui créent la technologie peuvent propager des dommages par la discrimination et l'effacement. Joy Buolamwini a découvert ce concept en travaillant sur un projet de reconnaissance faciale au MIT, où elle devait porter un masque blanc pour que le système détecte son visage. Cette expérience l'a amenée à enquêter sur les biais dans les systèmes d'IA, en particulier dans les technologies de reconnaissance faciale.

Principales conclusions :

  • Les systèmes d'IA fonctionnent souvent mal sur les individus à la peau plus foncée et les femmes
  • Les ensembles de données de référence utilisés pour entraîner les modèles d'IA sont fréquemment biaisés en faveur des hommes à la peau claire
  • Ces biais peuvent entraîner des conséquences réelles, allant des arrestations injustifiées aux opportunités refusées

Les recherches de Buolamwini ont révélé que les systèmes d'analyse faciale des grandes entreprises technologiques présentaient des disparités significatives de précision en fonction du type de peau et du genre, avec des taux d'erreur allant jusqu'à 34,4 % entre les hommes à la peau claire et les femmes à la peau foncée.

2. Du Projet Artistique au Mouvement Mondial : La Naissance de l'Algorithmic Justice League

"Je n'allais pas me retenir. Une étudiante diplômée affrontant des géants de la technologie n'était pas le chemin typique, mais coder avec un visage blanc pour être vue par une machine ne l'était pas non plus."

L'Algorithmic Justice League (AJL) est née du projet de thèse de maîtrise de Buolamwini au MIT. Ce qui a commencé comme une installation artistique explorant les limites de la technologie de reconnaissance faciale s'est transformé en un mouvement mondial pour la responsabilité et la justice algorithmique.

Mission de l'AJL :

  • Sensibiliser à l'impact des biais de l'IA
  • Plaider pour des systèmes d'IA plus inclusifs et équitables
  • Développer des outils et des méthodologies pour auditer les systèmes d'IA en termes de biais
  • Engager les décideurs politiques et les leaders de l'industrie pour promouvoir un développement responsable de l'IA

Le travail de l'organisation a influencé les décisions politiques, les pratiques des entreprises et le discours public sur l'éthique de l'IA, démontrant le pouvoir de combiner la recherche académique avec l'activisme et l'art.

3. Audits Algorithmiques : Exposer les Failles des Produits d'IA Commerciaux

"Même si mon projet de classe ne fonctionnait pas sur moi ? Mes camarades de classe à la peau claire semblaient apprécier l'utiliser. Et bien sûr, il pourrait certainement y avoir un avantage à ne pas être détecté par une machine, compte tenu des conséquences de la surveillance par caméra et des dangers de la surveillance de masse."

Les audits algorithmiques sont des évaluations systématiques des systèmes d'IA pour identifier les biais et les disparités de performance entre différents groupes démographiques. Le projet "Gender Shades" de Buolamwini était un audit algorithmique révolutionnaire qui a mis en évidence des écarts de précision significatifs dans les systèmes commerciaux de classification de genre.

Principales conclusions de l'audit Gender Shades :

  • Tous les systèmes testés ont obtenu les pires résultats sur les femmes à la peau plus foncée
  • Le plus grand écart de précision était de 34,4 % entre les hommes à la peau claire et les femmes à la peau foncée
  • L'audit a révélé que même les produits d'IA des grandes entreprises technologiques présentaient des biais substantiels

Le projet Gender Shades et les audits ultérieurs ont conduit à des améliorations dans les systèmes d'IA commerciaux et à une prise de conscience accrue de la nécessité de jeux de données de test diversifiés et de méthodes d'évaluation rigoureuses.

4. Le Pouvoir des Audits Évocateurs : Humaniser l'Impact de l'IA

"Les machines peuvent-elles jamais voir mes reines comme je les vois ? Les machines peuvent-elles jamais voir nos grands-mères comme nous les connaissions ?"

Les audits évocateurs utilisent l'expression artistique et les récits personnels pour illustrer l'impact humain des biais algorithmiques. La pièce de spoken word de Buolamwini "AI, Ain't I A Woman?" en est un exemple parfait, montrant comment les systèmes d'IA ont mal classé les images de femmes noires éminentes.

Impact des audits évocateurs :

  • Humaniser les conséquences des biais de l'IA
  • Atteindre des publics plus larges au-delà des cercles académiques
  • Inspirer l'action et le changement politique

La vidéo "AI, Ain't I A Woman?" est devenue virale et a été présentée dans le documentaire "Coded Bias", contribuant à sensibiliser le public aux biais de l'IA et à ses implications réelles.

5. Combattre l'Effacement : Amplifier les Voix Marginalisées dans la Technologie

"Rester silencieuse sur mes découvertes n'aurait pas empêché les dommages, car ces systèmes étaient déjà en développement. Mon intervention a offert une opportunité de considérer des voies alternatives, y compris la non-utilisation."

Combattre l'effacement dans l'IA et la technologie implique d'amplifier activement les voix marginalisées et de défier le statu quo. Les expériences de Buolamwini avec l'effacement médiatique et les obstacles académiques soulignent l'importance des perspectives diversifiées dans la recherche et le développement de l'IA.

Stratégies pour combattre l'effacement :

  • Collaborer avec et soutenir les chercheurs et praticiens sous-représentés
  • Utiliser les plateformes médiatiques pour mettre en lumière des voix et des expériences diverses
  • Défier les institutions et les entreprises pour qu'elles abordent les biais systémiques

Le travail de Buolamwini avec le documentaire "Coded Bias" et ses efforts de plaidoyer ont contribué à attirer l'attention sur les contributions des femmes et des personnes de couleur dans l'éthique et la recherche en IA.

6. Au-Delà de l'Académie : Engager les Décideurs Politiques et le Public

"Le Congrès fera quelque chose à ce sujet."

S'engager avec les décideurs politiques est crucial pour traduire les résultats de la recherche en changements concrets. Les témoignages de Buolamwini devant le Congrès et son travail avec les agences gouvernementales démontrent l'impact que les chercheurs peuvent avoir sur les décisions politiques.

Principaux engagements politiques :

  • Témoigné devant le Congrès sur la technologie de reconnaissance faciale
  • Contribué à l'élaboration de la Déclaration des droits de l'IA
  • Soutenu les efforts locaux pour réglementer l'utilisation de la reconnaissance faciale par les forces de l'ordre

Ces efforts ont conduit à une surveillance accrue des systèmes d'IA, à des propositions de législation et à des changements de politique à divers niveaux de gouvernement.

7. Les Coûts de l'Inclusion et de l'Exclusion dans le Développement de l'IA

"Il y a des coûts d'inclusion et des coûts d'exclusion à considérer dans la conception et le déploiement des systèmes d'IA qui doivent être contextualisés."

Équilibrer l'inclusion et l'exclusion dans le développement de l'IA nécessite une considération attentive des avantages et des dommages potentiels. Bien que des ensembles de données diversifiés puissent améliorer les performances de l'IA, ils peuvent également permettre une surveillance et un contrôle plus omniprésents.

Considérations :

  • Améliorer la précision de l'IA peut améliorer les applications bénéfiques (par exemple, les diagnostics médicaux)
  • Une reconnaissance faciale plus précise pourrait également permettre une surveillance de masse
  • Exclure certains groupes des ensembles de données peut protéger la vie privée mais entraîner une sous-performance pour ces groupes

Buolamwini plaide pour une approche nuancée qui prend en compte les implications sociétales plus larges des systèmes d'IA, plutôt que de se concentrer uniquement sur les métriques de performance technique.

8. Vers la Justice Algorithmique : De la Recherche au Changement Réel

"Nous avons besoin de lois. Au fil des ans, des projets de loi sur la responsabilité algorithmique, les technologies biométriques à distance et la confidentialité des données ont été introduits. Avec une prise de conscience croissante de l'impact de l'IA sur nos vies, nous devons savoir que nos institutions gouvernementales protégeront nos droits civils, quelle que soit l'évolution de la technologie."

La justice algorithmique nécessite une approche multifacette combinant recherche, plaidoyer, changement politique et engagement public. Le parcours de Buolamwini, d'étudiante diplômée à éthicienne influente de l'IA, illustre le potentiel des individus à provoquer des changements systémiques.

Composants clés de la lutte pour la justice algorithmique :

  • Recherche rigoureuse et audits des systèmes d'IA
  • Campagnes d'éducation et de sensibilisation du public
  • Collaboration avec les décideurs politiques et les leaders de l'industrie
  • Soutien aux efforts de base et à l'organisation communautaire

La publication de la Déclaration des droits de l'IA et la prise de conscience croissante des questions d'éthique de l'IA démontrent des progrès, mais une vigilance et un plaidoyer continus sont nécessaires pour garantir que les systèmes d'IA soient développés et déployés de manière à respecter les droits humains et à promouvoir l'équité.

Dernière mise à jour:

FAQ

What's Unmasking AI about?

  • Exploration of AI and Society: Unmasking AI by Joy Buolamwini examines the intersection of artificial intelligence and social justice, focusing on how AI can perpetuate biases and discrimination.
  • Personal Narrative: The book combines Buolamwini's personal experiences with rigorous research, detailing her journey as a researcher and activist in the field of algorithmic justice.
  • Coded Gaze Concept: A central theme is the "coded gaze," which refers to how the biases of technology creators can be embedded in AI systems, leading to harmful outcomes.
  • Call to Action: Buolamwini emphasizes the need for collective action to ensure AI serves humanity equitably, advocating for algorithmic justice and diverse representation in tech development.

Why should I read Unmasking AI?

  • Timely and Relevant Topic: As AI technologies become more integrated into daily life, understanding their implications is crucial. Buolamwini's insights provide a necessary critique of these systems.
  • Personal and Engaging Narrative: The book combines storytelling with research, making complex topics accessible. Buolamwini's journey offers inspiration and motivation for readers.
  • Empowerment Through Knowledge: Reading this book equips individuals with the knowledge to question and challenge the status quo in technology, encouraging critical thinking about societal structures.
  • Insightful Perspective: It provides a unique viewpoint from a leading voice in algorithmic justice, essential for anyone interested in technology's impact on society.

What are the key takeaways of Unmasking AI?

  • AI Reflects Human Bias: AI systems are not neutral; they reflect the biases of their creators, leading to real-world consequences for marginalized groups.
  • Importance of Diverse Representation: Buolamwini argues for the necessity of diverse voices in technology development to ensure AI serves all communities fairly.
  • Call to Action: The book urges readers to engage in conversations about AI and its societal impacts, advocating for algorithmic justice and shaping the future of technology.
  • Collective Action for Change: Buolamwini emphasizes the need for a united front against harmful AI practices, encouraging participation in movements for algorithmic justice.

What are the best quotes from Unmasking AI and what do they mean?

  • "The coded gaze describes the ways...": This quote highlights how biases can be embedded in AI systems, leading to discrimination against marginalized groups.
  • "We cannot have racial justice...": It underscores the urgent need for ethical considerations in AI development, particularly in sensitive areas like law enforcement.
  • "AI will not solve poverty...": Buolamwini emphasizes that technological solutions cannot address systemic societal issues without addressing underlying social and economic structures.
  • "Your silence will not protect you.": This quote underscores the importance of speaking out against injustices, particularly in the context of AI and technology.

How does Joy Buolamwini define the "coded gaze" in Unmasking AI?

  • Definition of Coded Gaze: The "coded gaze" is how technology reflects the biases of its creators, leading to harmful outcomes for marginalized communities.
  • Examples of Coded Gaze: Buolamwini shares personal anecdotes, such as her experience with facial recognition technology that failed to recognize her dark-skinned face.
  • Broader Implications: The concept extends beyond race and gender, encompassing various forms of discrimination, including ableism and ageism.
  • Call for Critical Examination: Buolamwini calls for a critical examination of technology to ensure it serves all communities equitably.

What is algorithmic bias, as defined in Unmasking AI?

  • Definition of Algorithmic Bias: It refers to the systematic and unfair discrimination that occurs when AI systems produce different outcomes for different demographic groups.
  • Real-World Implications: Buolamwini's research shows how algorithmic bias can lead to misidentification and wrongful arrests, particularly for people of color.
  • Need for Accountability: Addressing algorithmic bias requires transparency and accountability from tech companies, with rigorous testing and auditing of AI systems.
  • Impact on Society: The book provides examples of how these biases manifest in technologies like facial recognition, affecting marginalized communities disproportionately.

What are the implications of AI technologies on marginalized communities as discussed in Unmasking AI?

  • Discrimination in AI Systems: AI technologies, particularly facial recognition, can lead to discrimination against marginalized groups, often misidentifying or not recognizing individuals.
  • Real-World Consequences: Instances of AI failures have resulted in wrongful arrests and other serious repercussions for individuals from marginalized communities.
  • Need for Ethical AI: Buolamwini advocates for ethical AI systems that prioritize the needs and rights of all individuals, emphasizing inclusive data and diverse representation.
  • Urgent Accountability: The book underscores the urgent need for accountability in AI development to prevent discrimination and harm.

How does Unmasking AI address the issue of data collection and representation?

  • Critique of Data Practices: Buolamwini critiques data collection practices that prioritize convenience over inclusivity, often lacking representation of diverse populations.
  • Importance of Diverse Datasets: The book emphasizes the need for datasets that accurately reflect societal diversity to prevent biased outcomes in AI systems.
  • Call for Transparency: Buolamwini urges tech companies to disclose data sourcing and demographics, essential for building trust and accountability in AI technologies.
  • Impact on AI Development: Without diverse representation in data, AI systems will continue to perpetuate existing inequalities, highlighting the need for change.

How does Joy Buolamwini's work contribute to the fight for algorithmic justice?

  • Founding the Algorithmic Justice League: Buolamwini established the organization to raise awareness about AI bias and advocate for equitable technology.
  • Research and Activism: Her work combines academic research with grassroots activism, making her a prominent figure in the movement for algorithmic justice.
  • Influencing Policy: Buolamwini's advocacy has led to significant discussions around AI regulation, including calls for moratoriums on facial recognition use by law enforcement.
  • Community Engagement: She emphasizes the importance of community engagement in addressing AI harms, ensuring that affected voices are heard.

What is the significance of the "Gender Shades" project mentioned in Unmasking AI?

  • Research on Facial Recognition: The "Gender Shades" project examined facial recognition systems' performance across demographic groups, revealing significant accuracy disparities.
  • Impact on Industry Standards: The findings influenced major tech companies to reconsider practices and improve algorithms, prompting discussions about AI ethics.
  • Raising Awareness: The project catalyzed broader conversations about representation and bias in AI, highlighting the need for diverse datasets and inclusive practices.
  • Influence on Policy: It has served as a foundation for advocating policy changes to address algorithmic bias and ensure ethical AI development.

How does Unmasking AI propose solutions for algorithmic bias?

  • Advocacy for Algorithmic Justice: Buolamwini calls for ethical considerations in AI development, encouraging conversations about societal impacts and equitable solutions.
  • Diverse Representation in Tech: The book highlights the importance of including diverse voices in technology development to ensure fair AI systems.
  • Policy Recommendations: Buolamwini suggests collaboration between policymakers and tech companies to create regulations addressing algorithmic bias.
  • Accountability and Transparency: Emphasizes the need for accountability and transparency in AI systems to prevent discrimination and harm.

How can individuals contribute to the movement for algorithmic justice?

  • Educate Yourself and Others: Buolamwini encourages learning about AI and its societal impacts, sharing knowledge to build an informed community.
  • Advocate for Change: Participate in advocacy efforts, such as supporting legislation addressing AI bias and discrimination, and engage with local organizations.
  • Challenge Harmful Practices: Question and challenge AI technologies that perpetuate harm, holding companies accountable for a just technological landscape.
  • Empowerment Through Action: Individuals can contribute to a more equitable future by actively participating in movements for algorithmic justice.

Avis

4.15 sur 5
Moyenne de 1k+ évaluations de Goodreads et Amazon.

Démasquer l'IA est salué pour son exploration accessible des biais et de l'éthique de l'IA. Les lecteurs apprécient le parcours personnel de Buolamwini et ses perspectives sur le monde technologique. Beaucoup trouvent le livre informatif et stimulant, soulignant l'importance de traiter les biais algorithmiques. Certains critiques notent le style proche du mémoires et souhaiteraient plus de profondeur technique. Dans l'ensemble, le livre est considéré comme une contribution essentielle à la compréhension de l'impact sociétal de l'IA, bien que les avis divergent sur l'équilibre entre le récit personnel et le contenu technique.

À propos de l'auteur

Dr. Joy Buolamwini est une informaticienne, chercheuse et militante reconnue pour son travail sur les biais algorithmiques dans l'IA. Elle a fondé la Algorithmic Justice League pour lutter contre la discrimination dans les systèmes d'IA. Buolamwini s'est fait connaître pour ses recherches sur les technologies de reconnaissance faciale et leurs biais envers les femmes et les personnes de couleur. Elle a présenté ses conclusions aux décideurs politiques et aux entreprises technologiques, plaidant pour un développement de l'IA plus inclusif et éthique. Buolamwini est également connue sous le nom de "Poète du Code" pour avoir intégré la poésie dans son travail technique. Ses efforts ont considérablement influencé les discussions sur l'éthique et l'équité de l'IA.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Mar 2,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
50,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →