Facebook Pixel
Searching...
Français
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

My Mission to Protect What Is Human in a World of Machines
par Joy Buolamwini 2023 336 pages
4.17
500+ évaluations
Écouter

Points clés

1. Le Regard Codé : Dévoiler les Biais dans les Systèmes d'IA

"Les paramètres par défaut ne sont pas neutres. Ils reflètent souvent le regard codé—les préférences de ceux qui ont le pouvoir de choisir les sujets à traiter."

Le regard codé fait référence à la manière dont les priorités, les préférences et les préjugés de ceux qui créent la technologie peuvent propager des dommages par la discrimination et l'effacement. Joy Buolamwini a découvert ce concept en travaillant sur un projet de reconnaissance faciale au MIT, où elle devait porter un masque blanc pour que le système détecte son visage. Cette expérience l'a amenée à enquêter sur les biais dans les systèmes d'IA, en particulier dans les technologies de reconnaissance faciale.

Principales conclusions :

  • Les systèmes d'IA fonctionnent souvent mal sur les individus à la peau plus foncée et les femmes
  • Les ensembles de données de référence utilisés pour entraîner les modèles d'IA sont fréquemment biaisés en faveur des hommes à la peau claire
  • Ces biais peuvent entraîner des conséquences réelles, allant des arrestations injustifiées aux opportunités refusées

Les recherches de Buolamwini ont révélé que les systèmes d'analyse faciale des grandes entreprises technologiques présentaient des disparités significatives de précision en fonction du type de peau et du genre, avec des taux d'erreur allant jusqu'à 34,4 % entre les hommes à la peau claire et les femmes à la peau foncée.

2. Du Projet Artistique au Mouvement Mondial : La Naissance de l'Algorithmic Justice League

"Je n'allais pas me retenir. Une étudiante diplômée affrontant des géants de la technologie n'était pas le chemin typique, mais coder avec un visage blanc pour être vue par une machine ne l'était pas non plus."

L'Algorithmic Justice League (AJL) est née du projet de thèse de maîtrise de Buolamwini au MIT. Ce qui a commencé comme une installation artistique explorant les limites de la technologie de reconnaissance faciale s'est transformé en un mouvement mondial pour la responsabilité et la justice algorithmique.

Mission de l'AJL :

  • Sensibiliser à l'impact des biais de l'IA
  • Plaider pour des systèmes d'IA plus inclusifs et équitables
  • Développer des outils et des méthodologies pour auditer les systèmes d'IA en termes de biais
  • Engager les décideurs politiques et les leaders de l'industrie pour promouvoir un développement responsable de l'IA

Le travail de l'organisation a influencé les décisions politiques, les pratiques des entreprises et le discours public sur l'éthique de l'IA, démontrant le pouvoir de combiner la recherche académique avec l'activisme et l'art.

3. Audits Algorithmiques : Exposer les Failles des Produits d'IA Commerciaux

"Même si mon projet de classe ne fonctionnait pas sur moi ? Mes camarades de classe à la peau claire semblaient apprécier l'utiliser. Et bien sûr, il pourrait certainement y avoir un avantage à ne pas être détecté par une machine, compte tenu des conséquences de la surveillance par caméra et des dangers de la surveillance de masse."

Les audits algorithmiques sont des évaluations systématiques des systèmes d'IA pour identifier les biais et les disparités de performance entre différents groupes démographiques. Le projet "Gender Shades" de Buolamwini était un audit algorithmique révolutionnaire qui a mis en évidence des écarts de précision significatifs dans les systèmes commerciaux de classification de genre.

Principales conclusions de l'audit Gender Shades :

  • Tous les systèmes testés ont obtenu les pires résultats sur les femmes à la peau plus foncée
  • Le plus grand écart de précision était de 34,4 % entre les hommes à la peau claire et les femmes à la peau foncée
  • L'audit a révélé que même les produits d'IA des grandes entreprises technologiques présentaient des biais substantiels

Le projet Gender Shades et les audits ultérieurs ont conduit à des améliorations dans les systèmes d'IA commerciaux et à une prise de conscience accrue de la nécessité de jeux de données de test diversifiés et de méthodes d'évaluation rigoureuses.

4. Le Pouvoir des Audits Évocateurs : Humaniser l'Impact de l'IA

"Les machines peuvent-elles jamais voir mes reines comme je les vois ? Les machines peuvent-elles jamais voir nos grands-mères comme nous les connaissions ?"

Les audits évocateurs utilisent l'expression artistique et les récits personnels pour illustrer l'impact humain des biais algorithmiques. La pièce de spoken word de Buolamwini "AI, Ain't I A Woman?" en est un exemple parfait, montrant comment les systèmes d'IA ont mal classé les images de femmes noires éminentes.

Impact des audits évocateurs :

  • Humaniser les conséquences des biais de l'IA
  • Atteindre des publics plus larges au-delà des cercles académiques
  • Inspirer l'action et le changement politique

La vidéo "AI, Ain't I A Woman?" est devenue virale et a été présentée dans le documentaire "Coded Bias", contribuant à sensibiliser le public aux biais de l'IA et à ses implications réelles.

5. Combattre l'Effacement : Amplifier les Voix Marginalisées dans la Technologie

"Rester silencieuse sur mes découvertes n'aurait pas empêché les dommages, car ces systèmes étaient déjà en développement. Mon intervention a offert une opportunité de considérer des voies alternatives, y compris la non-utilisation."

Combattre l'effacement dans l'IA et la technologie implique d'amplifier activement les voix marginalisées et de défier le statu quo. Les expériences de Buolamwini avec l'effacement médiatique et les obstacles académiques soulignent l'importance des perspectives diversifiées dans la recherche et le développement de l'IA.

Stratégies pour combattre l'effacement :

  • Collaborer avec et soutenir les chercheurs et praticiens sous-représentés
  • Utiliser les plateformes médiatiques pour mettre en lumière des voix et des expériences diverses
  • Défier les institutions et les entreprises pour qu'elles abordent les biais systémiques

Le travail de Buolamwini avec le documentaire "Coded Bias" et ses efforts de plaidoyer ont contribué à attirer l'attention sur les contributions des femmes et des personnes de couleur dans l'éthique et la recherche en IA.

6. Au-Delà de l'Académie : Engager les Décideurs Politiques et le Public

"Le Congrès fera quelque chose à ce sujet."

S'engager avec les décideurs politiques est crucial pour traduire les résultats de la recherche en changements concrets. Les témoignages de Buolamwini devant le Congrès et son travail avec les agences gouvernementales démontrent l'impact que les chercheurs peuvent avoir sur les décisions politiques.

Principaux engagements politiques :

  • Témoigné devant le Congrès sur la technologie de reconnaissance faciale
  • Contribué à l'élaboration de la Déclaration des droits de l'IA
  • Soutenu les efforts locaux pour réglementer l'utilisation de la reconnaissance faciale par les forces de l'ordre

Ces efforts ont conduit à une surveillance accrue des systèmes d'IA, à des propositions de législation et à des changements de politique à divers niveaux de gouvernement.

7. Les Coûts de l'Inclusion et de l'Exclusion dans le Développement de l'IA

"Il y a des coûts d'inclusion et des coûts d'exclusion à considérer dans la conception et le déploiement des systèmes d'IA qui doivent être contextualisés."

Équilibrer l'inclusion et l'exclusion dans le développement de l'IA nécessite une considération attentive des avantages et des dommages potentiels. Bien que des ensembles de données diversifiés puissent améliorer les performances de l'IA, ils peuvent également permettre une surveillance et un contrôle plus omniprésents.

Considérations :

  • Améliorer la précision de l'IA peut améliorer les applications bénéfiques (par exemple, les diagnostics médicaux)
  • Une reconnaissance faciale plus précise pourrait également permettre une surveillance de masse
  • Exclure certains groupes des ensembles de données peut protéger la vie privée mais entraîner une sous-performance pour ces groupes

Buolamwini plaide pour une approche nuancée qui prend en compte les implications sociétales plus larges des systèmes d'IA, plutôt que de se concentrer uniquement sur les métriques de performance technique.

8. Vers la Justice Algorithmique : De la Recherche au Changement Réel

"Nous avons besoin de lois. Au fil des ans, des projets de loi sur la responsabilité algorithmique, les technologies biométriques à distance et la confidentialité des données ont été introduits. Avec une prise de conscience croissante de l'impact de l'IA sur nos vies, nous devons savoir que nos institutions gouvernementales protégeront nos droits civils, quelle que soit l'évolution de la technologie."

La justice algorithmique nécessite une approche multifacette combinant recherche, plaidoyer, changement politique et engagement public. Le parcours de Buolamwini, d'étudiante diplômée à éthicienne influente de l'IA, illustre le potentiel des individus à provoquer des changements systémiques.

Composants clés de la lutte pour la justice algorithmique :

  • Recherche rigoureuse et audits des systèmes d'IA
  • Campagnes d'éducation et de sensibilisation du public
  • Collaboration avec les décideurs politiques et les leaders de l'industrie
  • Soutien aux efforts de base et à l'organisation communautaire

La publication de la Déclaration des droits de l'IA et la prise de conscience croissante des questions d'éthique de l'IA démontrent des progrès, mais une vigilance et un plaidoyer continus sont nécessaires pour garantir que les systèmes d'IA soient développés et déployés de manière à respecter les droits humains et à promouvoir l'équité.

Dernière mise à jour:

Avis

4.17 sur 5
Moyenne de 500+ évaluations de Goodreads et Amazon.

Démasquer l'IA est salué pour son exploration accessible des biais et de l'éthique de l'IA. Les lecteurs apprécient le parcours personnel de Buolamwini et ses perspectives sur le monde technologique. Beaucoup trouvent le livre informatif et stimulant, soulignant l'importance de traiter les biais algorithmiques. Certains critiques notent le style proche du mémoires et souhaiteraient plus de profondeur technique. Dans l'ensemble, le livre est considéré comme une contribution essentielle à la compréhension de l'impact sociétal de l'IA, bien que les avis divergent sur l'équilibre entre le récit personnel et le contenu technique.

À propos de l'auteur

Dr. Joy Buolamwini est une informaticienne, chercheuse et militante reconnue pour son travail sur les biais algorithmiques dans l'IA. Elle a fondé la Algorithmic Justice League pour lutter contre la discrimination dans les systèmes d'IA. Buolamwini s'est fait connaître pour ses recherches sur les technologies de reconnaissance faciale et leurs biais envers les femmes et les personnes de couleur. Elle a présenté ses conclusions aux décideurs politiques et aux entreprises technologiques, plaidant pour un développement de l'IA plus inclusif et éthique. Buolamwini est également connue sous le nom de "Poète du Code" pour avoir intégré la poésie dans son travail technique. Ses efforts ont considérablement influencé les discussions sur l'éthique et l'équité de l'IA.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Bookmarks – save your favorite books
History – revisit books later
Ratings – rate books & see your ratings
Unlock unlimited listening
Your first week's on us!
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Dec 12,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
“...I can 10x the number of books I can read...”
“...exceptionally accurate, engaging, and beautifully presented...”
“...better than any amazon review when I'm making a book-buying decision...”
Save 62%
Yearly
$119.88 $44.99/yr
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →