Facebook Pixel
Searching...
Italiano
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

di Joy Buolamwini 2023 336 pagine
4.17
500+ valutazioni
Technology
Artificial Intelligence
Science
Ascolta

Punti chiave

1. Lo Sguardo Codificato: Scoprire i Pregiudizi nei Sistemi di IA

"I predefiniti non sono neutrali. Spesso riflettono lo sguardo codificato—le preferenze di coloro che hanno il potere di scegliere su quali soggetti concentrarsi."

Lo sguardo codificato si riferisce a come le priorità, le preferenze e i pregiudizi di coloro che creano la tecnologia possano propagare danni attraverso discriminazione e cancellazione. Joy Buolamwini ha scoperto questo concetto mentre lavorava a un progetto di riconoscimento facciale al MIT, dove ha dovuto indossare una maschera bianca affinché il sistema rilevasse il suo volto. Questa esperienza l'ha portata a indagare sui pregiudizi nei sistemi di IA, in particolare nelle tecnologie di riconoscimento facciale.

Principali scoperte:

  • I sistemi di IA spesso funzionano male su individui con pelle più scura e donne
  • I dataset di riferimento utilizzati per addestrare i modelli di IA sono frequentemente sbilanciati verso maschi con pelle più chiara
  • Questi pregiudizi possono portare a conseguenze nel mondo reale, dagli arresti errati alle opportunità negate

La ricerca di Buolamwini ha rivelato che i sistemi di analisi facciale delle principali aziende tecnologiche avevano significative disparità di accuratezza basate sul tipo di pelle e sul genere, con tassi di errore fino al 34,4% tra maschi con pelle chiara e femmine con pelle scura.

2. Da Progetto Artistico a Movimento Globale: La Nascita dell'Algorithmic Justice League

"Non mi sarei trattenuta. Una studentessa laureata che sfida i giganti della tecnologia non era il percorso tipico, ma nemmeno lo era programmare in whiteface per essere vista da una macchina."

L'Algorithmic Justice League (AJL) è emersa dal progetto di tesi di laurea di Buolamwini al MIT. Ciò che è iniziato come un'installazione artistica che esplorava i limiti della tecnologia di riconoscimento facciale si è evoluto in un movimento globale per la responsabilità e la giustizia algoritmica.

Missione dell'AJL:

  • Sensibilizzare sull'impatto dei pregiudizi dell'IA
  • Promuovere sistemi di IA più inclusivi ed equi
  • Sviluppare strumenti e metodologie per auditare i sistemi di IA per i pregiudizi
  • Interagire con i responsabili politici e i leader del settore per promuovere uno sviluppo responsabile dell'IA

Il lavoro dell'organizzazione ha influenzato decisioni politiche, pratiche aziendali e il discorso pubblico sull'etica dell'IA, dimostrando il potere di combinare ricerca accademica con attivismo e arte.

3. Audit Algoritmici: Esponendo i Difetti nei Prodotti Commerciali di IA

"Anche se il mio progetto di classe non funzionava su di me? I miei compagni di classe con pelle chiara sembravano divertirsi a usarlo. E ovviamente, potrebbe esserci un vantaggio nel non essere rilevati, considerando le conseguenze del tracciamento delle persone da parte delle telecamere e i pericoli della sorveglianza di massa."

Gli audit algoritmici sono valutazioni sistematiche dei sistemi di IA per identificare pregiudizi e disparità di prestazioni tra diversi gruppi demografici. Il progetto "Gender Shades" di Buolamwini è stato un audit algoritmico pionieristico che ha esposto significativi divari di accuratezza nei sistemi commerciali di classificazione di genere.

Principali scoperte dell'audit Gender Shades:

  • Tutti i sistemi testati hanno ottenuto i peggiori risultati sulle femmine con pelle più scura
  • Il più grande divario di accuratezza era del 34,4% tra maschi con pelle chiara e femmine con pelle scura
  • L'audit ha rivelato che anche i prodotti di IA delle principali aziende tecnologiche avevano pregiudizi sostanziali

Il progetto Gender Shades e gli audit successivi hanno portato a miglioramenti nei sistemi commerciali di IA e hanno aumentato la consapevolezza della necessità di dataset di test diversificati e metodi di valutazione rigorosi.

4. Il Potere degli Audit Evocativi: Umanizzare l'Impatto dell'IA

"Le macchine potranno mai vedere le mie regine come le vedo io? Le macchine potranno mai vedere le nostre nonne come le conoscevamo noi?"

Gli audit evocativi utilizzano l'espressione artistica e le narrazioni personali per illustrare l'impatto umano dei pregiudizi algoritmici. Il pezzo di spoken word di Buolamwini "AI, Ain't I A Woman?" è un esempio lampante, mostrando come i sistemi di IA classificavano erroneamente le immagini di donne nere prominenti.

Impatto degli audit evocativi:

  • Umanizzare le conseguenze dei pregiudizi dell'IA
  • Raggiungere un pubblico più ampio al di fuori dei circoli accademici
  • Ispirare azioni e cambiamenti politici

Il video "AI, Ain't I A Woman?" è diventato virale ed è stato presentato nel documentario "Coded Bias", contribuendo a sensibilizzare il pubblico sui pregiudizi dell'IA e le sue implicazioni nel mondo reale.

5. Combattere la Cancellazione: Amplificare le Voci Marginalizzate nella Tecnologia

"Essere silenziosa sulle mie scoperte non avrebbe prevenuto danni, perché questi sistemi erano già in sviluppo. Parlare ha fornito un'opportunità per considerare percorsi alternativi, incluso il non utilizzo."

Combattere la cancellazione nell'IA e nella tecnologia implica amplificare attivamente le voci marginalizzate e sfidare lo status quo. Le esperienze di Buolamwini con la cancellazione mediatica e l'ostruzionismo accademico evidenziano l'importanza di prospettive diverse nella ricerca e nello sviluppo dell'IA.

Strategie per combattere la cancellazione:

  • Collaborare con e supportare ricercatori e professionisti sottorappresentati
  • Utilizzare piattaforme mediatiche per evidenziare voci ed esperienze diverse
  • Sfida le istituzioni e le aziende a affrontare i pregiudizi sistemici

Il lavoro di Buolamwini con il documentario "Coded Bias" e i suoi sforzi di advocacy hanno contribuito a portare attenzione ai contributi delle donne e delle persone di colore nell'etica e nella ricerca dell'IA.

6. Oltre l'Accademia: Coinvolgere i Responsabili Politici e il Pubblico

"Il Congresso farà qualcosa a riguardo."

Coinvolgere i responsabili politici è cruciale per tradurre i risultati della ricerca in cambiamenti nel mondo reale. Le testimonianze di Buolamwini al Congresso e il suo lavoro con le agenzie governative dimostrano l'impatto che i ricercatori possono avere sulle decisioni politiche.

Principali impegni politici:

  • Testimonianza davanti al Congresso sulla tecnologia di riconoscimento facciale
  • Contributo allo sviluppo della Carta dei Diritti dell'IA
  • Supporto agli sforzi locali per regolamentare l'uso del riconoscimento facciale da parte delle forze dell'ordine

Questi sforzi hanno portato a una maggiore attenzione sui sistemi di IA, proposte legislative e cambiamenti politici a vari livelli di governo.

7. I Costi dell'Inclusione e dell'Esclusione nello Sviluppo dell'IA

"Ci sono costi di inclusione e costi di esclusione da considerare nella progettazione e distribuzione dei sistemi di IA che devono essere contestualizzati."

Bilanciare inclusione ed esclusione nello sviluppo dell'IA richiede un'attenta considerazione dei potenziali benefici e danni. Mentre i dataset diversificati possono migliorare le prestazioni dell'IA, possono anche abilitare una sorveglianza più pervasiva e il controllo.

Considerazioni:

  • Migliorare l'accuratezza dell'IA può migliorare le applicazioni benefiche (ad esempio, diagnosi mediche)
  • Un riconoscimento facciale più accurato potrebbe anche abilitare la sorveglianza di massa
  • Escludere certi gruppi dai dataset può proteggere la privacy ma portare a prestazioni inferiori per quei gruppi

Buolamwini sostiene un approccio sfumato che consideri le implicazioni sociali più ampie dei sistemi di IA, piuttosto che concentrarsi esclusivamente sulle metriche di prestazione tecnica.

8. Verso la Giustizia Algoritmica: Dalla Ricerca al Cambiamento nel Mondo Reale

"Abbiamo bisogno di leggi. Negli anni sono stati introdotti progetti di legge sulla responsabilità algoritmica, le tecnologie biometriche remote e la privacy dei dati. Con una crescente consapevolezza sull'impatto dell'IA sulle nostre vite, dobbiamo sapere che le nostre istituzioni governative proteggeranno i nostri diritti civili indipendentemente da come evolve la tecnologia."

La giustizia algoritmica richiede un approccio multifaccettato che combini ricerca, advocacy, cambiamento politico e coinvolgimento pubblico. Il percorso di Buolamwini da studentessa laureata a influente eticista dell'IA illustra il potenziale degli individui di guidare il cambiamento sistemico.

Componenti chiave della lotta per la giustizia algoritmica:

  • Ricerca rigorosa e audit dei sistemi di IA
  • Campagne di educazione pubblica e sensibilizzazione
  • Collaborazione con i responsabili politici e i leader del settore
  • Supporto agli sforzi di base e all'organizzazione comunitaria

Il rilascio della Carta dei Diritti dell'IA e la crescente consapevolezza pubblica sulle questioni etiche dell'IA dimostrano progressi, ma è necessaria una vigilanza continua e un'advocacy per garantire che i sistemi di IA siano sviluppati e distribuiti in modi che rispettino i diritti umani e promuovano l'equità.

Ultimo aggiornamento:

Recensioni

4.17 su 5
Media di 500+ valutazioni da Goodreads e Amazon.

Unmasking AI è lodato per la sua esplorazione accessibile dei pregiudizi e dell'etica nell'intelligenza artificiale. I lettori apprezzano il viaggio personale di Buolamwini e le sue intuizioni nel mondo della tecnologia. Molti trovano il libro informativo e stimolante, sottolineando l'importanza di affrontare i pregiudizi algoritmici. Alcuni recensori notano lo stile simile a un memoir e desiderano una maggiore profondità tecnica. Nel complesso, il libro è visto come un contributo fondamentale per comprendere l'impatto sociale dell'IA, sebbene le opinioni varino sull'equilibrio tra narrazione personale e contenuto tecnico.

Informazioni sull'autore

Dr. Joy Buolamwini è una scienziata informatica, ricercatrice e attivista nota per il suo lavoro sul pregiudizio algoritmico nell'IA. Ha fondato l'Algorithmic Justice League per combattere la discriminazione nei sistemi di intelligenza artificiale. Buolamwini ha ottenuto riconoscimenti per la sua ricerca sulle tecnologie di riconoscimento facciale e i loro pregiudizi contro le donne e le persone di colore. Ha presentato le sue scoperte a politici e aziende tecnologiche, promuovendo uno sviluppo dell'IA più inclusivo ed etico. Buolamwini è anche conosciuta come la "Poetessa del Codice" per l'integrazione della poesia nel suo lavoro tecnico. I suoi sforzi hanno influenzato significativamente le discussioni sull'etica e l'equità nell'IA.

0:00
-0:00
1x
Dan
Jennifer
Andrew
Sarah
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Bookmarks – save your favorite books
History – revisit books later
Ratings – rate books & see your ratings
Unlock unlimited listening
Your first week's on us!
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Nov 1,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
“...I can 10x the number of books I can read...”
“...exceptionally accurate, engaging, and beautifully presented...”
“...better than any amazon review when I'm making a book-buying decision...”
Save 62%
Yearly
$119.88 $44.99/yr
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance