Facebook Pixel
Searching...
Polski
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

My Mission to Protect What Is Human in a World of Machines
przez Joy Buolamwini 2023 336 stron
4.17
500+ oceny
Słuchaj

Kluczowe wnioski

1. Zakodowane spojrzenie: Odkrywanie uprzedzeń w systemach AI

"Domyślne ustawienia nie są neutralne. Często odzwierciedlają zakodowane spojrzenie—preferencje tych, którzy mają władzę decydować, na jakie tematy się skupić."

Zakodowane spojrzenie odnosi się do tego, jak priorytety, preferencje i uprzedzenia twórców technologii mogą propagować szkodę poprzez dyskryminację i wymazywanie. Joy Buolamwini odkryła to pojęcie podczas pracy nad projektem rozpoznawania twarzy w MIT, gdzie musiała nosić białą maskę, aby system mógł wykryć jej twarz. To doświadczenie skłoniło ją do zbadania uprzedzeń w systemach AI, szczególnie w technologiach rozpoznawania twarzy.

Kluczowe odkrycia:

  • Systemy AI często działają gorzej na osobach o ciemniejszej skórze i kobietach
  • Zbiory danych używane do trenowania modeli AI są często przechylone w stronę mężczyzn o jaśniejszej skórze
  • Te uprzedzenia mogą prowadzić do rzeczywistych konsekwencji, od fałszywych aresztowań po odmowę szans

Badania Buolamwini wykazały, że systemy analizy twarzy dużych firm technologicznych miały znaczące różnice w dokładności w zależności od typu skóry i płci, z błędami sięgającymi 34,4% między mężczyznami o jaśniejszej skórze a kobietami o ciemniejszej skórze.

2. Od projektu artystycznego do globalnego ruchu: Narodziny Algorithmic Justice League

"Nie zamierzałam się powstrzymywać. Studentka magisterium stawiająca czoła gigantycznym firmom technologicznym nie była typową ścieżką, ale kodowanie w białej masce, aby być widoczną dla maszyny, również nie było typowe."

Algorithmic Justice League (AJL) wyłoniła się z projektu pracy magisterskiej Buolamwini w MIT. To, co zaczęło się jako instalacja artystyczna badająca ograniczenia technologii rozpoznawania twarzy, przekształciło się w globalny ruch na rzecz odpowiedzialności i sprawiedliwości algorytmicznej.

Misja AJL:

  • Podnoszenie świadomości na temat wpływu uprzedzeń AI
  • Działanie na rzecz bardziej inkluzywnych i sprawiedliwych systemów AI
  • Opracowywanie narzędzi i metodologii do audytowania systemów AI pod kątem uprzedzeń
  • Współpraca z decydentami i liderami branży w celu promowania odpowiedzialnego rozwoju AI

Praca organizacji wpłynęła na decyzje polityczne, praktyki korporacyjne i dyskurs publiczny na temat etyki AI, pokazując siłę łączenia badań akademickich z aktywizmem i sztuką.

3. Audyty algorytmiczne: Ujawnianie wad komercyjnych produktów AI

"Nawet jeśli mój projekt klasowy nie działał na mnie? Moi koledzy o jaśniejszej skórze zdawali się cieszyć z jego używania. I oczywiście, mogło być pewną zaletą, że twarz nie była wykrywana, biorąc pod uwagę konsekwencje śledzenia osób przez kamery i niebezpieczeństwa masowej inwigilacji."

Audyty algorytmiczne to systematyczne oceny systemów AI mające na celu identyfikację uprzedzeń i różnic w wydajności w różnych grupach demograficznych. Projekt Buolamwini "Gender Shades" był przełomowym audytem algorytmicznym, który ujawnił znaczące luki w dokładności komercyjnych systemów klasyfikacji płci.

Kluczowe odkrycia audytu Gender Shades:

  • Wszystkie testowane systemy działały najgorzej na kobietach o ciemniejszej skórze
  • Największa różnica w dokładności wynosiła 34,4% między mężczyznami o jaśniejszej skórze a kobietami o ciemniejszej skórze
  • Audyt ujawnił, że nawet produkty AI wiodących firm technologicznych miały znaczne uprzedzenia

Projekt Gender Shades i kolejne audyty doprowadziły do poprawy komercyjnych systemów AI i zwiększenia świadomości na temat potrzeby różnorodnych zbiorów testowych i rygorystycznych metod oceny.

4. Siła sugestywnych audytów: Humanizacja wpływu AI

"Czy maszyny kiedykolwiek zobaczą moje królowe tak, jak ja je widzę? Czy maszyny kiedykolwiek zobaczą nasze babcie tak, jak je znałyśmy?"

Sugestywne audyty wykorzystują wyraz artystyczny i osobiste narracje, aby zilustrować ludzki wpływ uprzedzeń algorytmicznych. Utwór mówiony Buolamwini "AI, Ain't I A Woman?" jest doskonałym przykładem, pokazującym, jak systemy AI błędnie klasyfikowały obrazy wybitnych czarnoskórych kobiet.

Wpływ sugestywnych audytów:

  • Humanizowanie konsekwencji uprzedzeń AI
  • Docieranie do szerszej publiczności poza kręgi akademickie
  • Inspirowanie do działania i zmiany polityki

Film "AI, Ain't I A Woman?" stał się wiralem i został przedstawiony w dokumencie "Coded Bias", pomagając zwiększyć świadomość publiczną na temat uprzedzeń AI i ich rzeczywistych implikacji.

5. Walka z wymazywaniem: Wzmacnianie marginalizowanych głosów w technologii

"Milczenie na temat moich odkryć nie zapobiegłoby szkodom, ponieważ te systemy były już w fazie rozwoju. Moje wypowiedzi dały możliwość rozważenia alternatywnych ścieżek, w tym nieużywania."

Walka z wymazywaniem w AI i technologii polega na aktywnym wzmacnianiu marginalizowanych głosów i kwestionowaniu status quo. Doświadczenia Buolamwini z wymazywaniem medialnym i akademickim podkreślają znaczenie różnorodnych perspektyw w badaniach i rozwoju AI.

Strategie walki z wymazywaniem:

  • Współpraca z i wspieranie niedoreprezentowanych badaczy i praktyków
  • Wykorzystywanie platform medialnych do podkreślania różnorodnych głosów i doświadczeń
  • Kwestionowanie instytucji i firm w celu rozwiązania systemowych uprzedzeń

Praca Buolamwini z dokumentem "Coded Bias" i jej działania na rzecz rzecznictwa pomogły zwrócić uwagę na wkład kobiet i osób kolorowych w etykę i badania AI.

6. Poza akademią: Angażowanie decydentów i społeczeństwa

"Kongres coś z tym zrobi."

Angażowanie się z decydentami jest kluczowe dla przekształcania wyników badań w rzeczywiste zmiany. Zeznania Buolamwini przed Kongresem i praca z agencjami rządowymi pokazują, jaki wpływ mogą mieć badacze na decyzje polityczne.

Kluczowe zaangażowania polityczne:

  • Zeznania przed Kongresem na temat technologii rozpoznawania twarzy
  • Wkład w rozwój Karty Praw AI
  • Wsparcie lokalnych działań na rzecz regulacji użycia rozpoznawania twarzy przez organy ścigania

Te działania doprowadziły do zwiększonej kontroli systemów AI, proponowanych ustaw i zmian polityki na różnych szczeblach rządu.

7. Koszty inkluzji i wykluczenia w rozwoju AI

"Należy rozważyć koszty inkluzji i wykluczenia w projektowaniu i wdrażaniu systemów AI, które muszą być kontekstualizowane."

Równoważenie inkluzji i wykluczenia w rozwoju AI wymaga starannego rozważenia potencjalnych korzyści i szkód. Chociaż różnorodne zbiory danych mogą poprawić wydajność AI, mogą również umożliwić bardziej wszechobecną inwigilację i kontrolę.

Rozważania:

  • Poprawa dokładności AI może zwiększyć korzystne zastosowania (np. diagnostyka medyczna)
  • Bardziej dokładne rozpoznawanie twarzy może również umożliwić masową inwigilację
  • Wykluczenie niektórych grup ze zbiorów danych może chronić prywatność, ale prowadzić do gorszej wydajności dla tych grup

Buolamwini opowiada się za zniuansowanym podejściem, które uwzględnia szersze implikacje społeczne systemów AI, zamiast skupiać się wyłącznie na technicznych wskaźnikach wydajności.

8. W kierunku sprawiedliwości algorytmicznej: Od badań do rzeczywistych zmian

"Potrzebujemy praw. Przez lata wprowadzano projekty ustaw dotyczących odpowiedzialności algorytmicznej, zdalnych technologii biometrycznych i prywatności danych. Wraz z rosnącą świadomością na temat wpływu AI na nasze życie, musimy wiedzieć, że nasze instytucje rządowe będą chronić nasze prawa obywatelskie, niezależnie od tego, jak technologia się rozwija."

Sprawiedliwość algorytmiczna wymaga wieloaspektowego podejścia łączącego badania, rzecznictwo, zmiany polityki i zaangażowanie społeczne. Droga Buolamwini od studentki magisterium do wpływowej etyczki AI ilustruje potencjał jednostek do napędzania systemowych zmian.

Kluczowe elementy walki o sprawiedliwość algorytmiczną:

  • Rygorystyczne badania i audyty systemów AI
  • Kampanie edukacyjne i podnoszące świadomość publiczną
  • Współpraca z decydentami i liderami branży
  • Wsparcie dla oddolnych działań i organizacji społecznych

Wydanie Karty Praw AI i rosnąca świadomość publiczna na temat kwestii etyki AI pokazują postęp, ale konieczna jest ciągła czujność i rzecznictwo, aby zapewnić, że systemy AI są rozwijane i wdrażane w sposób szanujący prawa człowieka i promujący równość.

Ostatnia aktualizacja:

Recenzje

4.17 z 5
Średnia z 500+ oceny z Goodreads i Amazon.

Demaskowanie AI jest chwalone za przystępne omówienie uprzedzeń i etyki w sztucznej inteligencji. Czytelnicy doceniają osobistą podróż Buolamwini oraz jej wgląd w świat technologii. Wielu uważa książkę za pouczającą i skłaniającą do refleksji, podkreślając znaczenie zajmowania się uprzedzeniami algorytmicznymi. Niektórzy recenzenci zwracają uwagę na styl przypominający pamiętnik i życzą sobie większej głębi technicznej. Ogólnie rzecz biorąc, książka jest postrzegana jako istotny wkład w zrozumienie społecznego wpływu AI, choć opinie na temat równowagi między narracją osobistą a treścią techniczną są podzielone.

Your rating:

O autorze

Dr. Joy Buolamwini jest informatyczką, badaczką i aktywistką znaną ze swojej pracy nad uprzedzeniami algorytmicznymi w sztucznej inteligencji. Założyła Ligę Sprawiedliwości Algorytmicznej, aby zwalczać dyskryminację w systemach AI. Buolamwini zyskała uznanie za swoje badania nad technologiami rozpoznawania twarzy i ich uprzedzeniami wobec kobiet i osób kolorowych. Przedstawiła swoje odkrycia decydentom politycznym i firmom technologicznym, opowiadając się za bardziej inkluzywnym i etycznym rozwojem AI. Buolamwini jest również znana jako "Poetka Kodu" za włączenie poezji do swojej pracy technicznej. Jej wysiłki znacząco wpłynęły na dyskusje na temat etyki i sprawiedliwości w AI.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Bookmarks – save your favorite books
History – revisit books later
Ratings – rate books & see your ratings
Unlock unlimited listening
Your first week's on us!
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Dec 12,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
“...I can 10x the number of books I can read...”
“...exceptionally accurate, engaging, and beautifully presented...”
“...better than any amazon review when I'm making a book-buying decision...”
Save 62%
Yearly
$119.88 $44.99/yr
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →