Facebook Pixel
Searching...
Русский
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

My Mission to Protect What Is Human in a World of Machines
автор Joy Buolamwini 2023 336 страниц
4.17
500+ оценки
Слушать

ключевых вывода

1. Закодированный взгляд: выявление предвзятости в системах ИИ

"Настройки по умолчанию не нейтральны. Они часто отражают закодированный взгляд — предпочтения тех, кто имеет власть выбирать, на какие темы сосредоточиться."

Закодированный взгляд относится к тому, как приоритеты, предпочтения и предубеждения тех, кто создает технологии, могут распространять вред через дискриминацию и стирание. Джой Буоламвини обнаружила эту концепцию, работая над проектом распознавания лиц в MIT, где ей пришлось надеть белую маску, чтобы система могла обнаружить ее лицо. Этот опыт привел ее к исследованию предвзятости в системах ИИ, особенно в технологиях распознавания лиц.

Ключевые выводы:

  • Системы ИИ часто плохо работают с людьми с темной кожей и женщинами
  • Эталонные наборы данных, используемые для обучения моделей ИИ, часто смещены в сторону мужчин со светлой кожей
  • Эти предвзятости могут привести к реальным последствиям, от ложных арестов до отказа в возможностях

Исследования Буоламвини показали, что системы анализа лиц крупных технологических компаний имели значительные различия в точности в зависимости от типа кожи и пола, с ошибками до 34,4% между мужчинами со светлой кожей и женщинами с темной кожей.

2. От арт-проекта к глобальному движению: рождение Лиги алгоритмической справедливости

"Я не собиралась сдерживаться. Аспирантка, выступающая против технологических гигантов, не была типичным путем, но и кодирование в белом гриме, чтобы быть увиденной машиной, тоже не было типичным."

Лига алгоритмической справедливости (AJL) возникла из магистерского проекта Буоламвини в MIT. То, что начиналось как художественная инсталляция, исследующая ограничения технологии распознавания лиц, превратилось в глобальное движение за алгоритмическую подотчетность и справедливость.

Миссия AJL:

  • Повышение осведомленности о влиянии предвзятости ИИ
  • Пропаганда более инклюзивных и справедливых систем ИИ
  • Разработка инструментов и методологий для аудита систем ИИ на предмет предвзятости
  • Взаимодействие с политиками и лидерами отрасли для продвижения ответственной разработки ИИ

Работа организации повлияла на политические решения, корпоративные практики и общественные дискуссии об этике ИИ, демонстрируя силу сочетания академических исследований с активизмом и искусством.

3. Алгоритмические аудиты: выявление недостатков в коммерческих продуктах ИИ

"Даже если мой классный проект не работал на мне? Моим светлокожим одноклассникам, казалось, нравилось его использовать. И, конечно, может быть преимущество в том, чтобы не быть обнаруженным машиной, учитывая последствия отслеживания камер и опасности массового наблюдения."

Алгоритмические аудиты — это систематические оценки систем ИИ для выявления предвзятостей и различий в производительности среди различных демографических групп. Проект Буоламвини "Gender Shades" был новаторским алгоритмическим аудитом, который выявил значительные пробелы в точности коммерческих систем классификации по полу.

Ключевые выводы аудита Gender Shades:

  • Все протестированные системы показали худшие результаты на женщинах с темной кожей
  • Наибольший разрыв в точности составил 34,4% между мужчинами со светлой кожей и женщинами с темной кожей
  • Аудит показал, что даже продукты ИИ ведущих технологических компаний имели значительные предвзятости

Проект Gender Shades и последующие аудиты привели к улучшению коммерческих систем ИИ и повысили осведомленность о необходимости разнообразных тестовых наборов данных и строгих методов оценки.

4. Сила выразительных аудитов: очеловечивание влияния ИИ

"Могут ли машины когда-нибудь видеть моих королев так, как вижу их я? Могут ли машины когда-нибудь видеть наших бабушек так, как знали их мы?"

Выразительные аудиты используют художественное выражение и личные рассказы, чтобы иллюстрировать человеческое влияние алгоритмической предвзятости. Произведение Буоламвини "AI, Ain't I A Woman?" является ярким примером, демонстрируя, как системы ИИ неправильно классифицировали изображения известных чернокожих женщин.

Влияние выразительных аудитов:

  • Очеловечивание последствий предвзятости ИИ
  • Достижение более широкой аудитории за пределами академических кругов
  • Вдохновение на действия и изменения в политике

Видео "AI, Ain't I A Woman?" стало вирусным и было показано в документальном фильме "Coded Bias", помогая повысить общественную осведомленность о предвзятости ИИ и ее реальных последствиях.

5. Борьба с стиранием: усиление голосов маргинализированных групп в технологиях

"Молчание о моих находках не предотвратило бы вред, потому что эти системы уже разрабатывались. Мое выступление предоставило возможность рассмотреть альтернативные пути, включая неиспользование."

Борьба с стиранием в ИИ и технологиях включает активное усиление голосов маргинализированных групп и вызов статус-кво. Опыт Буоламвини с медийным стиранием и академическими барьерами подчеркивает важность разнообразных перспектив в исследованиях и разработке ИИ.

Стратегии борьбы с стиранием:

  • Сотрудничество с и поддержка недопредставленных исследователей и практиков
  • Использование медийных платформ для выделения разнообразных голосов и опыта
  • Вызов институциям и компаниям для устранения системных предвзятостей

Работа Буоламвини с документальным фильмом "Coded Bias" и ее адвокационные усилия помогли привлечь внимание к вкладу женщин и людей цвета в этику и исследования ИИ.

6. За пределами академии: взаимодействие с политиками и общественностью

"Конгресс что-то сделает по этому поводу."

Взаимодействие с политиками имеет решающее значение для перевода результатов исследований в реальные изменения. Свидетельства Буоламвини перед Конгрессом и работа с государственными учреждениями демонстрируют влияние, которое исследователи могут оказать на политические решения.

Ключевые взаимодействия с политиками:

  • Свидетельствовала перед Конгрессом о технологии распознавания лиц
  • Внесла вклад в разработку Билля о правах ИИ
  • Поддержала местные усилия по регулированию использования распознавания лиц правоохранительными органами

Эти усилия привели к усилению контроля за системами ИИ, предложению законодательства и изменениям в политике на различных уровнях правительства.

7. Стоимость включения и исключения в разработке ИИ

"Необходимо учитывать стоимость включения и исключения при разработке и развертывании систем ИИ, которые должны быть контекстуализированы."

Балансировка включения и исключения в разработке ИИ требует тщательного рассмотрения потенциальных выгод и вреда. Хотя разнообразные наборы данных могут улучшить производительность ИИ, они также могут способствовать более повсеместному наблюдению и контролю.

Соображения:

  • Улучшение точности ИИ может повысить полезные приложения (например, медицинская диагностика)
  • Более точное распознавание лиц также может способствовать массовому наблюдению
  • Исключение определенных групп из наборов данных может защитить конфиденциальность, но привести к снижению производительности для этих групп

Буоламвини выступает за нюансированный подход, который учитывает более широкие социальные последствия систем ИИ, а не только технические показатели производительности.

8. К алгоритмической справедливости: от исследований к реальным изменениям

"Нам нужны законы. За эти годы были предложены проекты законов об алгоритмической подотчетности, удаленных биометрических технологиях и конфиденциальности данных. С ростом осведомленности о влиянии ИИ на нашу жизнь, нам нужно знать, что наши государственные учреждения будут защищать наши гражданские права независимо от того, как развивается технология."

Алгоритмическая справедливость требует многогранного подхода, сочетающего исследования, адвокацию, изменения в политике и общественное участие. Путь Буоламвини от аспирантки до влиятельного этика ИИ иллюстрирует потенциал отдельных лиц для привнесения системных изменений.

Ключевые компоненты борьбы за алгоритмическую справедливость:

  • Строгие исследования и аудиты систем ИИ
  • Образовательные и просветительские кампании
  • Сотрудничество с политиками и лидерами отрасли
  • Поддержка инициатив на местах и общественной организации

Выпуск Билля о правах ИИ и растущая общественная осведомленность о вопросах этики ИИ демонстрируют прогресс, но необходимы постоянная бдительность и адвокация, чтобы гарантировать, что системы ИИ разрабатываются и внедряются с уважением к правам человека и продвижением справедливости.

Последнее обновление:

Отзывы

4.17 из 5
Средняя оценка на основе 500+ оценки с Goodreads и Amazon.

Разоблачение ИИ заслуживает похвалы за доступное исследование предвзятости и этики искусственного интеллекта. Читатели ценят личное путешествие Буоламвини и её взгляды на мир технологий. Многие находят книгу информативной и заставляющей задуматься, подчеркивая важность решения проблемы алгоритмической предвзятости. Некоторые рецензенты отмечают мемуарный стиль и желают большего технического углубления. В целом, книга рассматривается как важный вклад в понимание общественного влияния ИИ, хотя мнения о балансе между личным повествованием и техническим содержанием разнятся.

Об авторе

Доктор Джой Буоламвини — компьютерный ученый, исследователь и активист, известная своей работой по выявлению алгоритмической предвзятости в ИИ. Она основала Лигу Алгоритмической Справедливости для борьбы с дискриминацией в системах ИИ. Буоламвини получила признание за свои исследования технологий распознавания лиц и их предвзятости по отношению к женщинам и цветным людям. Она представила свои выводы политикам и технологическим компаниям, выступая за более инклюзивную и этичную разработку ИИ. Буоламвини также известна как "Поэт кода" за интеграцию поэзии в свою техническую работу. Ее усилия значительно повлияли на обсуждения этики и справедливости в ИИ.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Bookmarks – save your favorite books
History – revisit books later
Ratings – rate books & see your ratings
Unlock unlimited listening
Your first week's on us!
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Dec 12,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
“...I can 10x the number of books I can read...”
“...exceptionally accurate, engaging, and beautifully presented...”
“...better than any amazon review when I'm making a book-buying decision...”
Save 62%
Yearly
$119.88 $44.99/yr
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →