Facebook Pixel
Searching...
日本語
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Unmasking AI

Unmasking AI

My Mission to Protect What Is Human in a World of Machines
著者 Joy Buolamwini 2023 336 ページ
4.17
500+ 評価
聞く

つの重要なポイント

1. コード化された視線:AIシステムにおけるバイアスの解明

「デフォルトは中立ではない。それらはしばしばコード化された視線を反映しており、どの主題に焦点を当てるかを選ぶ力を持つ者の好みを示している。」

コード化された視線とは、技術を創造する者の優先順位、好み、偏見が、差別や抹消を通じて害を広める方法を指す。ジョイ・ブオラミニはMITで顔認識プロジェクトに取り組んでいる際にこの概念を発見し、システムが彼女の顔を検出するために白いマスクを着用しなければならなかった。この経験から、特に顔認識技術におけるAIシステムのバイアスを調査することになった。

主な発見:

  • AIシステムは、暗い肌の個人や女性に対してしばしば性能が低い
  • AIモデルを訓練するために使用されるベンチマークデータセットは、しばしば明るい肌の男性に偏っている
  • これらのバイアスは、誤認逮捕や機会の拒否など、現実世界での影響を引き起こす可能性がある

ブオラミニの研究は、主要なテクノロジー企業の顔分析システムが肌の色や性別に基づく重大な精度の差異を持っていることを明らかにし、明るい男性と暗い女性の間で最大34.4%の誤差率があることを示した。

2. アートプロジェクトからグローバルムーブメントへ:アルゴリズム正義リーグの誕生

「私は引き下がるつもりはなかった。大学院生がテクノロジーの巨人に立ち向かうのは典型的な道ではなかったが、機械に見られるために白塗りでコーディングするのも同様に典型的ではなかった。」

**アルゴリズム正義リーグ(AJL)**は、ブオラミニのMITでの修士論文プロジェクトから生まれた。顔認識技術の限界を探るアートインスタレーションとして始まったものが、アルゴリズムの責任と正義を求めるグローバルムーブメントへと進化した。

AJLの使命:

  • AIバイアスの影響についての意識を高める
  • より包括的で公平なAIシステムを提唱する
  • AIシステムのバイアスを監査するためのツールと方法論を開発する
  • 政策立案者や業界リーダーと連携して責任あるAI開発を促進する

この組織の活動は、政策決定、企業の実践、AI倫理に関する公共の議論に影響を与え、学術研究とアクティビズム、アートを組み合わせる力を示している。

3. アルゴリズム監査:商業AI製品の欠陥を暴く

「私のクラスプロジェクトが私に対して機能しなかったとしても?明るい肌のクラスメートはそれを楽しんで使っているようだった。そしてもちろん、カメラが個人を追跡する結果を考えると、顔が検出されないことには確かに利点があるかもしれない。」

アルゴリズム監査は、異なる人口集団間でのバイアスや性能の差異を特定するためのAIシステムの体系的な評価である。ブオラミニの「Gender Shades」プロジェクトは、商業的な性別分類システムにおける重大な精度のギャップを暴露した画期的なアルゴリズム監査であった。

Gender Shades監査の主な発見:

  • テストされたすべてのシステムは、暗い肌の女性に対して最も悪い性能を示した
  • 最大の精度ギャップは、明るい男性と暗い女性の間で34.4%であった
  • 監査は、主要なテクノロジー企業のAI製品でさえ、重大なバイアスを持っていることを明らかにした

Gender Shadesプロジェクトとその後の監査は、商業AIシステムの改善と、多様なテストデータセットと厳格な評価方法の必要性についての認識を高めた。

4. 感情的な監査の力:AIの影響を人間化する

「機械は私の女王たちを私が見るように見ることができるのか?機械は私たちの祖母たちを私たちが知っていたように見ることができるのか?」

感情的な監査は、アルゴリズムのバイアスの人間への影響を示すために芸術的表現と個人的な物語を使用する。ブオラミニのスポークンワード作品「AI, Ain't I A Woman?」はその一例であり、AIシステムが著名な黒人女性の画像を誤分類する様子を示している。

感情的な監査の影響:

  • AIバイアスの結果を人間化する
  • 学術界以外の広範な聴衆にリーチする
  • 行動と政策の変化を促す

「AI, Ain't I A Woman?」のビデオはバイラルになり、ドキュメンタリー「Coded Bias」にも取り上げられ、AIバイアスとその現実世界での影響についての公共の認識を高めるのに役立った。

5. 抹消と戦う:テクノロジーにおける疎外された声を増幅する

「私の発見について黙っていることは害を防ぐことにはならなかった。なぜなら、これらのシステムはすでに開発中だったからだ。私が声を上げることで、非使用を含む代替の道を考慮する機会が提供された。」

抹消と戦うことは、AIとテクノロジーにおいて疎外された声を積極的に増幅し、現状に挑戦することを意味する。ブオラミニのメディア抹消や学術的なゲートキーピングの経験は、AI研究と開発における多様な視点の重要性を強調している。

抹消と戦うための戦略:

  • 少数派の研究者や実務者と協力し、支援する
  • メディアプラットフォームを使用して多様な声と経験を強調する
  • 制度や企業に対してシステム的なバイアスに取り組むよう挑戦する

ブオラミニのドキュメンタリー「Coded Bias」と彼女のアドボカシー活動は、AI倫理と研究における女性と有色人種の貢献に注目を集めるのに役立った。

6. 学術界を超えて:政策立案者と公共との関わり

「議会はこれについて何かをするだろう。」

政策立案者との関わりは、研究成果を現実世界の変化に翻訳するために重要である。ブオラミニの議会証言や政府機関との協力は、研究者が政策決定に与える影響を示している。

主な政策関与:

  • 顔認識技術について議会で証言
  • AI権利章典の策定に貢献
  • 法執行機関による顔認識の使用を規制するための地方の取り組みを支援

これらの努力は、AIシステムの精査の増加、提案された立法、政府のさまざまなレベルでの政策変更につながった。

7. AI開発における包括と排除のコスト

「AIシステムの設計と展開において、包括のコストと排除のコストを考慮する必要がある。」

包括と排除のバランスを取ることは、潜在的な利益と害を慎重に考慮することを必要とする。多様なデータセットはAIの性能を向上させるが、より広範な監視と制御を可能にする可能性もある。

考慮事項:

  • AIの精度向上は、医療診断などの有益なアプリケーションを強化する可能性がある
  • より正確な顔認識は、大規模な監視を可能にする可能性もある
  • 特定のグループをデータセットから除外することはプライバシーを保護するが、そのグループの性能が低下する可能性がある

ブオラミニは、技術的な性能指標だけに焦点を当てるのではなく、AIシステムの社会的な影響を考慮することを提唱している。

8. アルゴリズム正義へ:研究から現実世界の変化へ

「私たちは法律が必要だ。アルゴリズムの責任、リモートバイオメトリック技術、データプライバシーに関する法案が年々提出されている。AIが私たちの生活に与える影響についての認識が高まる中、技術がどのように進化しても、私たちの市民権を保護する政府機関が必要だ。」

アルゴリズム正義は、研究、アドボカシー、政策変更、公共の関与を組み合わせた多面的なアプローチを必要とする。ブオラミニの大学院生から影響力のあるAI倫理学者への旅は、個人がシステム的な変化を推進する可能性を示している。

アルゴリズム正義のための主要な要素:

  • AIシステムの厳格な研究と監査
  • 公共教育と意識向上キャンペーン
  • 政策立案者や業界リーダーとの協力
  • 草の根の取り組みとコミュニティの組織化を支援

AI権利章典の発表とAI倫理問題に関する公共の認識の高まりは進展を示しているが、AIシステムが人権を尊重し、公平性を促進する方法で開発および展開されることを確保するためには、継続的な監視とアドボカシーが必要である。

最終更新日:

レビュー

4.17 中 5
平均評価 500+ GoodreadsAmazonの評価.

本書『Unmasking AI』は、AIのバイアスと倫理についてのわかりやすい探求で高く評価されている。読者は、ブオラムウィニの個人的な旅とテクノロジーの世界に対する洞察を高く評価している。多くの人々は、この本が情報豊かで考えさせられるものであり、アルゴリズムのバイアスに対処する重要性を強調していると感じている。一部のレビュアーは、回顧録のようなスタイルに言及し、より技術的な深さを望む声もある。全体として、この本はAIの社会的影響を理解するための重要な貢献と見なされているが、個人的な物語と技術的内容のバランスについては意見が分かれている。

Your rating:

著者について

ジョイ・ブオラムウィニ博士は、AIにおけるアルゴリズムの偏見に関する研究で知られるコンピュータ科学者、研究者、そして活動家である。彼女はAIシステムにおける差別と戦うためにアルゴリズム正義連盟を設立した。ブオラムウィニ博士は、顔認識技術とその女性や有色人種に対する偏見に関する研究で認知されている。彼女はその研究成果を政策立案者やテクノロジー企業に提示し、より包括的で倫理的なAI開発を提唱している。また、技術的な仕事に詩を取り入れることで「コードの詩人」としても知られている。彼女の努力は、AI倫理と公平性に関する議論に大きな影響を与えている。

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Bookmarks – save your favorite books
History – revisit books later
Ratings – rate books & see your ratings
Unlock unlimited listening
Your first week's on us!
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Dec 12,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
“...I can 10x the number of books I can read...”
“...exceptionally accurate, engaging, and beautifully presented...”
“...better than any amazon review when I'm making a book-buying decision...”
Save 62%
Yearly
$119.88 $44.99/yr
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →