Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Atlas of AI

Atlas of AI

Power, Politics, and the Planetary Costs of Artificial Intelligence
توسط Kate Crawford 2020 288 صفحات
3.96
2.4K امتیازها
گوش دادن
Try Full Access for 7 Days
Unlock listening & more!
Continue

نکات کلیدی

1. مبنای مادی هوش مصنوعی: زمین به‌عنوان صنعتی استخراجی

رسانه‌های محاسباتی اکنون در فرآیندهای زمین‌شناسی و اقلیمی شرکت دارند، از تبدیل مواد زمین به زیرساخت‌ها و دستگاه‌ها تا تأمین انرژی این سیستم‌های جدید با ذخایر نفت و گاز.

وابستگی هوش مصنوعی به منابع. هوش مصنوعی یک مفهوم انتزاعی نیست، بلکه صنعتی عمیقاً مادی است که به استخراج منابع زمین وابسته است. از معادن لیتیوم در نوادا تا ذخایر مواد معدنی نادر در مغولستان داخلی، ایجاد سیستم‌های هوش مصنوعی نیازمند زنجیره تأمین وسیعی از مواد معدنی، انرژی و مواد است. این تقاضا به شیوه‌های استخراج مخرب محیط زیست دامن می‌زند که اغلب در بحث‌های پیشرفت فناوری نادیده گرفته می‌شود.

تأثیرات زیست‌محیطی. تقاضای بخش فناوری برای منابع به‌طور قابل توجهی به تخریب محیط زیست کمک می‌کند. استخراج مواد معدنی، آب‌های زیرزمینی را آلوده می‌کند، جنگل‌ها را نابود می‌سازد و جوامع را جابه‌جا می‌کند. علاوه بر این، ماهیت انرژی‌بر هوش مصنوعی، به‌ویژه در آموزش مدل‌های بزرگ، به افزایش ردپای کربن کمک می‌کند که با صنعت هوانوردی رقابت می‌کند.

نیاز به تغییر در نگرش. برای درک هزینه واقعی هوش مصنوعی، باید فراتر از وعده‌های انتزاعی پیشرفت فناوری برویم و پیامدهای مادی آن را در نظر بگیریم. این نیازمند پذیرش هزینه‌های زیست‌محیطی و انسانی مرتبط با استخراج منابع، مصرف انرژی و زنجیره‌های تأمین جهانی است که از سیستم‌های هوش مصنوعی پشتیبانی می‌کنند.

2. هزینه انسانی: استثمار کار در سیستم‌های هوش مصنوعی

هماهنگی اقدامات انسان‌ها با حرکات تکراری ربات‌ها و ماشین‌آلات خط تولید همواره شامل کنترل بدن‌ها در فضا و زمان بوده است.

وابستگی هوش مصنوعی به کار انسانی. با وجود روایت اتوماسیون، سیستم‌های هوش مصنوعی به شدت به کار انسانی وابسته‌اند که اغلب پنهان و با دستمزد پایین انجام می‌شود. این شامل کارگران دیجیتال که داده‌ها را برچسب‌گذاری می‌کنند، کارمندان انبار آمازون که سفارشات را انجام می‌دهند و ناظران محتوا که محتوای مضر را فیلتر می‌کنند، می‌شود. این کارگران برای عملکرد سیستم‌های هوش مصنوعی ضروری هستند، اما سهم آن‌ها اغلب نادیده گرفته می‌شود و شرایط کاری آن‌ها استثماری است.

زمان و کنترل. مدیریت زمان در استثمار کار در سیستم‌های هوش مصنوعی مرکزی است. کارگران تحت نظارت مداوم و ارزیابی الگوریتمی قرار دارند، به‌طوری‌که هر اقدام آن‌ها پیگیری و اندازه‌گیری می‌شود تا حداکثر کارایی حاصل شود. این وضعیت محیط کار استرس‌زا و غیرانسانی را ایجاد می‌کند، جایی که کارگران به‌عنوان ضمیمه‌های ماشین تلقی می‌شوند.

نیاز به همبستگی کارگران. برای مقابله با استثمار کار در سیستم‌های هوش مصنوعی، کارگران باید سازماندهی شوند و خواستار بهبود شرایط کاری، دستمزد عادلانه و کنترل بیشتر بر زمان و کار خود شوند. این نیازمند ایجاد همبستگی در بخش‌های مختلف صنعت هوش مصنوعی، از معدن‌کاران تا مهندسان، و به چالش کشیدن ساختارهای قدرتی است که استثمار را تداوم می‌بخشند.

3. داده به‌عنوان زیرساخت: محو زمینه و رضایت

تمام مواد دیجیتال قابل دسترسی عمومی—از جمله داده‌های شخصی یا بالقوه مضر—برای برداشت به‌منظور ایجاد مجموعه‌های داده‌ای که برای تولید مدل‌های هوش مصنوعی استفاده می‌شوند، باز است.

استخراج داده. صنعت هوش مصنوعی به برداشت انبوه داده‌ها وابسته است، اغلب بدون رضایت یا توجه به حریم خصوصی. این شامل اطلاعات شخصی، تصاویر و متونی است که از اینترنت جمع‌آوری شده و برای آموزش مدل‌های هوش مصنوعی استفاده می‌شود. این عمل داده‌ها را به‌عنوان یک منبع رایگان تلقی می‌کند و از پیامدهای اخلاقی و اجتماعی جمع‌آوری و استفاده از اطلاعات افراد بدون آگاهی یا اجازه آن‌ها غافل است.

از تصویر به زیرساخت. تبدیل تصاویر به داده، آن‌ها را از زمینه و معنا خالی می‌کند. عکس‌های شناسایی، سلفی‌ها و عکس‌های شخصی به نقاط داده‌ای تبدیل می‌شوند که برای آموزش سیستم‌های شناسایی چهره و سایر مدل‌های هوش مصنوعی استفاده می‌شوند. این محو زمینه می‌تواند به نتایج جانبدارانه و تبعیض‌آمیز منجر شود، زیرا سیستم‌های هوش مصنوعی یاد می‌گیرند که ویژگی‌های خاصی را با کلیشه‌های منفی مرتبط کنند.

نگرانی‌های اخلاقی. شیوه‌های کنونی جمع‌آوری و استفاده از داده‌ها در هوش مصنوعی نگرانی‌های اخلاقی عمیقی را به وجود می‌آورد. ما باید فراتر از این ایده برویم که داده‌ها یک منبع خنثی هستند و به دینامیک‌های قدرت ذاتی در جمع‌آوری، برچسب‌گذاری و استفاده از آن‌ها توجه کنیم. این نیازمند توسعه دستورالعمل‌ها و مقررات اخلاقی است که از حریم خصوصی افراد محافظت کرده و از سوءاستفاده از داده‌های آن‌ها جلوگیری کند.

4. طبقه‌بندی به‌عنوان قدرت: رمزگذاری تعصب در سیستم‌های هوش مصنوعی

با نگاهی به چگونگی ایجاد طبقه‌بندی‌ها، می‌بینیم که چگونه طرح‌های فنی سلسله‌مراتب‌ها را تحمیل کرده و نابرابری را تشدید می‌کنند.

طبقه‌بندی به‌عنوان یک عمل سیاسی. سیستم‌های هوش مصنوعی برای درک جهان به طبقه‌بندی وابسته‌اند. با این حال، دسته‌بندی‌های استفاده شده برای طبقه‌بندی داده‌ها نه خنثی و نه عینی هستند، بلکه بازتاب‌دهنده تعصبات و فرضیات سازندگان آن‌ها هستند. این تعصبات می‌توانند در سیستم‌های هوش مصنوعی رمزگذاری شوند و به نتایج تبعیض‌آمیز منجر شوند.

مسئله تعصب. نشان داده شده است که سیستم‌های هوش مصنوعی در حوزه‌های مختلف، از شناسایی چهره تا عدالت کیفری، تعصب نشان می‌دهند. این تعصبات اغلب الگوهای تاریخی تبعیض را منعکس می‌کنند و نابرابری‌های موجود را تداوم و تشدید می‌کنند. به‌عنوان مثال، سیستم‌های شناسایی چهره ممکن است برای افرادی با پوست تیره دقت کمتری داشته باشند که منجر به شناسایی نادرست و دستگیری‌های نادرست می‌شود.

فراتر از مباحث تعصب. برای حل مسئله تعصب در هوش مصنوعی، باید فراتر از اصلاحات فنی برویم و به ساختارهای اجتماعی و سیاسی زیرین که داده‌ها و الگوریتم‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی را شکل می‌دهند، بپردازیم. این نیازمند به چالش کشیدن دینامیک‌های قدرتی است که نابرابری را تداوم می‌بخشند و ترویج رویکردهای عادلانه‌تر و فراگیرتر در توسعه هوش مصنوعی است.

5. شناسایی احساسات: علم پرچالش خواندن احساسات

راه‌حل معمای Clever Hans، به‌نوشته‌ی Pfungst، هدایت ناخودآگاه از سوی پرسشگران اسب بود.

ادعای احساسات جهانی. سیستم‌های شناسایی احساسات بر این ایده استوارند که احساسات جهانی هستند و می‌توانند به‌طور قابل اعتمادی از روی حالات چهره شناسایی شوند. با این حال، این ادعا به شدت مورد مناقشه است و بسیاری از محققان بر این باورند که احساسات متغیرهای فرهنگی و وابسته به زمینه هستند.

تأثیر پل اکرمن. کارهای روانشناس پل اکرمن در شکل‌گیری حوزه شناسایی احساسات تأثیرگذار بوده است. تحقیقات اکرمن که از دهه 1960 آغاز شد، ادعا می‌کرد که مجموعه‌ای از احساسات پایه‌ای را شناسایی کرده است که به‌طور جهانی ابراز و شناسایی می‌شوند. با این حال، روش‌ها و یافته‌های او به‌دلیل عدم دقت علمی به شدت مورد انتقاد قرار گرفته است.

نگرانی‌های اخلاقی. با وجود تردیدهای علمی در مورد شناسایی احساسات، این ابزارها به‌سرعت در زمینه‌های مختلف با ریسک بالا، از استخدام تا پلیس، به کار گرفته می‌شوند. این موضوع نگرانی‌های اخلاقی جدی را به وجود می‌آورد، زیرا افراد ممکن است بر اساس ارزیابی‌های نادرست و غیرقابل اعتماد از وضعیت عاطفی خود قضاوت و مورد تبعیض قرار گیرند.

6. هوش مصنوعی به‌عنوان ابزاری از قدرت دولتی: نظارت و کنترل

گذشته و حال نظامی هوش مصنوعی، شیوه‌های نظارت، استخراج داده و ارزیابی ریسک را که امروزه مشاهده می‌کنیم، شکل داده است.

ریشه‌های نظامی هوش مصنوعی. توسعه هوش مصنوعی به شدت تحت تأثیر تأمین مالی و اولویت‌های نظامی قرار دارد. این موضوع بر تمرکز این حوزه بر نظارت، استخراج داده و ارزیابی ریسک تأثیر گذاشته و به پیامدهای اخلاقی و اجتماعی توجهی نمی‌کند.

آرشیو اسنودن. آرشیو اسنودن نشان می‌دهد که تا چه حد نهادهای اطلاعاتی از هوش مصنوعی برای جمع‌آوری و تحلیل داده‌ها به‌صورت انبوه استفاده کرده‌اند. این ابزارها که زمانی برای مقاصد امنیت ملی اختصاص داده شده بودند، اکنون به‌طور داخلی به کار گرفته می‌شوند و مرزهای بین نظارت نظامی و غیرنظامی را محو می‌کنند.

استراتژی سومین جبران. استراتژی سومین جبران ارتش ایالات متحده به‌دنبال حفظ تسلط خود در هوش مصنوعی با همکاری با بخش فناوری است. این موضوع منجر به رابطه نزدیکی بین ارتش و سیلیکون‌ولی شده است، به‌طوری‌که شرکت‌های فناوری ابزارها و تخصص‌های هوش مصنوعی را به وزارت دفاع ارائه می‌دهند.

7. خانه‌های بزرگ هوش مصنوعی: متمرکز کردن قدرت و گسترش نابرابری‌ها

این سیاست‌ها توسط خانه‌های بزرگ هوش مصنوعی هدایت می‌شوند که شامل چندین شرکت است که بر محاسبات سیاره‌ای در مقیاس بزرگ تسلط دارند.

تمرکز قدرت. صنعت هوش مصنوعی تحت تسلط تعداد کمی از شرکت‌های فناوری قدرتمند است. این شرکت‌ها مقادیر زیادی داده، منابع و تخصص را کنترل می‌کنند و به آن‌ها مزیت قابل توجهی در شکل‌دهی به توسعه و استقرار سیستم‌های هوش مصنوعی می‌دهد.

گسترش نابرابری‌ها. تمرکز قدرت در دستان چند غول فناوری، نابرابری‌های موجود را تشدید می‌کند. سیستم‌های هوش مصنوعی اغلب به‌گونه‌ای طراحی می‌شوند که به منافع این شرکت‌ها خدمت کنند و فاصله بین ثروتمندان و فقیران، قدرتمندان و حاشیه‌نشینان را بیشتر کنند.

نیاز به مقررات. برای مقابله با تمرکز قدرت در صنعت هوش مصنوعی، به مقررات قوی‌تری نیاز داریم که رقابت را ترویج کرده، حریم خصوصی را محافظت کند و اطمینان حاصل کند که سیستم‌های هوش مصنوعی به‌نحوی استفاده می‌شوند که به نفع جامعه به‌طور کلی باشد. این نیازمند به چالش کشیدن تسلط غول‌های فناوری و ترویج اشکال دموکراتیک‌تر و پاسخگوتر از حاکمیت هوش مصنوعی است.

8. به چالش کشیدن منطق‌ها: به‌سوی جنبش‌های متصل برای عدالت

با تغییر شرایط زمین، باید خواسته‌های حفاظت از داده‌ها، حقوق کار، عدالت اقلیمی و برابری نژادی را به‌طور همزمان شنید.

جنبش‌های متصل. برای حل مشکلات بنیادی هوش مصنوعی، نیاز به ارتباط مسائل قدرت و عدالت داریم. این شامل حفاظت از داده‌ها، حقوق کار، عدالت اقلیمی و برابری نژادی است. با همکاری، این جنبش‌ها می‌توانند به چالش ساختارهای قدرتی بپردازند که هوش مصنوعی در حال حاضر تقویت می‌کند.

سیاست‌های رد. ما باید ایده‌ای را که هوش مصنوعی اجتناب‌ناپذیر است و هیچ انتخابی جز پذیرش پیامدهای آن نداریم، رد کنیم. این نیازمند به چالش کشیدن روایت‌های تعیین‌گرایی فناوری و خواستار اشکال دموکراتیک‌تر و پاسخگوتر از حاکمیت هوش مصنوعی است.

چشم‌انداز متفاوت. با ارتباط مسائل قدرت و عدالت، می‌توانیم چشم‌انداز متفاوتی برای هوش مصنوعی ایجاد کنیم، چشم‌اندازی که به رفاه انسانی، پایداری زیست‌محیطی و برابری اجتماعی اولویت می‌دهد. این نیازمند به چالش کشیدن منطق‌های استخراجی هوش مصنوعی و ساختن آینده‌ای عادلانه‌تر و پایدارتر برای همه است.

آخرین به‌روزرسانی::

FAQ

What's Atlas of AI about?

  • Exploration of AI's Impact: Atlas of AI by Kate Crawford delves into the profound implications of artificial intelligence on society, politics, and the environment. It critiques the portrayal of AI as a neutral technology, highlighting its entanglement with power structures and extractive industries.
  • Critique of AI Myths: The book challenges the notion that AI can replicate human intelligence, emphasizing that intelligence is shaped by cultural and historical contexts. Crawford uses examples like Clever Hans to illustrate biases in systems claiming objectivity.
  • Interconnected Systems: Crawford presents AI as a "megamachine" reliant on a vast network of resources, including human labor and natural materials, urging readers to consider the broader implications of AI technologies on human rights and social justice.

Why should I read Atlas of AI?

  • Critical Perspective: The book offers a critical lens on AI, challenging readers to think about the ethical and social ramifications of technology. It encourages a deeper understanding of how AI systems are designed and the biases they may perpetuate.
  • Broader Context: Crawford situates AI within a larger framework of extraction and exploitation, linking it to historical and contemporary issues of power and inequality. This context is crucial for understanding the societal impacts of AI.
  • Engaging Narratives: Combining rigorous research with compelling storytelling, the book makes complex topics accessible and engaging. Readers will find a blend of academic analysis and real-world examples that illustrate the stakes involved in AI development.

What are the key takeaways of Atlas of AI?

  • AI as a Power Structure: The book posits that AI reflects existing power structures, serving the interests of those in control. AI systems are not neutral but are designed to optimize for specific outcomes that often reinforce inequality.
  • Environmental and Labor Costs: Crawford highlights the significant environmental impact of AI, particularly in terms of resource extraction and energy consumption, and reveals how AI systems rely on cheap labor from marginalized communities.
  • Call for Justice: Crawford advocates for a movement towards justice that addresses the interconnectedness of technology, capitalism, and social equity. She urges readers to consider how AI can be reoriented to serve the public good rather than perpetuate harm.

What are the best quotes from Atlas of AI and what do they mean?

  • "Artificial intelligence is a registry of power.": This quote encapsulates Crawford's argument that AI systems reflect and reinforce existing power dynamics rather than being impartial technologies. It suggests that understanding AI requires examining who benefits from its deployment.
  • "The story of Clever Hans is a cautionary reminder that you can’t always be sure of what a model has learned from the data it has been given.": This highlights the potential for bias in AI systems, emphasizing that the data used to train models can lead to misleading conclusions.
  • “AI systems are expressions of power that emerge from wider economic and political forces.”: This quote challenges the reader to critically assess who benefits from AI technologies, emphasizing that AI is not neutral but reflects and amplifies existing power dynamics.

How does Kate Crawford define artificial intelligence in Atlas of AI?

  • Not Artificial or Intelligent: Crawford argues that AI is neither truly artificial nor genuinely intelligent. Instead, it is a complex interplay of human labor, natural resources, and socio-political structures.
  • Embodied and Material: She emphasizes that AI systems are built from physical materials and depend on extensive infrastructures, which include energy and labor. This challenges the common perception of AI as a purely digital phenomenon.
  • Political and Social Practices: Crawford asserts that AI is shaped by political and social practices, meaning it cannot be understood in isolation from the contexts in which it operates.

What is the Clever Hans Effect mentioned in Atlas of AI?

  • Observer-Expectancy Effect: The Clever Hans Effect refers to the phenomenon where a subject performs based on unintentional cues from the observer rather than genuine understanding. This highlights the influence of biases in interpreting intelligence.
  • Implications for AI: Crawford uses this effect to illustrate how AI systems can also be misinterpreted based on the data they are trained on and the expectations of their creators.
  • Broader Context of Intelligence: The effect raises questions about how intelligence is defined and measured, suggesting that our understanding of intelligence is often shaped by cultural and contextual factors.

How does Atlas of AI address the environmental impact of AI?

  • Resource Extraction: Crawford discusses the extensive mining and resource extraction required to power AI technologies, particularly the demand for rare earth minerals, leading to significant ecological damage.
  • Energy Consumption: The book highlights the enormous energy demands of AI systems, particularly in data centers, which contribute to carbon emissions and climate change.
  • Interconnectedness with Climate Justice: Crawford connects the environmental impact of AI to broader issues of climate justice, arguing that the exploitation of resources for AI disproportionately affects marginalized communities.

What role does labor play in the construction of AI according to Atlas of AI?

  • Exploitation of Workers: Crawford reveals how AI systems rely on cheap labor, often sourced from vulnerable populations, to function effectively. This exploitation is a critical aspect of the AI industry.
  • Digital Piecework: The book discusses the rise of digital piecework, where workers are paid minimal amounts to perform tasks that support AI systems, such as labeling data.
  • Surveillance and Control: Crawford highlights how AI technologies increase surveillance and control over workers, leading to a more regimented and exploitative work environment.

How does Atlas of AI address the issue of data extraction?

  • Data Colonialism: Crawford discusses how data extraction often mirrors colonial practices, where marginalized communities are exploited for their data without consent or benefit.
  • Consent and Privacy: The book emphasizes the lack of informed consent in data collection practices, particularly in how personal data is harvested for AI training.
  • Impact on Communities: The extraction of data can have detrimental effects on communities, reinforcing existing inequalities and injustices.

What critiques does Atlas of AI offer regarding emotion recognition technologies?

  • Scientific Foundations Questioned: Crawford highlights that many emotion recognition technologies are based on flawed scientific assumptions, particularly the idea that facial expressions universally correspond to specific emotions.
  • Cultural Bias: The book points out that emotion recognition systems often fail to account for cultural differences in emotional expression, leading to biased outcomes.
  • Potential for Harm: Crawford warns that deploying these technologies without understanding their limitations can lead to harmful consequences, such as misinterpretation of individuals' emotional states.

How does Atlas of AI connect AI to state power?

  • Surveillance and Control: Crawford discusses how AI technologies are increasingly used by state actors for surveillance and control, often without adequate oversight.
  • Military Applications: The book explores the relationship between AI development and military applications, particularly through programs like Project Maven.
  • Corporate-State Collaboration: Crawford highlights the collaboration between tech companies and government agencies, suggesting that this partnership can lead to a lack of accountability and transparency.

What are the implications of Atlas of AI for the future of technology?

  • Reevaluation of AI Development: Crawford's work calls for a reevaluation of how AI technologies are developed and deployed, emphasizing the need for ethical considerations and social responsibility.
  • Advocacy for Justice Movements: The book encourages readers to engage in justice movements that address the intersections of technology, labor, and environmental issues.
  • Critical Engagement with AI: Crawford urges readers to critically engage with AI technologies, questioning their implications and advocating for transparency and accountability.

نقد و بررسی

3.96 از 5
میانگین از 2.4K امتیازات از Goodreads و Amazon.

کتاب اطلس هوش مصنوعی نظرات متفاوتی را به خود جلب کرده است. برخی از منتقدان به بررسی انتقادی تأثیرات اجتماعی و زیست‌محیطی هوش مصنوعی در این کتاب اشاره کرده و آن را ستایش می‌کنند، در حالی که دیگران به نوشتار تکراری و کمبود راه‌حل‌ها در آن انتقاد می‌کنند. خوانندگان از بررسی هزینه‌های مادی هوش مصنوعی، استثمار نیروی کار و نگرانی‌های اخلاقی در این کتاب قدردانی می‌کنند. با این حال، برخی آن را بیش از حد بدبینانه و فاقد عمق فنی می‌دانند. این کتاب به خاطر رویکرد جامع خود مورد تحسین قرار گرفته، اما به خاطر لحن آکادمیک و گاهی عدم تمرکز نیز مورد انتقاد قرار می‌گیرد. با وجود کاستی‌هایش، بسیاری آن را کتابی مهم برای درک پیامدهای گسترده‌تر هوش مصنوعی می‌دانند.

Your rating:
4.41
175 امتیازها

درباره نویسنده

کیت کرافورد یکی از پژوهشگران و دانشمندان برجسته در زمینه‌ی هوش مصنوعی و تأثیرات اجتماعی آن است. کیت کرافورد به خاطر رویکرد بین‌رشته‌ای خود که فناوری، اخلاق و علوم اجتماعی را ترکیب می‌کند، شناخته شده است. او در مؤسسات معتبر مانند مایکروسافت ریسرچ و دانشگاه نیویورک مشغول به کار بوده است. تمرکز کارهای کرافورد بر هزینه‌ها و پیامدهای پنهان سیستم‌های هوش مصنوعی است، از جمله تأثیرات زیست‌محیطی، شیوه‌های کاری و پتانسیل تبعیض و偏见. او در این زمینه‌ها به طور گسترده‌ای منتشر کرده و سخنران مکرر کنفرانس‌های بین‌المللی است. پژوهش‌های کرافورد به طور قابل توجهی به گفتمان انتقادی پیرامون توسعه و پیاده‌سازی هوش مصنوعی کمک کرده است.

Listen
Now playing
Atlas of AI
0:00
-0:00
Now playing
Atlas of AI
0:00
-0:00
1x
Voice
Speed
Dan
Andrew
Michelle
Lauren
1.0×
+
200 words per minute
Queue
Home
Library
Get App
Create a free account to unlock:
Recommendations: Personalized for you
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
100,000+ readers
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 4
📜 Unlimited History
Free users are limited to 4
📥 Unlimited Downloads
Free users are limited to 1
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Jun 25,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
100,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Start a 7-Day Free Trial
7 days free, then $44.99/year. Cancel anytime.
Scanner
Find a barcode to scan

Settings
General
Widget
Loading...