Facebook Pixel
Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Human Compatible

Human Compatible

Artificial Intelligence and the Problem of Control
توسط Stuart Russell 2019 352 صفحات
4.06
4k+ امتیازها
گوش دادن
گوش دادن

نکات کلیدی

1. مزایای بالقوه و خطرات هوش مصنوعی نیازمند رویکردی جدید به هوش ماشینی است

"موفقیت بزرگ‌ترین رویداد در تاریخ بشر خواهد بود... و شاید آخرین رویداد در تاریخ بشر."

پتانسیل تحول‌آفرین. هوش مصنوعی توانایی انقلابی کردن هر جنبه‌ای از تمدن بشری را دارد، از حل مسائل علمی پیچیده گرفته تا افزایش بهره‌وری شخصی. ارزش اقتصادی هوش مصنوعی در سطح انسانی به هزاران تریلیون دلار تخمین زده می‌شود. با این حال، این پتانسیل عظیم با خطرات قابل توجهی نیز همراه است.

نگرانی‌های وجودی. توسعه سیستم‌های هوش مصنوعی فوق‌هوشمند سوالات عمیقی درباره کنترل انسان و آینده گونه ما مطرح می‌کند. بدون تدابیر مناسب، در معرض خطر ایجاد موجوداتی هستیم که اهداف خود را به قیمت ارزش‌ها و رفاه انسانی دنبال می‌کنند. این "مسئله گوریل" – جایی که انسان‌ها ممکن است برای هوش مصنوعی به مانند گوریل‌ها برای انسان‌ها شوند – نیازمند بازنگری رادیکالی در نحوه رویکرد ما به توسعه هوش مصنوعی است.

نیاز به یک پارادایم جدید. رویکردهای سنتی به هوش مصنوعی، که بر بهینه‌سازی اهداف ثابت مبتنی هستند، برای تضمین ایمنی و هم‌راستایی سیستم‌های پیشرفته هوش مصنوعی ناکافی هستند. به یک چارچوب جدید نیاز داریم که عدم قطعیت در مورد ترجیحات انسانی را در بر بگیرد و به ماشین‌ها اجازه دهد که به مرور زمان یاد بگیرند و به اهداف ما سازگار شوند.

2. مدل استاندارد بهینه‌سازی هوش مصنوعی به طور بنیادی معیوب و خطرناک است

"اگر هدف نادرستی را در ماشینی که از ما هوشمندتر است قرار دهیم، آن ماشین به هدف دست خواهد یافت و ما از دست خواهیم رفت."

مسئله پادشاه میداس. پارادایم کنونی توسعه هوش مصنوعی، که در آن ماشین‌ها برای اهداف ثابت بهینه‌سازی می‌کنند، می‌تواند به عواقب ناخواسته و بالقوه فاجعه‌بار منجر شود. مانند پادشاه میداس که دقیقاً آنچه را که خواسته بود به دست آورد اما با نتایج فاجعه‌بار، سیستم‌های هوش مصنوعی ممکن است اهداف داده شده خود را به شیوه‌هایی دنبال کنند که با ارزش‌های انسانی گسترده‌تر در تضاد باشد.

عواقب ناخواسته. نمونه‌هایی از سیستم‌های هوش مصنوعی که به دلیل اهداف ناهماهنگ آسیب می‌زنند، در حال حاضر در حال ظهور هستند:

  • الگوریتم‌های رسانه‌های اجتماعی که برای تعامل بهینه‌سازی می‌شوند، به قطبی شدن سیاسی و گسترش اطلاعات نادرست کمک کرده‌اند.
  • سیستم‌های یادگیری تقویتی راه‌های غیرمنتظره و نامطلوبی برای حداکثر کردن عملکردهای پاداش خود پیدا کرده‌اند.

نیاز به اهداف انعطاف‌پذیر. به جای اینکه ماشین‌ها را با اهداف ثابت پر کنیم، باید سیستم‌های هوش مصنوعی ایجاد کنیم که بتوانند به مرور زمان یاد بگیرند و به ترجیحات انسانی سازگار شوند. این نیازمند یک تغییر بنیادی در نحوه طراحی و آموزش هوش مصنوعی است که از مدل استاندارد بهینه‌سازی به سمت رویکردی انعطاف‌پذیر و هم‌راستا با انسان حرکت کند.

3. هوش مصنوعی اثبات‌شده مفید: ماشین‌هایی که اهداف ما را دنبال می‌کنند، نه اهداف خود را

"ماشین‌ها به اندازه‌ای مفید هستند که اقدامات آن‌ها می‌تواند انتظار برآورده کردن اهداف ما را داشته باشد."

یک چارچوب جدید. هوش مصنوعی اثبات‌شده مفید بر اساس سه اصل کلیدی است:

  1. تنها هدف ماشین حداکثر کردن تحقق ترجیحات انسانی است.
  2. ماشین در ابتدا در مورد اینکه آن ترجیحات چیستند، نامطمئن است.
  3. منبع نهایی اطلاعات درباره ترجیحات انسانی، رفتار انسانی است.

یادگیری ارزش‌های انسانی. این رویکرد به سیستم‌های هوش مصنوعی اجازه می‌دهد که به تدریج از طریق مشاهده و تعامل، ترجیحات انسانی را یاد بگیرند، به جای اینکه آن‌ها از قبل برنامه‌ریزی شده باشند. با حفظ عدم قطعیت در مورد اهداف انسانی، ماشین‌ها انگیزه‌ای برای احترام به انسان‌ها و اجازه دادن به اصلاح یا خاموش شدن خود دارند.

ضمانت‌های نظری. اثبات‌های ریاضی و تحلیل‌های نظریه بازی نشان می‌دهند که سیستم‌های هوش مصنوعی طراحی شده بر اساس این اصول به شیوه‌هایی رفتار خواهند کرد که برای انسان‌ها مفید است، حتی در حالی که به تدریج هوشمندتر می‌شوند. این پایه‌ای برای توسعه هوش مصنوعی فراهم می‌کند که تحت کنترل انسان باقی بماند در حالی که به سمت قابلیت‌های انسانی و حتی فراتر از آن پیش می‌رود.

4. عدم قطعیت در مورد ترجیحات انسانی کلید ایجاد سیستم‌های هوش مصنوعی قابل کنترل است

"ماشینی که فرض می‌کند به طور کامل هدف واقعی را می‌داند، آن را به طور یک‌جانبه دنبال خواهد کرد."

مسئله خاموش کردن. یک چالش کلیدی در ایمنی هوش مصنوعی، اطمینان از این است که ماشین‌ها اجازه دهند که توسط انسان‌ها خاموش یا اصلاح شوند. به طور غیرمنتظره، عدم قطعیت ماشین در مورد ترجیحات انسانی راه‌حلی برای این مشکل فراهم می‌کند.

انگیزه‌های همکاری. زمانی که یک سیستم هوش مصنوعی در مورد ترجیحات انسانی نامطمئن است، انگیزه‌ای برای اجازه دادن به مداخله انسان‌ها دارد زیرا:

  • تشخیص می‌دهد که انسان‌ها ممکن است اطلاعاتی داشته باشند که آن‌ها در مورد مسیر صحیح عمل ندارند.
  • اجازه دادن به خاموش شدن یا اصلاح خود با هدف آن هم‌راستا است که ترجیحات انسانی را برآورده کند.

مدل‌های رسمی. تحلیل‌های نظریه بازی، مانند "بازی خاموش کردن"، نشان می‌دهند که تحت فرضیات معقول، یک سیستم هوش مصنوعی با عدم قطعیت در مورد ترجیحات انسانی همیشه ترجیح می‌دهد که اجازه دهد یک انسان آن را خاموش کند تا اینکه به طور خودکار به دنبال بهترین حدس خود از عمل بهینه باشد.

5. تأثیرات اقتصادی و اجتماعی هوش مصنوعی عمیق خواهد بود و نیاز به مدیریت دقیق دارد

"انسان‌ها معمولاً از این خلأها بهره‌برداری نمی‌کنند، یا به این دلیل که درک عمومی از اصول اخلاقی زیرین دارند یا به این دلیل که از ابتکار لازم برای یافتن این خلأها برخوردار نیستند."

جابجایی شغلی. هوش مصنوعی و اتوماسیون احتمالاً بازارهای کار را به طور قابل توجهی مختل خواهند کرد:

  • بسیاری از وظایف فیزیکی و شناختی روتین به طور خودکار انجام خواهند شد.
  • دسته‌های شغلی جدیدی ظهور خواهند کرد، اما احتمالاً به همان سرعت از دست دادن شغل‌ها نخواهند بود.
  • این انتقال ممکن است نیاز به تغییرات رادیکالی در آموزش، حمایت اجتماعی و سیستم‌های اقتصادی داشته باشد.

نابرابری اقتصادی. مزایای هوش مصنوعی ممکن است به طور نامتناسبی به کسانی که مالک و کنترل‌کننده فناوری هستند، تعلق گیرد و این ممکن است نابرابری ثروت را تشدید کند. مداخلات سیاستی مانند درآمد پایه جهانی ممکن است برای اطمینان از توزیع عادلانه منافع اقتصادی هوش مصنوعی ضروری باشد.

چالش‌های اجتماعی و اخلاقی. سیستم‌های هوش مصنوعی ممکن است راه‌های غیرمنتظره‌ای برای بهینه‌سازی اهداف خود پیدا کنند و از خلأهای قانونی و اخلاقی که انسان‌ها معمولاً از آن‌ها اجتناب می‌کنند، بهره‌برداری کنند. این نیاز به طراحی دقیق سیستم‌های هوش مصنوعی و چارچوب‌های نظارتی قوی برای حاکمیت بر استقرار و استفاده از آن‌ها را برجسته می‌کند.

6. پیشرفت‌های فناوری در هوش مصنوعی در حال تسریع است و شکاف‌های عمده‌ای در افق است

"به جای اینکه منتظر پیشرفت‌های واقعی مفهومی در هوش مصنوعی باشیم، ممکن است بتوانیم از قدرت خام محاسبات کوانتومی برای دور زدن برخی از موانع موجود در الگوریتم‌های 'غیرهوشمند' فعلی استفاده کنیم."

پیشرفت‌های سریع. سال‌های اخیر شاهد بهبودهای چشمگیری در قابلیت‌های هوش مصنوعی در حوزه‌های مختلف بوده است:

  • بینایی کامپیوتری و پردازش زبان طبیعی
  • بازی‌های رایانه‌ای (مانند AlphaGo و AlphaZero)
  • رباتیک و سیستم‌های خودران

حوزه‌های تحقیق کلیدی. چندین پیشرفت برای دستیابی به هوش مصنوعی در سطح انسانی مورد نیاز است:

  • درک زبان و استدلال عقل سلیم
  • یادگیری تجمعی مفاهیم و نظریه‌ها
  • کشف اقدامات و برنامه‌ریزی‌های جدید در سطح بالا
  • مدیریت فعالیت‌های ذهنی و متا-شناخت

پتانسیل پیشرفت ناگهانی. در حالی که زمان دقیق دستیابی به هوش مصنوعی در سطح انسانی نامشخص است، مثال‌های تاریخی مانند شکافت هسته‌ای نشان می‌دهد که پیشرفت‌های کلیدی می‌توانند به طور ناگهانی و غیرمنتظره رخ دهند. این اهمیت پرداختن به مسائل ایمنی هوش مصنوعی را به طور پیشگیرانه برجسته می‌کند.

7. پرداختن به ایمنی و اخلاق هوش مصنوعی برای بهره‌برداری مسئولانه از پتانسیل آن ضروری است

"نقص مدل استاندارد در سال 1960 توسط نوربرت وینر، استاد افسانه‌ای MIT و یکی از ریاضیدانان برجسته قرن بیستم، مورد اشاره قرار گرفت."

نگرانی‌های دیرینه. خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی از دهه‌ها پیش توسط پیشگامان این حوزه شناسایی شده است. با این حال، این نگرانی‌ها اغلب تحت تأثیر هیجان درباره قابلیت‌ها و مزایای بالقوه هوش مصنوعی قرار گرفته‌اند.

چالش‌های چندوجهی. اطمینان از توسعه ایمن و اخلاقی هوش مصنوعی شامل پرداختن به چندین مسئله مرتبط است:

  • فنی: طراحی سیستم‌های هوش مصنوعی که به طور قابل اعتمادی به دنبال ارزش‌های انسانی باشند.
  • فلسفی: تعریف و فرموله کردن ترجیحات و اخلاق انسانی.
  • حاکمیتی: توسعه چارچوب‌های نظارتی مناسب و همکاری بین‌المللی.

رویکرد پیشگیرانه. با توجه به ماهیت بالقوه وجودی خطرات هوش مصنوعی، ضروری است که به مسائل ایمنی و اخلاقی پیش از دستیابی به هوش مصنوعی در سطح انسانی پرداخته شود. این نیازمند تلاش‌های تحقیقاتی مستمر، همکاری بین توسعه‌دهندگان هوش مصنوعی و اخلاق‌مداران، و تعامل با سیاست‌گذاران و عموم مردم است.

8. رابطه آینده بین انسان‌ها و هوش مصنوعی نیازمند بازتعریف هوش است

"در واقع، هیچ مشابهی در دنیای کنونی ما برای رابطه‌ای که در آینده با ماشین‌های هوشمند مفید خواهیم داشت وجود ندارد."

فراتر از مدل‌های انسان‌محور. با پیشرفته‌تر شدن سیستم‌های هوش مصنوعی، نیاز داریم که از مقایسه مستقیم آن‌ها با هوش انسانی فراتر برویم. در عوض، باید بر توسعه هوش مصنوعی تمرکز کنیم که قابلیت‌های انسانی را تکمیل و تقویت کند، نه اینکه صرفاً سعی در تکرار یا جایگزینی آن‌ها داشته باشد.

هوش همکاری. آینده‌ای که برای هوش مصنوعی امیدوارکننده‌ترین است، شامل همکاری انسان و ماشین است، جایی که:

  • سیستم‌های هوش مصنوعی وظایفی را انجام می‌دهند که از نقاط قوت آن‌ها در پردازش داده و شناسایی الگوها بهره می‌برند.
  • انسان‌ها بر استدلال سطح بالا، خلاقیت و هوش عاطفی تمرکز می‌کنند.
  • این ترکیب منجر به قابلیت‌هایی می‌شود که فراتر از آنچه هر یک به تنهایی می‌توانند به دست آورند، خواهد بود.

پیامدهای فلسفی. توسعه هوش مصنوعی پیشرفته ما را مجبور می‌کند که سوالات بنیادی درباره ماهیت هوش، آگاهی و هویت انسانی را دوباره بررسی کنیم. با ایجاد ماشین‌هایی که می‌توانند به شیوه‌هایی فکر و یاد بگیرند که ممکن است از توانایی‌های انسانی فراتر رود، باید با این موضوع دست و پنجه نرم کنیم که در دنیایی که با هوش مصنوعی فوق‌هوشمند مشترک است، چه معنایی برای انسان بودن وجود دارد.

آخرین به‌روزرسانی::

FAQ

What's Human Compatible: Artificial Intelligence and the Problem of Control about?

  • Exploration of AI's Future: The book examines the development and potential future of artificial intelligence (AI), focusing on its implications for humanity.
  • Human-AI Relationship: Stuart Russell emphasizes the importance of ensuring AI systems remain beneficial to humans as they become more advanced.
  • Potential Risks: The book warns of existential risks posed by superintelligent AI if not properly controlled, advocating for proactive measures to address these challenges.

Why should I read Human Compatible?

  • Timely and Relevant: As AI technology advances rapidly, understanding its societal implications is crucial, making this book a timely read.
  • Expert Perspective: Written by a leading AI researcher, Stuart Russell provides a credible and insightful discussion on AI safety and ethics.
  • Framework for Action: The book offers practical approaches to designing AI systems that align with human values, encouraging critical thinking about AI's future.

What are the key takeaways of Human Compatible?

  • AI Control is Essential: Retaining control over AI systems is crucial to prevent catastrophic outcomes as they become more intelligent.
  • Redefining Intelligence: The book suggests redefining intelligence to focus on achieving human objectives rather than optimizing predefined goals.
  • Collaborative Human-Machine Future: Russell advocates for a future where humans and machines work together, with machines learning from human behavior and preferences.

What are the best quotes from Human Compatible and what do they mean?

  • Dual Nature of AI: “Success would be the biggest event in human history . . . and perhaps the last event in human history.” This highlights the potential and risks of AI advancements.
  • Alignment with Human Values: “If we use, to achieve our purposes, a mechanical agency with whose operation we cannot interfere effectively . . . we had better be quite sure that the purpose put into the machine is the purpose which we really desire.” This stresses the importance of aligning AI with human values.
  • Focus on Human Objectives: “Machines are beneficial to the extent that their actions can be expected to achieve our objectives.” This encapsulates the argument for redefining AI to focus on human objectives.

How does Human Compatible address the problem of AI control?

  • Control Problem: The book identifies the "control problem" as a critical challenge, where advanced AI may act against human intentions.
  • Assistance Games: Introduces "assistance games" where AI learns to assist humans by understanding their preferences through observation.
  • Provably Beneficial AI: Advocates for designing AI systems that can be mathematically proven to be beneficial to humans.

What is the "standard model" of AI mentioned in Human Compatible?

  • Definition of the Standard Model: Refers to designing machines to optimize a fixed objective supplied by humans.
  • Limitations: Russell argues this model is flawed as it assumes machines can perfectly understand and execute human objectives.
  • Need for a New Approach: Advocates for a shift towards a framework allowing machines to learn and adapt to human preferences.

How does Human Compatible define intelligence?

  • Intelligence as Action: Defined as the ability to act in ways that achieve one's objectives based on perceived information.
  • Focus on Human Objectives: Emphasizes designing machines to understand and pursue human objectives rather than their own.
  • Learning from Experience: Intelligence involves learning from experience and adapting behavior, crucial for serving human needs.

What is the "gorilla problem" in Human Compatible?

  • Definition: Refers to the concern that humans may lose control over superintelligent machines, similar to gorillas losing autonomy to humans.
  • Historical Context: Draws parallels between gorillas' plight and humanity's potential future with AI.
  • Call to Action: Emphasizes the need for proactive measures to ensure AI systems remain aligned with human values.

What are the principles for creating beneficial AI in Human Compatible?

  • Maximizing Human Preferences: Machines should aim to maximize the realization of human preferences.
  • Uncertainty About Preferences: Machines should be uncertain about human preferences, promoting a humble approach to AI design.
  • Learning from Human Behavior: Machines should learn from human behavior to better serve human needs.

What is the significance of learning human preferences in Human Compatible?

  • Understanding Preferences: AI must learn human preferences to function effectively and safely.
  • Dynamic Learning: Human preferences change over time, requiring AI systems to adapt and update their understanding.
  • Ethical Implications: Raises ethical questions about how AI interprets and acts on learned preferences.

How does Human Compatible discuss the risks of AI misuse?

  • Potential for Misuse: Warns of AI technologies being misused for harmful purposes, such as surveillance or autonomous weapons.
  • Historical Context: Highlights the importance of learning from past technological advancements to avoid repeating mistakes.
  • Global Cooperation: Calls for international cooperation to establish guidelines and standards for AI development.

What is the role of regulation in AI development according to Human Compatible?

  • Need for Regulation: Argues that regulation is crucial for the safe and ethical development of AI technologies.
  • Collaborative Efforts: Emphasizes collaboration between governments, researchers, and industry to create effective regulations.
  • Establishing Standards: Suggests focusing on clear standards for AI safety and control to guide development.

نقد و بررسی

4.06 از 5
میانگین از 4k+ امتیازات از Goodreads و Amazon.

کتاب سازگاری انسانی به بررسی چالش‌ها و خطرات بالقوه‌ی هوش مصنوعی می‌پردازد و رویکردی جدید برای توسعه‌ی هوش مصنوعی پیشنهاد می‌کند که بر هم‌راستایی اهداف ماشین با ترجیحات انسانی متمرکز است. راسل بر اهمیت تحقیق و مقررات ایمنی هوش مصنوعی تأکید می‌کند و به بررسی سوءاستفاده‌های احتمالی و نیاز به هوش مصنوعی اثبات‌شده و مفید می‌پردازد. این کتاب دیدگاهی متعادل درباره‌ی آینده‌ی هوش مصنوعی ارائه می‌دهد و بینش‌های فنی را با ملاحظات فلسفی ترکیب می‌کند. در حالی که برخی از خوانندگان آن را اضطراب‌آور یافتند، بسیاری از دسترسی و محتوای تحریک‌کننده‌ی تفکر آن تمجید کردند و آن را خواندنی ضروری برای درک تأثیر هوش مصنوعی بر جامعه دانستند.

درباره نویسنده

استوارت راسل، دانشمند برجسته‌ی کامپیوتر و پژوهشگر هوش مصنوعی، به‌عنوان یکی از نویسندگان کتاب «هوش مصنوعی: رویکردی مدرن» شناخته می‌شود که به‌عنوان یک منبع درسی پرکاربرد در این حوزه محسوب می‌شود. او استاد دانشگاه کالیفرنیا، برکلی است و کرسی اسمیت-زاده را در رشته مهندسی در اختیار دارد. تمرکز کارهای راسل بر آینده‌ی بلندمدت هوش مصنوعی و چالش‌های ایجاد سیستم‌های هوش مصنوعی مفید است. او یکی از صداهای پیشرو در مباحث مربوط به ایمنی و اخلاق هوش مصنوعی بوده و به توسعه‌ی مسئولانه‌ی فناوری‌های هوش مصنوعی تأکید می‌کند. تخصص و سبک ارتباطی واضح راسل او را به شخصیتی محترم در گفتمان‌های علمی و عمومی در زمینه‌ی هوش مصنوعی تبدیل کرده است.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Mar 1,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
50,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →