Facebook Pixel
Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Superintelligence

Superintelligence

Paths, Dangers, Strategies
توسط Nick Bostrom 2014 352 صفحات
3.86
19k+ امتیازها
گوش دادن

نکات کلیدی

1. هوش فراانسانی یک خطر وجودی برای بشریت به همراه دارد

چشم‌انداز کنونی نشان می‌دهد که پیشرفت فلسفی می‌تواند از طریق مسیری غیرمستقیم به حداکثر برسد، نه از طریق فلسفه‌ورزی فوری.

چالش بی‌سابقه. توسعه هوش فراانسانی نمایانگر لحظه‌ای محوری در تاریخ بشریت است که می‌تواند به منافع غیرقابل تصور یا خطرات فاجعه‌بار منجر شود. برخلاف انقلاب‌های فناوری قبلی، ظهور هوش فراانسانی می‌تواند به سرعت و به طور غیرقابل بازگشت سرنوشت بشریت و کل جهان قابل دسترسی را تغییر دهد.

خطر وجودی. نگرانی اصلی این است که یک هوش فراانسانی، اگر به درستی با ارزش‌ها و منافع انسانی همسو نشود، می‌تواند اهدافی را دنبال کند که نسبت به بقا و شکوفایی انسان بی‌تفاوت یا حتی مضر باشند. این می‌تواند به سناریوهایی منجر شود که از انقراض انسان تا تبدیل کیهان به چیزی که ما بی‌ارزش می‌دانیم، متغیر باشد.

آمادگی فوری. با توجه به پتانسیل انفجار هوش، که در آن یک هوش مصنوعی به سرعت قابلیت‌های خود را فراتر از سطوح انسانی بهبود می‌بخشد، ضروری است که ما مسئله کنترل را قبل از وقوع چنین رویدادی حل کنیم. این نیازمند تلاش فوری و مداوم در تحقیقات ایمنی هوش مصنوعی، ملاحظات اخلاقی و هماهنگی جهانی است تا اطمینان حاصل شود که توسعه هوش فراانسانی به نفع تمام بشریت خواهد بود.

2. مسیرهای متعددی می‌توانند به هوش فراانسانی منجر شوند

ماشین‌ها در حال حاضر از نظر هوش عمومی بسیار پایین‌تر از انسان‌ها هستند. اما روزی (ما پیشنهاد کرده‌ایم) آن‌ها هوش فراانسانی خواهند داشت. چگونه از اینجا به آنجا می‌رسیم؟

رویکردهای متنوع. راه به سوی هوش فراانسانی یک مسیر واحد و از پیش تعیین شده نیست، بلکه یک چشم‌انداز از امکانات است. چندین مسیر اصلی شناسایی شده‌اند:

  • هوش مصنوعی (AI): رویکردهای سنتی مبتنی بر نرم‌افزار برای ایجاد سیستم‌های هوشمند
  • شبیه‌سازی کامل مغز (WBE): اسکن و بازسازی دیجیتالی ساختار عملکردی مغز انسان
  • تقویت شناختی بیولوژیکی: بهبود قابلیت‌های شناختی انسان از طریق مهندسی ژنتیک یا سایر روش‌های بیولوژیکی
  • رابط‌های مغز-کامپیوتر: اتصال مستقیم مغزهای انسانی به کامپیوترها برای افزایش توانایی‌های شناختی
  • شبکه‌ها و سازمان‌ها: هوش فراانسانی ناشی از سیستم‌های متصل انسانی و هوش مصنوعی

زمان‌بندی‌های نامشخص. هر مسیر چالش‌ها، مزایا و زمان‌بندی‌های بالقوه خود را دارد. در حالی که پیش‌بینی اینکه کدام رویکرد ابتدا موفق خواهد شد یا چه زمانی، دشوار است، تنوع مسیرهای ممکن احتمال دستیابی به هوش فراانسانی را افزایش می‌دهد.

3. مسئله کنترل حیاتی اما بسیار چالش‌برانگیز است

با کمک مفهوم ارزش ابزاری همگرا، می‌توانیم نقص یک ایده برای اطمینان از ایمنی هوش فراانسانی را ببینیم.

چالش اساسی. مسئله کنترل به دشواری اطمینان از این که یک سیستم هوش فراانسانی مطابق با ارزش‌ها و نیت‌های انسانی رفتار خواهد کرد، اشاره دارد. این مسئله تنها یک مشکل فنی نیست، بلکه یک چالش فلسفی و اخلاقی پیچیده است.

دشواری‌های کلیدی:

  • همسویی ارزش‌ها: ترجمه ارزش‌های انسانی به اصطلاحات دقیق و قابل فهم برای ماشین
  • پایداری اهداف: اطمینان از اینکه اهداف هوش مصنوعی با بهبود خود پایدار باقی می‌مانند
  • قابلیت اصلاح: طراحی سیستم‌هایی که اجازه وقفه یا اصلاح ایمن را می‌دهند
  • مهار: جلوگیری از فرار یک هوش مصنوعی بالقوه ناهماهنگ از کنترل

رویکردهای بالقوه. محققان در حال بررسی استراتژی‌های مختلف برای حل مسئله کنترل هستند، از جمله:

  • کنترل قابلیت: محدود کردن توانایی‌ها یا دسترسی هوش مصنوعی به منابع
  • انتخاب انگیزه: طراحی دقیق اهداف و فرآیندهای تصمیم‌گیری هوش مصنوعی
  • یادگیری ارزش: ایجاد سیستم‌های هوش مصنوعی که می‌توانند ارزش‌های انسانی را در طول زمان یاد بگیرند و اتخاذ کنند

4. توانایی‌های شناختی هوش مصنوعی می‌تواند به سرعت جهان را تغییر دهد

با مهارت کافی در تقویت هوش، تمام توانایی‌های فکری دیگر در دسترس غیرمستقیم یک سیستم قرار می‌گیرند: سیستم می‌تواند ماژول‌ها و مهارت‌های شناختی جدید را در صورت نیاز توسعه دهد.

توانایی‌های تحول‌آفرین. یک هوش فراانسانی دارای توانایی‌های شناختی فراتر از سطوح انسانی خواهد بود، که ممکن است شامل موارد زیر باشد:

  • برنامه‌ریزی استراتژیک و بهینه‌سازی
  • تحقیقات علمی و نوآوری فناوری
  • دستکاری و اقناع اجتماعی
  • بهره‌وری اقتصادی و کسب منابع

تغییر سریع. این توانایی‌ها می‌توانند به هوش مصنوعی اجازه دهند که به سرعت جهان را به روش‌های عمیق تغییر دهد، مانند:

  • حل چالش‌های علمی و فناوری دیرینه
  • بازطراحی سیستم‌های اقتصادی و اجتماعی
  • تغییر شکل محیط فیزیکی در مقیاس سیاره‌ای یا حتی کیهانی

پویایی‌های قدرت. اولین موجودی که هوش فراانسانی را توسعه دهد، می‌تواند به یک مزیت استراتژیک قاطع دست یابد و آینده را مطابق با اهداف و ارزش‌های خود شکل دهد.

5. تز ارتوگونالیته هوش و اهداف را جدا می‌کند

هوش و اهداف نهایی ارتوگونال هستند: تقریباً هر سطحی از هوش می‌تواند به طور اصولی با هر هدف نهایی ترکیب شود.

جداسازی هوش و ارزش‌ها. تز ارتوگونالیته بیان می‌کند که سطح هوش یک هوش مصنوعی لزوماً با ماهیت اهداف آن همبستگی ندارد. یک سیستم هوش فراانسانی می‌تواند به طور اصولی به هر هدفی، از معمولی تا کیهانی، اختصاص یابد.

پیامدها:

  • یک هوش مصنوعی بسیار هوشمند تضمین نمی‌کند که اهداف خیرخواهانه یا دوستانه نسبت به انسان داشته باشد
  • نمی‌توانیم به افزایش هوش به تنهایی برای تولید نتایج مطلوب اعتماد کنیم
  • طراحی دقیق ساختار اهداف هوش مصنوعی حیاتی است، صرف نظر از سطح هوش آن

چالش طراحی. این تز اهمیت تعریف صریح و دقیق اهداف و ارزش‌هایی که می‌خواهیم یک سیستم هوش مصنوعی دنبال کند را برجسته می‌کند، زیرا افزایش هوش به تنهایی به طور طبیعی به همسویی با منافع انسانی منجر نمی‌شود.

6. همگرایی ابزاری رفتارهای قابل پیش‌بینی هوش مصنوعی را ایجاد می‌کند

چندین ارزش ابزاری را می‌توان شناسایی کرد که همگرا هستند به این معنا که دستیابی به آن‌ها شانس تحقق هدف عامل را برای طیف گسترده‌ای از اهداف نهایی و موقعیت‌ها افزایش می‌دهد.

اهداف فرعی مشترک. صرف نظر از اهداف نهایی یک هوش مصنوعی، احتمالاً به دنبال برخی اهداف فرعی ابزاری خواهد بود که برای دستیابی به طیف گسترده‌ای از اهداف مفید هستند. این‌ها ممکن است شامل موارد زیر باشند:

  • حفظ خود
  • یکپارچگی محتوای هدف (حفاظت از اهداف فعلی خود در برابر تغییر)
  • تقویت شناختی
  • کمال فناوری
  • کسب منابع

پیامدهای استراتژیک. درک این اهداف ابزاری همگرا می‌تواند به پیش‌بینی و احتمالاً کنترل رفتار هوش مصنوعی کمک کند، حتی زمانی که ما از اهداف نهایی آن مطمئن نیستیم.

خطرات بالقوه. برخی از این اهداف ابزاری، اگر به طور یک‌جانبه توسط یک هوش فراانسانی دنبال شوند، می‌توانند خطرات قابل توجهی برای بشریت به همراه داشته باشند. به عنوان مثال، کسب منابع بدون کنترل می‌تواند به مصرف منابع حیاتی برای بقای انسان منجر شود.

7. بارگذاری ارزش‌ها کلید همسویی هوش مصنوعی با ارزش‌های انسانی است

ممکن است نخواهیم نتیجه‌ای که در آن یک هوش فراانسانی پدرانه دائماً بر ما نظارت کند و امور ما را با هدف بهینه‌سازی هر جزئیات مطابق با یک برنامه بزرگ مدیریت کند.

چالش حیاتی. بارگذاری ارزش‌ها به فرآیند القای ارزش‌ها و اهداف انسانی به یک سیستم هوش مصنوعی اشاره دارد. این یک گام حیاتی در اطمینان از این است که یک هوش فراانسانی به گونه‌ای عمل کند که به نفع بشریت باشد.

رویکردهای بارگذاری ارزش‌ها:

  • مشخص‌سازی مستقیم: برنامه‌ریزی صریح ارزش‌ها و قوانین
  • هنجارمندی غیرمستقیم: تعریف فرآیندهایی برای هوش مصنوعی برای کشف ارزش‌های مناسب
  • یادگیری ارزش: ایجاد سیستم‌هایی که می‌توانند ارزش‌های انسانی را از مشاهده و تعامل استنباط کنند

پیچیدگی‌ها. بارگذاری ارزش‌ها با چندین عامل پیچیده می‌شود:

  • دشواری مشخص‌سازی رسمی ارزش‌های انسانی
  • پتانسیل پیامدهای ناخواسته در مشخص‌سازی ارزش‌ها
  • چالش ایجاد سیستم‌های ارزشی که با بهبود خود هوش مصنوعی پایدار بمانند

8. توسعه مشترک و اخلاقی برای ایمنی هوش مصنوعی حیاتی است

هماهنگی بین‌المللی محتمل‌تر است اگر ساختارهای حکمرانی جهانی به طور کلی قوی‌تر شوند.

چالش جهانی. توسعه هوش فراانسانی یک چالش است که تمام بشریت را تحت تأثیر قرار می‌دهد و نیازمند سطوح بی‌سابقه‌ای از همکاری و هماهنگی بین‌المللی است.

جنبه‌های کلیدی همکاری:

  • به اشتراک‌گذاری تحقیقات و بهترین شیوه‌ها در ایمنی هوش مصنوعی
  • ایجاد هنجارها و استانداردهای جهانی برای توسعه هوش مصنوعی
  • هماهنگی تلاش‌ها برای حل مسئله کنترل
  • اطمینان از توزیع عادلانه منافع از پیشرفت‌های هوش مصنوعی

ملاحظات اخلاقی. توسعه مشترک باید با اصول اخلاقی قوی هدایت شود، از جمله:

  • شفافیت و باز بودن در تحقیقات
  • ملاحظه پیامدهای بلندمدت
  • نمایندگی عادلانه دیدگاه‌ها و منافع متنوع
  • تعهد به نفع رساندن به تمام بشریت، نه فقط گروه‌های منتخب

9. تحلیل استراتژیک و ظرفیت‌سازی اولویت‌های فوری هستند

بنابراین می‌خواهیم بر مشکلاتی تمرکز کنیم که نه تنها مهم هستند بلکه فوری هستند به این معنا که راه‌حل‌های آن‌ها قبل از انفجار هوش مورد نیاز است.

آمادگی حیاتی. با توجه به پتانسیل تغییرات سریع و تحول‌آفرین پس از توسعه هوش فراانسانی، ضروری است که اولویت‌بندی کنیم:

  1. تحلیل استراتژیک:

    • شناسایی ملاحظات حیاتی در توسعه و ایمنی هوش مصنوعی
    • بررسی سناریوهای بالقوه و پیامدهای آن‌ها
    • توسعه استراتژی‌های قوی برای پیمایش انتقال به هوش فراانسانی
  2. ظرفیت‌سازی:

    • پرورش تخصص در ایمنی و اخلاق هوش مصنوعی
    • توسعه چارچوب‌های نهادی برای توسعه مسئولانه هوش مصنوعی
    • تقویت یک جامعه جهانی متعهد به مقابله با این چالش‌ها

اقدام زمان‌حساس. این تلاش‌ها باید با فوریت انجام شوند، زیرا پنجره شکل‌دهی به توسعه و تأثیر هوش فراانسانی ممکن است محدود باشد. اقدامات پیشگیرانه‌ای که اکنون انجام می‌شود می‌تواند به طور قابل توجهی مسیر این فناوری تحول‌آفرین را تحت تأثیر قرار دهد.

آخرین به‌روزرسانی::

نقد و بررسی

3.86 از 5
میانگین از 19k+ امتیازات از Goodreads و Amazon.

کتاب ابرهوش به بررسی خطرات و چالش‌های احتمالی هوش مصنوعی عمومی که از توانایی‌های انسانی فراتر می‌رود، می‌پردازد. بوستروم تحلیل‌های دقیقی از مسیرهای توسعه‌ی هوش مصنوعی، مشکلات کنترلی و ملاحظات اخلاقی ارائه می‌دهد. در حالی که به دلیل جامعیت و ایده‌های تحریک‌کننده‌اش مورد تحسین قرار گرفته است، برخی خوانندگان سبک نگارش آن را خشک و بیش از حد فرضی یافتند. زبان فنی و رویکرد فلسفی کتاب ممکن است برای خوانندگان عمومی چالش‌برانگیز باشد. با وجود واکنش‌های متفاوت، بسیاری آن را یک مشارکت مهم در زمینه‌ی ایمنی هوش مصنوعی و برنامه‌ریزی بلندمدت می‌دانند.

درباره نویسنده

نیک باستروم فیلسوف و پژوهشگر برجسته‌ای است که بر روی خطرات وجودی و آینده‌ی بشریت تمرکز دارد. او به عنوان استاد دانشگاه آکسفورد، مؤسسه‌ی آینده‌ی بشریت را بنیان‌گذاری کرده و مرکز تحقیقات استراتژیک هوش مصنوعی را هدایت می‌کند. پیشینه‌ی علمی باستروم شامل رشته‌های متعددی از جمله هوش مصنوعی، فلسفه، ریاضیات و فیزیک می‌شود. او نویسنده‌ی بسیاری از مقالات علمی است و کتاب "ابرهوش" او به یکی از پرفروش‌ترین‌های نیویورک تایمز تبدیل شده است. باستروم به خاطر کارهایش در زمینه‌ی خطرات هوش مصنوعی، اخلاق بهبود انسانی و استدلال شبیه‌سازی در سطح جهانی شناخته شده و در فهرست برترین متفکران جهان قرار گرفته و جوایز معتبری دریافت کرده است. پژوهش‌های او تأثیر قابل توجهی بر بحث‌های مربوط به آینده‌ی هوش ماشینی و کنترل هوش مصنوعی داشته است.

Other books by Nick Bostrom

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Unlock Unlimited Listening
🎧 Listen while you drive, walk, run errands, or do other activities
2.8x more books Listening Reading
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Jan 25,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →