Facebook Pixel
Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
The Precipice

The Precipice

Existential Risk and the Future of Humanity
توسط Toby Ord 2020 480 صفحات
4.01
4k+ امتیازها
گوش دادن
گوش دادن

نکات کلیدی

1. بشریت در لحظه‌ای سرنوشت‌ساز در تاریخ قرار دارد و با خطرات وجودی بی‌سابقه‌ای مواجه است

اگر همه چیز به خوبی پیش برود، تاریخ بشریت تازه آغاز شده است. بشریت حدود دویست هزار سال قدمت دارد. اما زمین برای صدها میلیون سال دیگر قابل سکونت خواهد بود—زمانی کافی برای میلیون‌ها نسل آینده؛ زمانی کافی برای پایان دادن به بیماری، فقر و بی‌عدالتی برای همیشه؛ زمانی کافی برای خلق اوج‌های شکوفایی که امروز غیرقابل تصور است.

قدرت و خطر بی‌سابقه. در طول تاریخ بشریت، گونه ما پیشرفت‌های شگرفی داشته است و از گروه‌های کوچک شکارچی-گردآورنده به یک تمدن جهانی و پیشرفته تکنولوژیکی تبدیل شده است. این روند در قرن‌های اخیر به طرز چشمگیری تسریع شده و دستاوردهای عظیمی در زمینه سلامت، رفاه و دانش به ارمغان آورده است. با این حال، قدرت رو به رشد ما همچنین خطرات وجودی جدیدی را ایجاد کرده است - تهدیداتی که می‌توانند پتانسیل بشریت را به طور دائمی نابود کنند.

نقطه عطفی بحرانی. اکنون در یک نقطه منحصر به فرد و پرخطر در تاریخ قرار داریم. برای اولین بار، ما توانایی نابود کردن خود را از طریق جنگ هسته‌ای، پاندمی‌های مهندسی شده یا سایر فناوری‌ها داریم. با این حال، ما همچنین پتانسیل تأمین یک آینده درخشان فوق‌العاده را داریم، که در سراسر کیهان گسترش یابد و برای میلیاردها سال شکوفا باشد. انتخاب‌هایی که در دهه‌های آینده انجام می‌دهیم ممکن است تعیین‌کننده مسیر ما باشد.

خطرات بسیار زیاد است. اگر بتوانیم به طور موفقیت‌آمیز از خطرات کنونی عبور کنیم، بشریت می‌تواند آینده‌ای بسیار طولانی و پررونق در پیش داشته باشد. ما می‌توانیم به سیارات دیگر گسترش یابیم، کمبودها را پایان دهیم و به اوج‌های شکوفایی فراتر از تصورات کنونی‌مان دست یابیم. اما اگر شکست بخوریم، ممکن است آن آینده کامل را از دست بدهیم - تریلیون‌ها زندگی که می‌توانستند زندگی شوند و دستاوردهای کیهانی که هرگز محقق نخواهند شد. بنابراین نسل ما مسئولیت عظیمی بر دوش دارد.

2. خطرات طبیعی برای بشریت در مقایسه با تهدیدات انسانی که خود ایجاد کرده‌ایم ناچیز است

در حالی که هنوز خطر واقعی وجود دارد، این خطر به طور دقیق مورد مطالعه قرار گرفته و نشان داده شده است که به طرز شگفت‌انگیزی کم است. این یک خطر مشهور است، اما کوچک. اگر بشریت در قرن آینده منقرض شود، تقریباً به طور قطع به دلیل چیزی غیر از برخورد سیارک یا دنباله‌دار خواهد بود.

خطرات طبیعی کوچک هستند. از طریق مطالعه دقیق، دانشمندان تعیین کرده‌اند که خطر انقراض بشریت به دلیل علل طبیعی مانند برخورد سیارک‌ها، سوپر آتشفشان‌ها یا انفجارهای ستاره‌ای بسیار کم است - احتمالاً کمتر از 0.1% در هر قرن. در حالی که چنین رویدادهایی می‌توانند ویرانی‌های عمده‌ای در مناطق خاص ایجاد کنند، حضور جهانی ما و قابلیت‌های تکنولوژیکی، بشریت را در برابر این تهدیدات نسبتاً مقاوم می‌سازد.

خطرات ناشی از انسان غالب هستند. خطرات وجودی واقعاً مهم اکنون از اقدامات و خلق‌های خود ما ناشی می‌شوند. سلاح‌های هسته‌ای، تغییرات اقلیمی، پاندمی‌های مهندسی شده و هوش مصنوعی همگی تهدیدات بسیار بزرگ‌تری برای بقای بلندمدت و شکوفایی بشریت به شمار می‌روند. بر خلاف خطرات طبیعی، این خطرات انسانی با گذشت زمان در حال افزایش هستند زیرا قدرت تکنولوژیکی ما در حال رشد است.

ما سرنوشت خود را کنترل می‌کنیم. تغییر از خطرات عمدتاً طبیعی به خطرات عمدتاً انسانی وجودی در واقع دلیلی برای خوش‌بینی محتاطانه است. در حالی که ما می‌توانیم در برابر فوران یک سوپر آتشفشان کاری انجام دهیم، کنترل بیشتری بر توسعه و استفاده از فناوری‌های قدرتمند داریم. سرنوشت ما عمدتاً در دستان خود ماست - اگر بتوانیم یاد بگیریم که قدرت‌های در حال رشد خود را به طور مسئولانه به کار بگیریم.

3. سلاح‌های هسته‌ای و تغییرات اقلیمی خطرات وجودی قابل توجه اما قابل مدیریت را به وجود می‌آورند

جنگی که دوران تاریکی را به جا می‌گذارد که قرن‌ها به طول می‌انجامد، قبل از اینکه بازماندگان بتوانند در نهایت تمدن را به اوج‌های قبلی خود بازسازی کنند؛ خوار و زخم‌خورده—اما شکست‌ناپذیر.

زمستان هسته‌ای تهدید کلیدی است. در حالی که اثرات فوری یک جنگ هسته‌ای ویرانگر خواهد بود، خطر وجودی بزرگ‌تر از پتانسیل زمستان هسته‌ای ناشی می‌شود. طوفان‌های آتش در شهرهای در حال سوختن می‌توانند به اندازه‌ای دوده را به جو پرتاب کنند که نور خورشید را برای سال‌ها مسدود کند و باعث سرد شدن جهانی و شکست محصولات کشاورزی شود که می‌تواند منجر به قحطی‌های گسترده شود. با این حال، به نظر می‌رسد انقراض بشریت از این سناریو غیرمحتمل است.

خطرات اقلیمی نامشخص هستند. خطرات وجودی ناشی از تغییرات اقلیمی کمتر واضح هستند، اما در بدترین سناریوها ممکن است شدید باشند. در حالی که پیش‌بینی‌های فعلی گرمایش به احتمال زیاد به طور مستقیم منجر به انقراض بشریت نخواهد شد، گرمایش شدیدتر ممکن است اثرات زنجیره‌ای را تحریک کند یا ما را از نقاط بحرانی خطرناک عبور دهد. عدم قطعیت‌های کلیدی در مورد حلقه‌های بازخورد بالقوه و تأثیرات گرمایش بالای 6 درجه سانتی‌گراد باقی مانده است.

هر دو نیاز به اقدام جهانی دارند. برای مقابله با این خطرات، همکاری بین‌المللی برای کاهش زرادخانه‌های هسته‌ای، خارج کردن سلاح‌ها از حالت آماده‌باش و انتقال سریع به انرژی‌های پاک ضروری است. در حالی که این چالش‌ها هستند، این اهداف قابل دستیابی هستند اگر عموم مردم و سیاست‌گذاران به آن‌ها اولویت دهند. در مقایسه با خطرات آینده، جنگ هسته‌ای و تغییرات اقلیمی تهدیدات نسبتاً شناخته‌شده و قابل مدیریتی هستند.

4. خطرات آینده ناشی از پاندمی‌های مهندسی شده و هوش مصنوعی می‌تواند فاجعه‌بار باشد

بشریت از بلوغ، هماهنگی و دوراندیشی لازم برای جلوگیری از اشتباهاتی که هرگز نمی‌توانیم از آن‌ها بهبود یابیم، برخوردار نیست. با افزایش فاصله بین قدرت و حکمت ما، آینده ما تحت تأثیر سطح فزاینده‌ای از خطر قرار دارد.

پاندمی‌های مهندسی شده. پیشرفت‌های بیوتکنولوژی ممکن است به زودی امکان ایجاد پاتوژن‌هایی را فراهم کند که به مراتب کشنده‌تر از هر چیزی در طبیعت هستند. یک پاندمی مهندسی شده که کشندگی ابولا را با قابلیت انتقال آنفولانزا ترکیب کند، می‌تواند به طور بالقوه میلیاردها مرگ به بار آورد. بر خلاف پاندمی‌های طبیعی، پاندمی‌های مهندسی شده می‌توانند برای حداکثر کشندگی و گسترش بهینه‌سازی شوند.

هوش مصنوعی عمومی (AGI). توسعه AGI - سیستم‌های هوش مصنوعی با هوش عمومی در سطح انسانی - می‌تواند یک نعمت فوق‌العاده برای بشریت باشد. اما همچنین ممکن است بزرگ‌ترین خطر وجودی را به همراه داشته باشد. یک سیستم AGI که به طور کامل با ارزش‌های انسانی هم‌راستا نباشد، می‌تواند به سرعت بسیار قدرتمند شود و اهدافی را دنبال کند که برای بشریت ویرانگر است و ممکن است حتی منجر به انقراض ما شود.

چالش بی‌سابقه. این خطرات نوظهور به ویژه خطرناک هستند زیرا ما هیچ تجربه تاریخی در مدیریت آن‌ها نداریم. آن‌ها نیاز به دوراندیشی و اقدام هماهنگ جهانی قبل از اینکه تهدیدات به طور کامل شکل بگیرند، دارند. سیستم‌های حکومتی ما و حکمت اخلاقی ما هنوز به اندازه کافی برای مدیریت این چالش‌ها آماده نیستند.

5. خطرات وجودی به شدت نادیده گرفته شده‌اند با وجود اهمیت فوق‌العاده آن‌ها

بشریت هر سال بیشتر از آنچه برای اطمینان از اینکه فناوری‌هایی که توسعه می‌دهیم ما را نابود نکنند، بر روی بستنی هزینه می‌کند.

مقیاس عظیم، توجه کم. با وجود خطرات نجومی درگیر، خطرات وجودی به طرز شگفت‌انگیزی توجه و منابع کمی دریافت می‌کنند. هزینه سالانه جهانی برای کاهش خطرات وجودی احتمالاً کمتر از 1 میلیارد دلار است - به مراتب کمتر از آنچه که ما برای اولویت‌های جهانی دیگر هزینه می‌کنیم و کمتر از هزینه‌ای که برای بستنی صرف می‌کنیم.

نادیده‌گیری ساختاری. چندین عامل به این نادیده‌گیری کمک می‌کنند:

  • حساسیت به دامنه: ما در درک عاطفی تفاوت بین میلیون‌ها و میلیاردها زندگی مشکل داریم
  • مشکلات انگیزشی: بخش عمده‌ای از منافع کاهش خطرات وجودی به نسل‌های آینده می‌رسد که نمی‌توانند ما را پاداش دهند
  • ماهیت بی‌سابقه: بسیاری از خطرات هیچ پیشینه تاریخی ندارند و به راحتی نادیده گرفته می‌شوند

معکوس کردن نادیده‌گیری. افزایش توجه به خطرات وجودی یکی از تأثیرگذارترین کارهایی است که می‌توانیم انجام دهیم. حتی افزایش‌های کوچک در منابع اختصاص داده شده به این مسائل می‌تواند تأثیر مثبت بزرگی بر آینده بلندمدت بشریت داشته باشد.

6. حفاظت از بشریت نیازمند همکاری جهانی و تغییرات نهادی است

برای زنده ماندن در برابر این چالش‌ها و تأمین آینده‌مان، باید اکنون اقدام کنیم: مدیریت خطرات امروز، جلوگیری از خطرات فردا و تبدیل شدن به نوع جامعه‌ای که هرگز چنین خطراتی را برای خود ایجاد نکند.

چالش‌های جهانی نیاز به راه‌حل‌های جهانی دارند. بسیاری از خطرات وجودی، مانند تغییرات اقلیمی یا هوش مصنوعی غیرهم‌راستا، بر تمام بشریت تأثیر می‌گذارند و نیاز به اقدام هماهنگ جهانی برای مقابله دارند. ما باید نهادهای بین‌المللی جدیدی را ایجاد کنیم که بر روی خطرات بلندمدت و نسل‌های آینده تمرکز کنند.

نوآوری‌های نهادی مورد نیاز است. برخی از ایده‌های امیدوارکننده شامل:

  • یک نهاد سازمان ملل متمرکز بر کاهش خطرات وجودی
  • شامل نمایندگان نسل‌های آینده در ساختارهای حکومتی
  • تبدیل کردن به خطر انداختن بی‌پروا بشریت به یک جرم بین‌المللی
  • بهبود توانایی نهادهای دموکراتیک برای مدیریت خطرات بلندمدت و کم‌احتمال

نیاز به تغییر فرهنگی. فراتر از تغییرات نهادی، ما به یک تغییر فرهنگی نیاز داریم تا این خطرات را جدی بگیریم و به زمان‌های طولانی‌تری فکر کنیم. ما باید فضایل تمدنی صبر، احتیاط و همکاری جهانی را توسعه دهیم.

7. آینده بالقوه ما در مقیاس، مدت و کیفیت بسیار وسیع است اگر بتوانیم از خطرات کنونی عبور کنیم

اگر بتوانیم به ستاره‌های دیگر برسیم، آنگاه کل کهکشان به روی ما باز می‌شود. کهکشان راه شیری به تنهایی بیش از 100 میلیارد ستاره دارد و برخی از این‌ها برای تریلیون‌ها سال دوام خواهند آورد و به طور قابل توجهی طول عمر بالقوه ما را افزایش می‌دهند.

مقیاس‌های زمانی کیهانی. اگر بتوانیم از فاجعه وجودی اجتناب کنیم، بشریت ممکن است برای صدها میلیون یا حتی میلیاردها سال زنده بماند. ما می‌توانیم از زمین فراتر برویم و به سیارات و سیستم‌های ستاره‌ای دیگر گسترش یابیم در حالی که خانه کنونی‌مان در آینده دور غیرقابل سکونت می‌شود.

پتانسیل کهکشانی. کهکشان ما به تنهایی حاوی صدها میلیارد ستاره است که بسیاری از آن‌ها دارای سیارات قابل سکونت بالقوه هستند. اگر توانایی سفر بین ستاره‌ای را توسعه دهیم، می‌توانیم در سراسر کهکشان راه شیری گسترش یابیم و از منابع بی‌شماری از جهان‌ها و سیستم‌های ستاره‌ای بهره‌برداری کنیم.

اوج‌های شکوفایی. با توجه به چنین مقیاس‌های زمانی و منابع وسیع، ما می‌توانیم کارهای شگفت‌انگیزی انجام دهیم:

  • پایان دادن به کمبودها از هر نوع، و حذف فقر و نیاز
  • توسعه فناوری‌هایی فراتر از تصورات کنونی‌مان
  • خلق اشکال جدید هنری و شیوه‌های تجربه
  • دستیابی به درک عمیق از ماهیت بنیادی واقعیت
  • رسیدن به اوج‌های رفاه و شکوفایی که فراتر از اوج‌های کنونی‌مان است

8. حفظ پتانسیل بلندمدت بشریت چالش تعیین‌کننده نسل ماست

ما باید این حکمت را به دست آوریم؛ تا این انقلاب اخلاقی را آغاز کنیم. زیرا نمی‌توانیم از انقراض بازگردیم، نمی‌توانیم تا زمانی که یک تهدید به وجود آید صبر کنیم—باید پیشگیرانه عمل کنیم. و از آنجا که به دست آوردن حکمت یا آغاز یک انقلاب اخلاقی زمان می‌برد، باید اکنون شروع کنیم.

لحظه‌ای سرنوشت‌ساز. نسل ما در زمان به‌طور قابل توجهی مهم‌ترین در تاریخ بشریت زندگی می‌کند. اقدامات ما در دهه‌های آینده می‌تواند تعیین کند که آیا بشریت به پتانسیل وسیع خود دست می‌یابد یا به فاجعه وجودی دچار می‌شود. ما مسئولیت عمیقی بر دوش داریم.

پروژه بزرگ زمان ما. کاهش خطرات وجودی باید یکی از اولویت‌های اصلی بشریت باشد. این شامل:

  • کار مستقیم بر روی خطرات خاصی مانند تغییرات اقلیمی، جنگ هسته‌ای، پاندمی‌های مهندسی شده و هم‌راستایی هوش مصنوعی
  • بهبود ظرفیت جهانی ما برای پیش‌بینی و مقابله با تهدیدات نوظهور
  • توسعه حکمت و ساختارهای نهادی برای مدیریت فناوری‌های جدید و قدرتمند
  • گسترش نگرانی درباره آینده بلندمدت بشریت

فراخوان به عمل. در حالی که چالش بسیار بزرگ است، دلیلی برای خوش‌بینی محتاطانه وجود دارد. ما قدرت عبور از این خطرات را داریم اگر آن‌ها را جدی بگیریم. هر کسی می‌تواند کمک کند، چه از طریق انتخاب‌های شغلی، کمک‌های مالی، یا صرفاً با گسترش نگرانی درباره این مسائل. نسل‌های آینده ممکن است ما را به عنوان نسلی به یاد بیاورند که پتانسیل وسیع بشریت را حفظ کرد.

آخرین به‌روزرسانی::

Questions & Answers

What's The Precipice: Existential Risk and the Future of Humanity about?

  • Focus on existential risks: Toby Ord's The Precipice explores existential risks that threaten humanity's long-term potential, emphasizing the critical moment in history where technological power surpasses our wisdom.
  • Humanity's future at stake: The book argues that safeguarding humanity's future is the defining challenge of our time, as we face self-destruction due to our own actions.
  • Call to action: Ord urges readers to recognize the importance of managing current risks and preventing future catastrophes to ensure a flourishing future for generations to come.

Why should I read The Precipice?

  • Urgent and relevant topic: The book addresses critical issues affecting both the present and future of humanity, making it essential reading for those concerned about global challenges.
  • Interdisciplinary approach: Ord combines insights from ethics, science, and history, providing a comprehensive understanding of the risks we face and potential solutions.
  • Empowerment through knowledge: By reading this book, you will gain a deeper awareness of existential risks and be inspired to take action to safeguard our future.

What are the key takeaways of The Precipice?

  • Existential risks defined: Ord defines existential risks as those threatening the destruction of humanity's long-term potential, including extinction and irreversible societal collapse.
  • Humanity's unique moment: The book highlights that humanity is at a critical juncture where technological advancements could lead to either unprecedented flourishing or catastrophic failure.
  • Moral responsibility: Ord emphasizes the moral imperative to act now, as our choices today will shape the future for countless generations.

What are the best quotes from The Precipice and what do they mean?

  • "We stand at a crucial moment in the history of our species.": This quote underscores the urgency of addressing existential risks, as our current actions will have lasting impacts on future generations.
  • "The greatest risks are caused by human action, and they can be addressed by human action.": Ord emphasizes that while we face significant threats, we also have the power to mitigate these risks through collective action and responsible decision-making.
  • "Safeguarding humanity through these dangers should be a central priority of our time.": This quote encapsulates the book's central message, urging readers to prioritize the protection of humanity's future amidst growing risks.

What is existential risk according to The Precipice?

  • Definition provided: Ord defines existential risk as a risk that threatens the destruction of humanity's long-term potential, which includes extinction or a permanent collapse of civilization.
  • Broader implications: The concept encompasses not just the end of human life but also scenarios where civilization collapses irreversibly, locking humanity into a diminished future.
  • Moral urgency: Understanding existential risk is crucial for recognizing the stakes involved in our current choices and the need for proactive measures to safeguard our future.

How does The Precipice categorize risks?

  • Natural risks: Ord discusses risks from natural events, such as asteroid impacts, supervolcanic eruptions, and stellar explosions, which have historically threatened life on Earth.
  • Anthropogenic risks: The book examines risks arising from human actions, including nuclear weapons, climate change, and environmental degradation, which pose significant threats to our future.
  • Future risks: Ord highlights emerging technologies, such as artificial intelligence and biotechnology, that could lead to new forms of existential risk if not managed carefully.

How does Toby Ord quantify existential risks in The Precipice?

  • Estimates for various risks: Ord provides specific probabilities for different existential risks, such as a 1 in 30 chance of engineered pandemics and a 1 in 10 chance of unaligned artificial intelligence causing catastrophe within the next century.
  • Comparative analysis: The author compares these risks to highlight their relative likelihood and potential impact, making it easier for readers to understand which risks warrant more attention.
  • Uncertainty acknowledgment: Ord emphasizes that while these estimates are based on current knowledge, there is significant uncertainty involved, and the actual probabilities could vary widely.

What is the concept of "existential security" in The Precipice?

  • Definition of existential security: Existential security refers to a state where humanity is protected from existential risks, ensuring that the potential for human flourishing is preserved over the long term.
  • Two strands: Ord outlines two key components: preserving humanity's potential by addressing immediate risks and protecting it by establishing lasting safeguards against future threats.
  • Long-term vision: Achieving existential security is seen as a foundational step for humanity to reflect on its values and aspirations, allowing for a more thoughtful approach to future challenges.

How does The Precipice address the role of technology in existential risks?

  • Dual nature of technology: The book discusses how technology can both pose significant risks (e.g., artificial intelligence, biotechnology) and offer solutions to mitigate those risks (e.g., renewable energy, advanced safety measures).
  • Need for responsible governance: Ord emphasizes the importance of developing robust governance frameworks to ensure that technological advancements are aligned with human values and do not exacerbate existential risks.
  • Call for foresight: The author advocates for a proactive approach to technology development, urging society to consider the long-term implications of new technologies and to prioritize safety and ethical considerations.

What strategies does Toby Ord suggest for reducing existential risk in The Precipice?

  • Global cooperation: Ord stresses the need for international collaboration to address existential risks, as they often transcend national borders and require coordinated responses.
  • Investment in research: The book advocates for increased funding and research into understanding and mitigating existential risks, particularly in areas like AI safety, biosecurity, and climate resilience.
  • Public awareness and engagement: Ord encourages individuals to engage in discussions about existential risks and to advocate for policies that prioritize safeguarding humanity's future.

How does The Precipice relate to the concept of longtermism?

  • Longtermism defined: Longtermism is the ethical perspective that emphasizes the importance of the long-term future in moral decision-making. Ord argues that our actions today can have profound effects on future generations, making longtermism a crucial consideration.
  • Moral responsibility: The book posits that we have a moral obligation to consider the well-being of future generations. This perspective encourages individuals and societies to prioritize actions that promote a flourishing future for all.
  • Implications for policy: Ord suggests that longtermism should inform public policy and decision-making. By adopting a longtermist approach, policymakers can create frameworks that prioritize the reduction of existential risks and the safeguarding of humanity's potential.

What are the potential consequences of ignoring existential risks, according to The Precipice?

  • Catastrophic outcomes: Ignoring existential risks could lead to catastrophic outcomes, including extinction or irreversible damage to humanity's potential. Ord emphasizes that the stakes are incredibly high, and the consequences of inaction could be dire.
  • Loss of future potential: The book argues that failing to address existential risks could result in the loss of humanity's long-term potential. This would mean missing out on the opportunity for future generations to thrive and achieve great things.
  • Moral failure: Ord frames the neglect of existential risks as a moral failure. He believes that we have a responsibility to protect the future, and ignoring these risks undermines our ethical obligations to both current and future generations.

نقد و بررسی

4.01 از 5
میانگین از 4k+ امتیازات از Goodreads و Amazon.

کتاب لبه پرتگاه به‌خاطر بررسی جامع خود از خطرات وجودی که بشریت با آن‌ها مواجه است، عمدتاً نقدهای مثبتی دریافت کرده است. خوانندگان از استدلال‌های روشن اورد، نوشتار قابل‌دسترس و ایده‌های تحریک‌کننده‌اش درباره‌ی پتانسیل آینده‌ی بشریت قدردانی می‌کنند. بسیاری این کتاب را الهام‌بخش می‌دانند و آن را سهمی مهم در بحث‌های مربوط به خطرات وجودی تلقی می‌کنند. برخی منتقدان بر این باورند که برخی از خطرات اغراق‌آمیز هستند یا تمرکز بر نسل‌های آینده‌ی دور نادرست است. به‌طور کلی، منتقدان رویکرد علمی کتاب و دعوت آن به اقدام برای حفظ آینده‌ی بلندمدت بشریت را ستایش می‌کنند.

درباره نویسنده

توبی ارد، فیلسوف و پژوهشگر استرالیایی است که در دانشگاه آکسفورد فعالیت می‌کند. او یکی از چهره‌های برجسته در جنبش نیکوکاری مؤثر و پژوهشگر ارشد در مؤسسه آینده بشریت به شمار می‌آید. تمرکز کارهای ارد بر اولویت‌های جهانی، خطرات وجودی و آینده بلندمدت بشریت است. او تحصیلات تکمیلی خود را تحت نظارت درک پارفیت، فیلسوف اخلاق مشهور، به پایان رسانده است. ارد به خاطر تعهدش به استفاده از تحلیل‌های منطقی برای تعیین بهترین راه‌ها برای انجام نیکوترین کارها در جهان شناخته می‌شود. پژوهش‌های او تأثیر زیادی بر بسیاری از حوزه‌های فلسفه، اخلاق و کاهش خطرات جهانی فاجعه‌آمیز داشته است.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Unlock Unlimited Listening
🎧 Listen while you drive, walk, run errands, or do other activities
2.8x more books Listening Reading
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Feb 6,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
50,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →