نکات کلیدی
1. بشریت در لحظهای سرنوشتساز در تاریخ قرار دارد و با خطرات وجودی بیسابقهای مواجه است
اگر همه چیز به خوبی پیش برود، تاریخ بشریت تازه آغاز شده است. بشریت حدود دویست هزار سال قدمت دارد. اما زمین برای صدها میلیون سال دیگر قابل سکونت خواهد بود—زمانی کافی برای میلیونها نسل آینده؛ زمانی کافی برای پایان دادن به بیماری، فقر و بیعدالتی برای همیشه؛ زمانی کافی برای خلق اوجهای شکوفایی که امروز غیرقابل تصور است.
قدرت و خطر بیسابقه. در طول تاریخ بشریت، گونه ما پیشرفتهای شگرفی داشته است و از گروههای کوچک شکارچی-گردآورنده به یک تمدن جهانی و پیشرفته تکنولوژیکی تبدیل شده است. این روند در قرنهای اخیر به طرز چشمگیری تسریع شده و دستاوردهای عظیمی در زمینه سلامت، رفاه و دانش به ارمغان آورده است. با این حال، قدرت رو به رشد ما همچنین خطرات وجودی جدیدی را ایجاد کرده است - تهدیداتی که میتوانند پتانسیل بشریت را به طور دائمی نابود کنند.
نقطه عطفی بحرانی. اکنون در یک نقطه منحصر به فرد و پرخطر در تاریخ قرار داریم. برای اولین بار، ما توانایی نابود کردن خود را از طریق جنگ هستهای، پاندمیهای مهندسی شده یا سایر فناوریها داریم. با این حال، ما همچنین پتانسیل تأمین یک آینده درخشان فوقالعاده را داریم، که در سراسر کیهان گسترش یابد و برای میلیاردها سال شکوفا باشد. انتخابهایی که در دهههای آینده انجام میدهیم ممکن است تعیینکننده مسیر ما باشد.
خطرات بسیار زیاد است. اگر بتوانیم به طور موفقیتآمیز از خطرات کنونی عبور کنیم، بشریت میتواند آیندهای بسیار طولانی و پررونق در پیش داشته باشد. ما میتوانیم به سیارات دیگر گسترش یابیم، کمبودها را پایان دهیم و به اوجهای شکوفایی فراتر از تصورات کنونیمان دست یابیم. اما اگر شکست بخوریم، ممکن است آن آینده کامل را از دست بدهیم - تریلیونها زندگی که میتوانستند زندگی شوند و دستاوردهای کیهانی که هرگز محقق نخواهند شد. بنابراین نسل ما مسئولیت عظیمی بر دوش دارد.
2. خطرات طبیعی برای بشریت در مقایسه با تهدیدات انسانی که خود ایجاد کردهایم ناچیز است
در حالی که هنوز خطر واقعی وجود دارد، این خطر به طور دقیق مورد مطالعه قرار گرفته و نشان داده شده است که به طرز شگفتانگیزی کم است. این یک خطر مشهور است، اما کوچک. اگر بشریت در قرن آینده منقرض شود، تقریباً به طور قطع به دلیل چیزی غیر از برخورد سیارک یا دنبالهدار خواهد بود.
خطرات طبیعی کوچک هستند. از طریق مطالعه دقیق، دانشمندان تعیین کردهاند که خطر انقراض بشریت به دلیل علل طبیعی مانند برخورد سیارکها، سوپر آتشفشانها یا انفجارهای ستارهای بسیار کم است - احتمالاً کمتر از 0.1% در هر قرن. در حالی که چنین رویدادهایی میتوانند ویرانیهای عمدهای در مناطق خاص ایجاد کنند، حضور جهانی ما و قابلیتهای تکنولوژیکی، بشریت را در برابر این تهدیدات نسبتاً مقاوم میسازد.
خطرات ناشی از انسان غالب هستند. خطرات وجودی واقعاً مهم اکنون از اقدامات و خلقهای خود ما ناشی میشوند. سلاحهای هستهای، تغییرات اقلیمی، پاندمیهای مهندسی شده و هوش مصنوعی همگی تهدیدات بسیار بزرگتری برای بقای بلندمدت و شکوفایی بشریت به شمار میروند. بر خلاف خطرات طبیعی، این خطرات انسانی با گذشت زمان در حال افزایش هستند زیرا قدرت تکنولوژیکی ما در حال رشد است.
ما سرنوشت خود را کنترل میکنیم. تغییر از خطرات عمدتاً طبیعی به خطرات عمدتاً انسانی وجودی در واقع دلیلی برای خوشبینی محتاطانه است. در حالی که ما میتوانیم در برابر فوران یک سوپر آتشفشان کاری انجام دهیم، کنترل بیشتری بر توسعه و استفاده از فناوریهای قدرتمند داریم. سرنوشت ما عمدتاً در دستان خود ماست - اگر بتوانیم یاد بگیریم که قدرتهای در حال رشد خود را به طور مسئولانه به کار بگیریم.
3. سلاحهای هستهای و تغییرات اقلیمی خطرات وجودی قابل توجه اما قابل مدیریت را به وجود میآورند
جنگی که دوران تاریکی را به جا میگذارد که قرنها به طول میانجامد، قبل از اینکه بازماندگان بتوانند در نهایت تمدن را به اوجهای قبلی خود بازسازی کنند؛ خوار و زخمخورده—اما شکستناپذیر.
زمستان هستهای تهدید کلیدی است. در حالی که اثرات فوری یک جنگ هستهای ویرانگر خواهد بود، خطر وجودی بزرگتر از پتانسیل زمستان هستهای ناشی میشود. طوفانهای آتش در شهرهای در حال سوختن میتوانند به اندازهای دوده را به جو پرتاب کنند که نور خورشید را برای سالها مسدود کند و باعث سرد شدن جهانی و شکست محصولات کشاورزی شود که میتواند منجر به قحطیهای گسترده شود. با این حال، به نظر میرسد انقراض بشریت از این سناریو غیرمحتمل است.
خطرات اقلیمی نامشخص هستند. خطرات وجودی ناشی از تغییرات اقلیمی کمتر واضح هستند، اما در بدترین سناریوها ممکن است شدید باشند. در حالی که پیشبینیهای فعلی گرمایش به احتمال زیاد به طور مستقیم منجر به انقراض بشریت نخواهد شد، گرمایش شدیدتر ممکن است اثرات زنجیرهای را تحریک کند یا ما را از نقاط بحرانی خطرناک عبور دهد. عدم قطعیتهای کلیدی در مورد حلقههای بازخورد بالقوه و تأثیرات گرمایش بالای 6 درجه سانتیگراد باقی مانده است.
هر دو نیاز به اقدام جهانی دارند. برای مقابله با این خطرات، همکاری بینالمللی برای کاهش زرادخانههای هستهای، خارج کردن سلاحها از حالت آمادهباش و انتقال سریع به انرژیهای پاک ضروری است. در حالی که این چالشها هستند، این اهداف قابل دستیابی هستند اگر عموم مردم و سیاستگذاران به آنها اولویت دهند. در مقایسه با خطرات آینده، جنگ هستهای و تغییرات اقلیمی تهدیدات نسبتاً شناختهشده و قابل مدیریتی هستند.
4. خطرات آینده ناشی از پاندمیهای مهندسی شده و هوش مصنوعی میتواند فاجعهبار باشد
بشریت از بلوغ، هماهنگی و دوراندیشی لازم برای جلوگیری از اشتباهاتی که هرگز نمیتوانیم از آنها بهبود یابیم، برخوردار نیست. با افزایش فاصله بین قدرت و حکمت ما، آینده ما تحت تأثیر سطح فزایندهای از خطر قرار دارد.
پاندمیهای مهندسی شده. پیشرفتهای بیوتکنولوژی ممکن است به زودی امکان ایجاد پاتوژنهایی را فراهم کند که به مراتب کشندهتر از هر چیزی در طبیعت هستند. یک پاندمی مهندسی شده که کشندگی ابولا را با قابلیت انتقال آنفولانزا ترکیب کند، میتواند به طور بالقوه میلیاردها مرگ به بار آورد. بر خلاف پاندمیهای طبیعی، پاندمیهای مهندسی شده میتوانند برای حداکثر کشندگی و گسترش بهینهسازی شوند.
هوش مصنوعی عمومی (AGI). توسعه AGI - سیستمهای هوش مصنوعی با هوش عمومی در سطح انسانی - میتواند یک نعمت فوقالعاده برای بشریت باشد. اما همچنین ممکن است بزرگترین خطر وجودی را به همراه داشته باشد. یک سیستم AGI که به طور کامل با ارزشهای انسانی همراستا نباشد، میتواند به سرعت بسیار قدرتمند شود و اهدافی را دنبال کند که برای بشریت ویرانگر است و ممکن است حتی منجر به انقراض ما شود.
چالش بیسابقه. این خطرات نوظهور به ویژه خطرناک هستند زیرا ما هیچ تجربه تاریخی در مدیریت آنها نداریم. آنها نیاز به دوراندیشی و اقدام هماهنگ جهانی قبل از اینکه تهدیدات به طور کامل شکل بگیرند، دارند. سیستمهای حکومتی ما و حکمت اخلاقی ما هنوز به اندازه کافی برای مدیریت این چالشها آماده نیستند.
5. خطرات وجودی به شدت نادیده گرفته شدهاند با وجود اهمیت فوقالعاده آنها
بشریت هر سال بیشتر از آنچه برای اطمینان از اینکه فناوریهایی که توسعه میدهیم ما را نابود نکنند، بر روی بستنی هزینه میکند.
مقیاس عظیم، توجه کم. با وجود خطرات نجومی درگیر، خطرات وجودی به طرز شگفتانگیزی توجه و منابع کمی دریافت میکنند. هزینه سالانه جهانی برای کاهش خطرات وجودی احتمالاً کمتر از 1 میلیارد دلار است - به مراتب کمتر از آنچه که ما برای اولویتهای جهانی دیگر هزینه میکنیم و کمتر از هزینهای که برای بستنی صرف میکنیم.
نادیدهگیری ساختاری. چندین عامل به این نادیدهگیری کمک میکنند:
- حساسیت به دامنه: ما در درک عاطفی تفاوت بین میلیونها و میلیاردها زندگی مشکل داریم
- مشکلات انگیزشی: بخش عمدهای از منافع کاهش خطرات وجودی به نسلهای آینده میرسد که نمیتوانند ما را پاداش دهند
- ماهیت بیسابقه: بسیاری از خطرات هیچ پیشینه تاریخی ندارند و به راحتی نادیده گرفته میشوند
معکوس کردن نادیدهگیری. افزایش توجه به خطرات وجودی یکی از تأثیرگذارترین کارهایی است که میتوانیم انجام دهیم. حتی افزایشهای کوچک در منابع اختصاص داده شده به این مسائل میتواند تأثیر مثبت بزرگی بر آینده بلندمدت بشریت داشته باشد.
6. حفاظت از بشریت نیازمند همکاری جهانی و تغییرات نهادی است
برای زنده ماندن در برابر این چالشها و تأمین آیندهمان، باید اکنون اقدام کنیم: مدیریت خطرات امروز، جلوگیری از خطرات فردا و تبدیل شدن به نوع جامعهای که هرگز چنین خطراتی را برای خود ایجاد نکند.
چالشهای جهانی نیاز به راهحلهای جهانی دارند. بسیاری از خطرات وجودی، مانند تغییرات اقلیمی یا هوش مصنوعی غیرهمراستا، بر تمام بشریت تأثیر میگذارند و نیاز به اقدام هماهنگ جهانی برای مقابله دارند. ما باید نهادهای بینالمللی جدیدی را ایجاد کنیم که بر روی خطرات بلندمدت و نسلهای آینده تمرکز کنند.
نوآوریهای نهادی مورد نیاز است. برخی از ایدههای امیدوارکننده شامل:
- یک نهاد سازمان ملل متمرکز بر کاهش خطرات وجودی
- شامل نمایندگان نسلهای آینده در ساختارهای حکومتی
- تبدیل کردن به خطر انداختن بیپروا بشریت به یک جرم بینالمللی
- بهبود توانایی نهادهای دموکراتیک برای مدیریت خطرات بلندمدت و کماحتمال
نیاز به تغییر فرهنگی. فراتر از تغییرات نهادی، ما به یک تغییر فرهنگی نیاز داریم تا این خطرات را جدی بگیریم و به زمانهای طولانیتری فکر کنیم. ما باید فضایل تمدنی صبر، احتیاط و همکاری جهانی را توسعه دهیم.
7. آینده بالقوه ما در مقیاس، مدت و کیفیت بسیار وسیع است اگر بتوانیم از خطرات کنونی عبور کنیم
اگر بتوانیم به ستارههای دیگر برسیم، آنگاه کل کهکشان به روی ما باز میشود. کهکشان راه شیری به تنهایی بیش از 100 میلیارد ستاره دارد و برخی از اینها برای تریلیونها سال دوام خواهند آورد و به طور قابل توجهی طول عمر بالقوه ما را افزایش میدهند.
مقیاسهای زمانی کیهانی. اگر بتوانیم از فاجعه وجودی اجتناب کنیم، بشریت ممکن است برای صدها میلیون یا حتی میلیاردها سال زنده بماند. ما میتوانیم از زمین فراتر برویم و به سیارات و سیستمهای ستارهای دیگر گسترش یابیم در حالی که خانه کنونیمان در آینده دور غیرقابل سکونت میشود.
پتانسیل کهکشانی. کهکشان ما به تنهایی حاوی صدها میلیارد ستاره است که بسیاری از آنها دارای سیارات قابل سکونت بالقوه هستند. اگر توانایی سفر بین ستارهای را توسعه دهیم، میتوانیم در سراسر کهکشان راه شیری گسترش یابیم و از منابع بیشماری از جهانها و سیستمهای ستارهای بهرهبرداری کنیم.
اوجهای شکوفایی. با توجه به چنین مقیاسهای زمانی و منابع وسیع، ما میتوانیم کارهای شگفتانگیزی انجام دهیم:
- پایان دادن به کمبودها از هر نوع، و حذف فقر و نیاز
- توسعه فناوریهایی فراتر از تصورات کنونیمان
- خلق اشکال جدید هنری و شیوههای تجربه
- دستیابی به درک عمیق از ماهیت بنیادی واقعیت
- رسیدن به اوجهای رفاه و شکوفایی که فراتر از اوجهای کنونیمان است
8. حفظ پتانسیل بلندمدت بشریت چالش تعیینکننده نسل ماست
ما باید این حکمت را به دست آوریم؛ تا این انقلاب اخلاقی را آغاز کنیم. زیرا نمیتوانیم از انقراض بازگردیم، نمیتوانیم تا زمانی که یک تهدید به وجود آید صبر کنیم—باید پیشگیرانه عمل کنیم. و از آنجا که به دست آوردن حکمت یا آغاز یک انقلاب اخلاقی زمان میبرد، باید اکنون شروع کنیم.
لحظهای سرنوشتساز. نسل ما در زمان بهطور قابل توجهی مهمترین در تاریخ بشریت زندگی میکند. اقدامات ما در دهههای آینده میتواند تعیین کند که آیا بشریت به پتانسیل وسیع خود دست مییابد یا به فاجعه وجودی دچار میشود. ما مسئولیت عمیقی بر دوش داریم.
پروژه بزرگ زمان ما. کاهش خطرات وجودی باید یکی از اولویتهای اصلی بشریت باشد. این شامل:
- کار مستقیم بر روی خطرات خاصی مانند تغییرات اقلیمی، جنگ هستهای، پاندمیهای مهندسی شده و همراستایی هوش مصنوعی
- بهبود ظرفیت جهانی ما برای پیشبینی و مقابله با تهدیدات نوظهور
- توسعه حکمت و ساختارهای نهادی برای مدیریت فناوریهای جدید و قدرتمند
- گسترش نگرانی درباره آینده بلندمدت بشریت
فراخوان به عمل. در حالی که چالش بسیار بزرگ است، دلیلی برای خوشبینی محتاطانه وجود دارد. ما قدرت عبور از این خطرات را داریم اگر آنها را جدی بگیریم. هر کسی میتواند کمک کند، چه از طریق انتخابهای شغلی، کمکهای مالی، یا صرفاً با گسترش نگرانی درباره این مسائل. نسلهای آینده ممکن است ما را به عنوان نسلی به یاد بیاورند که پتانسیل وسیع بشریت را حفظ کرد.
آخرین بهروزرسانی::
Questions & Answers
What's The Precipice: Existential Risk and the Future of Humanity about?
- Focus on existential risks: Toby Ord's The Precipice explores existential risks that threaten humanity's long-term potential, emphasizing the critical moment in history where technological power surpasses our wisdom.
- Humanity's future at stake: The book argues that safeguarding humanity's future is the defining challenge of our time, as we face self-destruction due to our own actions.
- Call to action: Ord urges readers to recognize the importance of managing current risks and preventing future catastrophes to ensure a flourishing future for generations to come.
Why should I read The Precipice?
- Urgent and relevant topic: The book addresses critical issues affecting both the present and future of humanity, making it essential reading for those concerned about global challenges.
- Interdisciplinary approach: Ord combines insights from ethics, science, and history, providing a comprehensive understanding of the risks we face and potential solutions.
- Empowerment through knowledge: By reading this book, you will gain a deeper awareness of existential risks and be inspired to take action to safeguard our future.
What are the key takeaways of The Precipice?
- Existential risks defined: Ord defines existential risks as those threatening the destruction of humanity's long-term potential, including extinction and irreversible societal collapse.
- Humanity's unique moment: The book highlights that humanity is at a critical juncture where technological advancements could lead to either unprecedented flourishing or catastrophic failure.
- Moral responsibility: Ord emphasizes the moral imperative to act now, as our choices today will shape the future for countless generations.
What are the best quotes from The Precipice and what do they mean?
- "We stand at a crucial moment in the history of our species.": This quote underscores the urgency of addressing existential risks, as our current actions will have lasting impacts on future generations.
- "The greatest risks are caused by human action, and they can be addressed by human action.": Ord emphasizes that while we face significant threats, we also have the power to mitigate these risks through collective action and responsible decision-making.
- "Safeguarding humanity through these dangers should be a central priority of our time.": This quote encapsulates the book's central message, urging readers to prioritize the protection of humanity's future amidst growing risks.
What is existential risk according to The Precipice?
- Definition provided: Ord defines existential risk as a risk that threatens the destruction of humanity's long-term potential, which includes extinction or a permanent collapse of civilization.
- Broader implications: The concept encompasses not just the end of human life but also scenarios where civilization collapses irreversibly, locking humanity into a diminished future.
- Moral urgency: Understanding existential risk is crucial for recognizing the stakes involved in our current choices and the need for proactive measures to safeguard our future.
How does The Precipice categorize risks?
- Natural risks: Ord discusses risks from natural events, such as asteroid impacts, supervolcanic eruptions, and stellar explosions, which have historically threatened life on Earth.
- Anthropogenic risks: The book examines risks arising from human actions, including nuclear weapons, climate change, and environmental degradation, which pose significant threats to our future.
- Future risks: Ord highlights emerging technologies, such as artificial intelligence and biotechnology, that could lead to new forms of existential risk if not managed carefully.
How does Toby Ord quantify existential risks in The Precipice?
- Estimates for various risks: Ord provides specific probabilities for different existential risks, such as a 1 in 30 chance of engineered pandemics and a 1 in 10 chance of unaligned artificial intelligence causing catastrophe within the next century.
- Comparative analysis: The author compares these risks to highlight their relative likelihood and potential impact, making it easier for readers to understand which risks warrant more attention.
- Uncertainty acknowledgment: Ord emphasizes that while these estimates are based on current knowledge, there is significant uncertainty involved, and the actual probabilities could vary widely.
What is the concept of "existential security" in The Precipice?
- Definition of existential security: Existential security refers to a state where humanity is protected from existential risks, ensuring that the potential for human flourishing is preserved over the long term.
- Two strands: Ord outlines two key components: preserving humanity's potential by addressing immediate risks and protecting it by establishing lasting safeguards against future threats.
- Long-term vision: Achieving existential security is seen as a foundational step for humanity to reflect on its values and aspirations, allowing for a more thoughtful approach to future challenges.
How does The Precipice address the role of technology in existential risks?
- Dual nature of technology: The book discusses how technology can both pose significant risks (e.g., artificial intelligence, biotechnology) and offer solutions to mitigate those risks (e.g., renewable energy, advanced safety measures).
- Need for responsible governance: Ord emphasizes the importance of developing robust governance frameworks to ensure that technological advancements are aligned with human values and do not exacerbate existential risks.
- Call for foresight: The author advocates for a proactive approach to technology development, urging society to consider the long-term implications of new technologies and to prioritize safety and ethical considerations.
What strategies does Toby Ord suggest for reducing existential risk in The Precipice?
- Global cooperation: Ord stresses the need for international collaboration to address existential risks, as they often transcend national borders and require coordinated responses.
- Investment in research: The book advocates for increased funding and research into understanding and mitigating existential risks, particularly in areas like AI safety, biosecurity, and climate resilience.
- Public awareness and engagement: Ord encourages individuals to engage in discussions about existential risks and to advocate for policies that prioritize safeguarding humanity's future.
How does The Precipice relate to the concept of longtermism?
- Longtermism defined: Longtermism is the ethical perspective that emphasizes the importance of the long-term future in moral decision-making. Ord argues that our actions today can have profound effects on future generations, making longtermism a crucial consideration.
- Moral responsibility: The book posits that we have a moral obligation to consider the well-being of future generations. This perspective encourages individuals and societies to prioritize actions that promote a flourishing future for all.
- Implications for policy: Ord suggests that longtermism should inform public policy and decision-making. By adopting a longtermist approach, policymakers can create frameworks that prioritize the reduction of existential risks and the safeguarding of humanity's potential.
What are the potential consequences of ignoring existential risks, according to The Precipice?
- Catastrophic outcomes: Ignoring existential risks could lead to catastrophic outcomes, including extinction or irreversible damage to humanity's potential. Ord emphasizes that the stakes are incredibly high, and the consequences of inaction could be dire.
- Loss of future potential: The book argues that failing to address existential risks could result in the loss of humanity's long-term potential. This would mean missing out on the opportunity for future generations to thrive and achieve great things.
- Moral failure: Ord frames the neglect of existential risks as a moral failure. He believes that we have a responsibility to protect the future, and ignoring these risks undermines our ethical obligations to both current and future generations.
نقد و بررسی
کتاب لبه پرتگاه بهخاطر بررسی جامع خود از خطرات وجودی که بشریت با آنها مواجه است، عمدتاً نقدهای مثبتی دریافت کرده است. خوانندگان از استدلالهای روشن اورد، نوشتار قابلدسترس و ایدههای تحریککنندهاش دربارهی پتانسیل آیندهی بشریت قدردانی میکنند. بسیاری این کتاب را الهامبخش میدانند و آن را سهمی مهم در بحثهای مربوط به خطرات وجودی تلقی میکنند. برخی منتقدان بر این باورند که برخی از خطرات اغراقآمیز هستند یا تمرکز بر نسلهای آیندهی دور نادرست است. بهطور کلی، منتقدان رویکرد علمی کتاب و دعوت آن به اقدام برای حفظ آیندهی بلندمدت بشریت را ستایش میکنند.