Facebook Pixel
Searching...
Deutsch
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
The Precipice

The Precipice

Existential Risk and the Future of Humanity
von Toby Ord 2020 480 Seiten
4.01
4k+ Bewertungen
Hören
Hören

Wichtige Erkenntnisse

1. Die Menschheit steht an einem entscheidenden Punkt in der Geschichte und sieht sich beispiellosen existenziellen Risiken gegenüber

Wenn alles gut geht, beginnt die menschliche Geschichte gerade erst. Die Menschheit ist etwa zweihunderttausend Jahre alt. Aber die Erde wird noch Hunderte von Millionen Jahren bewohnbar bleiben – genug Zeit für Millionen zukünftiger Generationen; genug, um Krankheiten, Armut und Ungerechtigkeit für immer zu beenden; genug, um Höhen des Wohlstands zu erreichen, die heute unvorstellbar sind.

Beispiellose Macht und Gefahr. Im Verlauf der Menschheitsgeschichte hat unsere Spezies bemerkenswerte Fortschritte gemacht, sich von kleinen Gruppen von Jägern und Sammlern zu einer globalen, technologisch fortgeschrittenen Zivilisation entwickelt. Diese Entwicklung hat sich in den letzten Jahrhunderten dramatisch beschleunigt und enorme Fortschritte in Gesundheit, Wohlstand und Wissen gebracht. Doch unsere wachsende Macht hat auch neue existenzielle Risiken geschaffen – Bedrohungen, die das Potenzial der Menschheit dauerhaft zerstören könnten.

Ein kritischer Wendepunkt. Wir befinden uns jetzt an einem einzigartigen und prekären Punkt in der Geschichte. Zum ersten Mal haben wir die Fähigkeit, uns selbst durch einen Atomkrieg, künstlich erzeugte Pandemien oder andere Technologien zu zerstören. Gleichzeitig haben wir das Potenzial, eine unglaublich strahlende Zukunft zu sichern, uns im Kosmos auszubreiten und Milliarden von Jahren zu gedeihen. Die Entscheidungen, die wir in den kommenden Jahrzehnten treffen, könnten bestimmen, welchen Weg wir einschlagen.

Die Einsätze sind astronomisch. Wenn wir die aktuellen Risiken erfolgreich meistern, könnte die Menschheit eine unglaublich lange und wohlhabende Zukunft vor sich haben. Wir könnten uns auf andere Planeten ausbreiten, Knappheiten beenden und Höhen des Wohlstands erreichen, die weit über unsere derzeitige Vorstellungskraft hinausgehen. Aber wenn wir scheitern, könnten wir diese gesamte Zukunft abschneiden – Billionen von Leben, die hätten gelebt werden können, und kosmische Errungenschaften, die niemals verwirklicht werden. Unsere Generation trägt daher eine immense Verantwortung.

2. Natürliche Risiken für die Menschheit werden von anthropogenen Bedrohungen, die wir geschaffen haben, in den Schatten gestellt

Während es immer noch ein reales Risiko gibt, wurde es eingehend untersucht und als verschwindend gering eingestuft. Es ist ein bekanntes Risiko, aber ein kleines. Wenn die Menschheit im nächsten Jahrhundert aussterben würde, wäre es fast sicher etwas anderes als ein Asteroiden- oder Kometeneinschlag.

Natürliche Risiken sind gering. Durch sorgfältige Studien haben Wissenschaftler festgestellt, dass das Risiko des menschlichen Aussterbens durch natürliche Ursachen wie Asteroideneinschläge, Supervulkane oder Sternexplosionen sehr gering ist – wahrscheinlich weniger als 0,1 % pro Jahrhundert. Während solche Ereignisse große regionale Verwüstungen verursachen könnten, macht unsere globale Präsenz und technologische Fähigkeiten die Menschheit ziemlich widerstandsfähig gegenüber diesen Bedrohungen.

Von Menschen verursachte Risiken dominieren. Die wirklich bedeutenden existenziellen Risiken kommen jetzt von unseren eigenen Handlungen und Schöpfungen. Atomwaffen, Klimawandel, künstlich erzeugte Pandemien und künstliche Intelligenz stellen weitaus größere Bedrohungen für das langfristige Überleben und Gedeihen der Menschheit dar. Im Gegensatz zu natürlichen Risiken nehmen diese anthropogenen Risiken mit dem Wachstum unserer technologischen Macht zu.

Wir kontrollieren unser Schicksal. Der Übergang von hauptsächlich natürlichen zu hauptsächlich anthropogenen existenziellen Risiken ist tatsächlich ein Grund für vorsichtigen Optimismus. Während wir wenig tun können, um einen Supervulkanausbruch zu verhindern, haben wir viel mehr Kontrolle über die Entwicklung und Nutzung mächtiger Technologien. Unser Schicksal liegt weitgehend in unseren eigenen Händen – wenn wir lernen, unsere wachsenden Kräfte verantwortungsvoll zu nutzen.

3. Atomwaffen und Klimawandel stellen bedeutende, aber beherrschbare existenzielle Risiken dar

Ein Krieg, der ein dunkles Zeitalter hinterlassen würde, das Jahrhunderte andauert, bevor die Überlebenden die Zivilisation wieder zu ihren früheren Höhen aufbauen könnten; gedemütigt, gezeichnet – aber unbesiegt.

Nuklearer Winter ist die Hauptbedrohung. Während die unmittelbaren Auswirkungen eines Atomkriegs verheerend wären, liegt das größere existenzielle Risiko im Potenzial für einen nuklearen Winter. Feuerstürme in brennenden Städten könnten genug Ruß in die Atmosphäre schleudern, um das Sonnenlicht jahrelang zu blockieren, was zu globaler Abkühlung und Ernteausfällen führen könnte, die zu Massenhungersnöten führen könnten. Ein menschliches Aussterben durch dieses Szenario erscheint jedoch unwahrscheinlich.

Klimarisiken sind unsicher. Die existenziellen Risiken des Klimawandels sind weniger klar, aber in den schlimmsten Szenarien potenziell schwerwiegend. Während die aktuellen Erwärmungsprognosen wahrscheinlich nicht direkt zum Aussterben der Menschheit führen, könnte eine extremere Erwärmung potenziell Kaskadeneffekte auslösen oder uns über gefährliche Kipppunkte hinausdrängen. Wichtige Unsicherheiten bestehen hinsichtlich potenzieller Rückkopplungsschleifen und der Auswirkungen einer Erwärmung von über 6°C.

Beide erfordern globales Handeln. Die Bewältigung dieser Risiken erfordert internationale Zusammenarbeit, um Atomwaffenarsenale zu reduzieren, Waffen von der Alarmbereitschaft zu nehmen und schnell auf saubere Energie umzusteigen. Obwohl herausfordernd, sind dies erreichbare Ziele, wenn die Öffentlichkeit und die politischen Entscheidungsträger sie priorisieren. Im Vergleich zu zukünftigen Risiken sind Atomkrieg und Klimawandel relativ gut verstandene und beherrschbare Bedrohungen.

4. Zukünftige Risiken durch künstlich erzeugte Pandemien und künstliche Intelligenz könnten katastrophal sein

Der Menschheit fehlt die Reife, Koordination und Weitsicht, um Fehler zu vermeiden, von denen wir uns nie erholen könnten. Da die Kluft zwischen unserer Macht und unserer Weisheit wächst, ist unsere Zukunft einem immer höheren Risiko ausgesetzt.

Künstlich erzeugte Pandemien. Fortschritte in der Biotechnologie könnten bald die Schaffung von Krankheitserregern ermöglichen, die weitaus tödlicher sind als alles in der Natur. Eine künstlich erzeugte Pandemie, die die Tödlichkeit von Ebola mit der Ansteckungsfähigkeit der Grippe kombiniert, könnte potenziell Milliarden von Todesfällen verursachen. Im Gegensatz zu natürlichen Pandemien könnten künstlich erzeugte optimiert werden, um maximale Tödlichkeit und Verbreitung zu erreichen.

Künstliche Allgemeine Intelligenz (AGI). Die Entwicklung von AGI – KI-Systemen mit allgemeiner menschlicher Intelligenz – könnte ein unglaublicher Segen für die Menschheit sein. Aber sie stellt auch möglicherweise das größte existenzielle Risiko dar. Ein AGI-System, das nicht perfekt mit menschlichen Werten übereinstimmt, könnte schnell extrem mächtig werden und Ziele verfolgen, die für die Menschheit zerstörerisch sind, möglicherweise sogar unser Aussterben verursachen.

Beispiellose Herausforderung. Diese aufkommenden Risiken sind besonders gefährlich, weil wir keine historischen Erfahrungen im Umgang mit ihnen haben. Sie erfordern Weitsicht und koordinierte globale Maßnahmen, bevor die Bedrohungen vollständig materialisieren. Unsere Regierungssysteme und unsere moralische Weisheit sind noch nicht in der Lage, diese Herausforderungen zuverlässig zu meistern.

5. Existenzielle Risiken werden trotz ihrer überragenden Bedeutung stark vernachlässigt

Die Menschheit gibt jedes Jahr mehr für Eiscreme aus als dafür, sicherzustellen, dass die Technologien, die wir entwickeln, uns nicht zerstören.

Massiver Umfang, wenig Aufmerksamkeit. Trotz der astronomischen Einsätze erhalten existenzielle Risiken überraschend wenig Aufmerksamkeit und Ressourcen. Die jährlichen globalen Ausgaben für die Reduzierung existenzieller Risiken betragen wahrscheinlich weniger als 1 Milliarde Dollar – Größenordnungen weniger als wir für andere globale Prioritäten ausgeben und weniger als wir für Eiscreme ausgeben.

Strukturelle Vernachlässigung. Mehrere Faktoren tragen zu dieser Vernachlässigung bei:

  • Umfangsinsensitivität: Wir haben Schwierigkeiten, emotional den Unterschied zwischen Millionen und Milliarden von Leben zu erfassen
  • Anreizprobleme: Ein Großteil des Nutzens der Reduzierung existenzieller Risiken kommt zukünftigen Generationen zugute, die uns nicht belohnen können
  • Ungewohnte Natur: Viele Risiken haben keinen historischen Präzedenzfall, was es leicht macht, sie abzutun

Die Vernachlässigung umkehren. Die Erhöhung der Aufmerksamkeit für existenzielle Risiken ist eine der wirkungsvollsten Dinge, die wir tun können. Selbst kleine Erhöhungen der für diese Themen aufgewendeten Ressourcen könnten einen überproportional positiven Einfluss auf die langfristige Zukunft der Menschheit haben.

6. Die Sicherung der Menschheit erfordert globale Zusammenarbeit und institutionelle Veränderungen

Um diese Herausforderungen zu überleben und unsere Zukunft zu sichern, müssen wir jetzt handeln: die Risiken von heute managen, die von morgen abwenden und die Art von Gesellschaft werden, die sich nie wieder solchen Risiken aussetzt.

Globale Herausforderungen erfordern globale Lösungen. Viele existenzielle Risiken, wie der Klimawandel oder nicht ausgerichtete KI, betreffen die gesamte Menschheit und erfordern koordinierte globale Maßnahmen zu ihrer Bewältigung. Wir müssen neue internationale Institutionen entwickeln, die sich auf langfristige Risiken und zukünftige Generationen konzentrieren.

Erforderliche institutionelle Innovationen. Einige vielversprechende Ideen umfassen:

  • Eine UN-Organisation, die sich auf die Reduzierung existenzieller Risiken konzentriert
  • Einbeziehung von Vertretern zukünftiger Generationen in Regierungsstrukturen
  • Die fahrlässige Gefährdung der Menschheit zu einem internationalen Verbrechen machen
  • Verbesserung der Fähigkeit demokratischer Institutionen, langfristige, unwahrscheinliche Risiken zu bewältigen

Kultureller Wandel erforderlich. Über institutionelle Veränderungen hinaus brauchen wir einen kulturellen Wandel, um diese Risiken ernst zu nehmen und in längeren Zeiträumen zu denken. Wir müssen die zivilisatorischen Tugenden der Geduld, Vorsicht und globalen Zusammenarbeit entwickeln.

7. Unser potenzielles Zukunft ist in Umfang, Dauer und Qualität gewaltig, wenn wir die aktuellen Risiken meistern

Wenn wir andere Sterne erreichen können, öffnet sich uns die ganze Galaxie. Allein die Milchstraße enthält mehr als 100 Milliarden Sterne, und einige davon werden Billionen von Jahren bestehen, was unsere potenzielle Lebensdauer erheblich verlängert.

Kosmische Zeiträume. Wenn wir eine existenzielle Katastrophe vermeiden, könnte die Menschheit potenziell Hunderte von Millionen oder sogar Milliarden von Jahren überleben. Wir könnten die Erde überdauern, uns auf andere Planeten und Sternensysteme ausbreiten, wenn unser derzeitiges Zuhause in ferner Zukunft unbewohnbar wird.

Galaktisches Potenzial. Unsere Galaxie allein enthält Hunderte von Milliarden Sternen, viele mit potenziell bewohnbaren Planeten. Wenn wir die Fähigkeit zur interstellaren Reise entwickeln, könnten wir uns in der gesamten Milchstraße ausbreiten und die Ressourcen unzähliger Welten und Sternensysteme nutzen.

Höhen des Wohlstands. Angesichts solcher gewaltigen Zeiträume und Ressourcen könnten wir unglaubliche Dinge erreichen:

  • Knappheiten aller Art beenden, Armut und Not eliminieren
  • Technologien entwickeln, die weit über unsere derzeitige Vorstellungskraft hinausgehen
  • Neue Kunstformen und Erfahrungsmodi schaffen
  • Ein tiefes Verständnis der grundlegenden Natur der Realität erlangen
  • Höhen des Wohlstands und des Wohlbefindens erreichen, die weit über unsere derzeitigen Gipfel hinausgehen

8. Die Bewahrung des langfristigen Potenzials der Menschheit ist die entscheidende Herausforderung unserer Generation

Wir müssen diese Weisheit erlangen; diese moralische Revolution haben. Denn wir können nicht aus dem Aussterben zurückkehren, wir können nicht warten, bis eine Bedrohung zuschlägt, bevor wir handeln – wir müssen proaktiv sein. Und da es Zeit braucht, Weisheit zu erlangen oder eine moralische Revolution zu starten, müssen wir jetzt anfangen.

Ein entscheidender Moment. Unsere Generation lebt zu einer der wohl wichtigsten Zeiten in der Menschheitsgeschichte. Unsere Handlungen in den kommenden Jahrzehnten könnten bestimmen, ob die Menschheit ihr gewaltiges Potenzial erreicht oder einer existenziellen Katastrophe erliegt. Wir tragen eine tiefgreifende Verantwortung.

Das große Projekt unserer Zeit. Die Reduzierung existenzieller Risiken sollte eine der obersten Prioritäten der Menschheit sein. Dies umfasst:

  • Direkte Arbeit an spezifischen Risiken wie Klimawandel, Atomkrieg, künstlich erzeugten Pandemien und KI-Ausrichtung
  • Verbesserung unserer globalen Fähigkeit, neuartige Bedrohungen vorherzusehen und zu bewältigen
  • Entwicklung der Weisheit und institutionellen Strukturen, um mächtige neue Technologien zu managen
  • Verbreitung der Sorge um die langfristige Zukunft der Menschheit

Ein Aufruf zum Handeln. Obwohl die Herausforderung immens ist, gibt es Grund für vorsichtigen Optimismus. Wir haben die Macht, diese Risiken zu meistern, wenn wir sie ernst nehmen. Jeder kann beitragen, sei es durch seine Berufswahl, Spenden oder einfach durch die Verbreitung der Sorge um diese Themen. Unsere Nachkommen könnten uns als die Generation in Erinnerung behalten, die das gewaltige Potenzial der Menschheit gesichert hat.

Zuletzt aktualisiert:

Questions & Answers

What's The Precipice: Existential Risk and the Future of Humanity about?

  • Focus on existential risks: Toby Ord's The Precipice explores existential risks that threaten humanity's long-term potential, emphasizing the critical moment in history where technological power surpasses our wisdom.
  • Humanity's future at stake: The book argues that safeguarding humanity's future is the defining challenge of our time, as we face self-destruction due to our own actions.
  • Call to action: Ord urges readers to recognize the importance of managing current risks and preventing future catastrophes to ensure a flourishing future for generations to come.

Why should I read The Precipice?

  • Urgent and relevant topic: The book addresses critical issues affecting both the present and future of humanity, making it essential reading for those concerned about global challenges.
  • Interdisciplinary approach: Ord combines insights from ethics, science, and history, providing a comprehensive understanding of the risks we face and potential solutions.
  • Empowerment through knowledge: By reading this book, you will gain a deeper awareness of existential risks and be inspired to take action to safeguard our future.

What are the key takeaways of The Precipice?

  • Existential risks defined: Ord defines existential risks as those threatening the destruction of humanity's long-term potential, including extinction and irreversible societal collapse.
  • Humanity's unique moment: The book highlights that humanity is at a critical juncture where technological advancements could lead to either unprecedented flourishing or catastrophic failure.
  • Moral responsibility: Ord emphasizes the moral imperative to act now, as our choices today will shape the future for countless generations.

What are the best quotes from The Precipice and what do they mean?

  • "We stand at a crucial moment in the history of our species.": This quote underscores the urgency of addressing existential risks, as our current actions will have lasting impacts on future generations.
  • "The greatest risks are caused by human action, and they can be addressed by human action.": Ord emphasizes that while we face significant threats, we also have the power to mitigate these risks through collective action and responsible decision-making.
  • "Safeguarding humanity through these dangers should be a central priority of our time.": This quote encapsulates the book's central message, urging readers to prioritize the protection of humanity's future amidst growing risks.

What is existential risk according to The Precipice?

  • Definition provided: Ord defines existential risk as a risk that threatens the destruction of humanity's long-term potential, which includes extinction or a permanent collapse of civilization.
  • Broader implications: The concept encompasses not just the end of human life but also scenarios where civilization collapses irreversibly, locking humanity into a diminished future.
  • Moral urgency: Understanding existential risk is crucial for recognizing the stakes involved in our current choices and the need for proactive measures to safeguard our future.

How does The Precipice categorize risks?

  • Natural risks: Ord discusses risks from natural events, such as asteroid impacts, supervolcanic eruptions, and stellar explosions, which have historically threatened life on Earth.
  • Anthropogenic risks: The book examines risks arising from human actions, including nuclear weapons, climate change, and environmental degradation, which pose significant threats to our future.
  • Future risks: Ord highlights emerging technologies, such as artificial intelligence and biotechnology, that could lead to new forms of existential risk if not managed carefully.

How does Toby Ord quantify existential risks in The Precipice?

  • Estimates for various risks: Ord provides specific probabilities for different existential risks, such as a 1 in 30 chance of engineered pandemics and a 1 in 10 chance of unaligned artificial intelligence causing catastrophe within the next century.
  • Comparative analysis: The author compares these risks to highlight their relative likelihood and potential impact, making it easier for readers to understand which risks warrant more attention.
  • Uncertainty acknowledgment: Ord emphasizes that while these estimates are based on current knowledge, there is significant uncertainty involved, and the actual probabilities could vary widely.

What is the concept of "existential security" in The Precipice?

  • Definition of existential security: Existential security refers to a state where humanity is protected from existential risks, ensuring that the potential for human flourishing is preserved over the long term.
  • Two strands: Ord outlines two key components: preserving humanity's potential by addressing immediate risks and protecting it by establishing lasting safeguards against future threats.
  • Long-term vision: Achieving existential security is seen as a foundational step for humanity to reflect on its values and aspirations, allowing for a more thoughtful approach to future challenges.

How does The Precipice address the role of technology in existential risks?

  • Dual nature of technology: The book discusses how technology can both pose significant risks (e.g., artificial intelligence, biotechnology) and offer solutions to mitigate those risks (e.g., renewable energy, advanced safety measures).
  • Need for responsible governance: Ord emphasizes the importance of developing robust governance frameworks to ensure that technological advancements are aligned with human values and do not exacerbate existential risks.
  • Call for foresight: The author advocates for a proactive approach to technology development, urging society to consider the long-term implications of new technologies and to prioritize safety and ethical considerations.

What strategies does Toby Ord suggest for reducing existential risk in The Precipice?

  • Global cooperation: Ord stresses the need for international collaboration to address existential risks, as they often transcend national borders and require coordinated responses.
  • Investment in research: The book advocates for increased funding and research into understanding and mitigating existential risks, particularly in areas like AI safety, biosecurity, and climate resilience.
  • Public awareness and engagement: Ord encourages individuals to engage in discussions about existential risks and to advocate for policies that prioritize safeguarding humanity's future.

How does The Precipice relate to the concept of longtermism?

  • Longtermism defined: Longtermism is the ethical perspective that emphasizes the importance of the long-term future in moral decision-making. Ord argues that our actions today can have profound effects on future generations, making longtermism a crucial consideration.
  • Moral responsibility: The book posits that we have a moral obligation to consider the well-being of future generations. This perspective encourages individuals and societies to prioritize actions that promote a flourishing future for all.
  • Implications for policy: Ord suggests that longtermism should inform public policy and decision-making. By adopting a longtermist approach, policymakers can create frameworks that prioritize the reduction of existential risks and the safeguarding of humanity's potential.

What are the potential consequences of ignoring existential risks, according to The Precipice?

  • Catastrophic outcomes: Ignoring existential risks could lead to catastrophic outcomes, including extinction or irreversible damage to humanity's potential. Ord emphasizes that the stakes are incredibly high, and the consequences of inaction could be dire.
  • Loss of future potential: The book argues that failing to address existential risks could result in the loss of humanity's long-term potential. This would mean missing out on the opportunity for future generations to thrive and achieve great things.
  • Moral failure: Ord frames the neglect of existential risks as a moral failure. He believes that we have a responsibility to protect the future, and ignoring these risks undermines our ethical obligations to both current and future generations.

Rezensionen

4.01 von 5
Durchschnitt von 4k+ Bewertungen von Goodreads und Amazon.

Der Abgrund erhält überwiegend positive Bewertungen für seine gründliche Untersuchung der existenziellen Risiken, denen die Menschheit gegenübersteht. Die Leser schätzen Ords klare Argumentation, zugängliches Schreiben und seine zum Nachdenken anregenden Ideen über das zukünftige Potenzial der Menschheit. Viele finden das Buch inspirierend und betrachten es als wichtigen Beitrag zu Diskussionen über existenzielle Risiken. Einige Kritiker argumentieren, dass bestimmte Risiken übertrieben dargestellt werden oder dass der Fokus auf zukünftige Generationen fehl am Platz sei. Insgesamt loben die Rezensenten den wissenschaftlichen Ansatz des Buches und seinen Aufruf zum Handeln, um die langfristige Zukunft der Menschheit zu sichern.

Über den Autor

Toby Ord ist ein australischer Philosoph und Forscher an der Universität Oxford. Er ist eine prominente Figur in der Bewegung des Effektiven Altruismus und Senior Research Fellow am Future of Humanity Institute. Ords Arbeit konzentriert sich auf globale Prioritäten, existenzielle Risiken und die langfristige Zukunft der Menschheit. Er absolvierte sein Graduiertenstudium unter der Betreuung von Derek Parfit, einem renommierten Moralphilosophen. Ord ist bekannt für sein Engagement, durch rationale Analyse herauszufinden, wie man das meiste Gute in der Welt bewirken kann. Seine Forschung hat viele in den Bereichen Philosophie, Ethik und Reduktion globaler katastrophaler Risiken beeinflusst.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Unlock Unlimited Listening
🎧 Listen while you drive, walk, run errands, or do other activities
2.8x more books Listening Reading
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Feb 6,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
50,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →