Facebook Pixel
Searching...
Deutsch
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
The Chaos Machine

The Chaos Machine

The Inside Story of How Social Media Rewired Our Minds and Our World
von Max Fisher 2022 350 Seiten
4.29
5k+ Bewertungen
Hören

Wichtige Erkenntnisse

1. Algorithmen in sozialen Medien verstärken extreme Inhalte und schüren Polarisierung und Fehlinformationen

„Der Algorithmus von YouTube hilft den Menschen im Grunde, in diese Richtungen zu gehen.“

Algorithmische Verstärkung: Soziale Medien nutzen ausgeklügelte Algorithmen, um zu bestimmen, welche Inhalte den Nutzern angezeigt werden. Diese Algorithmen sind darauf ausgelegt, die Interaktion zu maximieren, oft indem sie sensationelle, emotionale oder kontroverse Inhalte fördern. Dies führt zu einem „Rabbit Hole“-Effekt, bei dem Nutzer zunehmend extremere Standpunkte ausgesetzt werden.

Echokammern und Filterblasen: Wenn Nutzer mit bestimmten Arten von Inhalten interagieren, servieren die Algorithmen weiterhin ähnliches Material, wodurch Echokammern entstehen, die bestehende Überzeugungen und Vorurteile verstärken. Dieser Prozess kann Nutzer im Laufe der Zeit radikalisieren und sie in Richtung randständiger Ideologien oder Verschwörungstheorien drängen.

Verbreitung von Fehlinformationen: Die virale Natur sozialer Medien, kombiniert mit algorithmischer Verstärkung, ermöglicht es, dass falsche Informationen schnell verbreitet werden. Faktenprüfungen und Korrekturen haben oft Schwierigkeiten, die gleiche Aufmerksamkeit wie die ursprüngliche Fehlinformation zu erlangen, was zu einem weit verbreiteten Glauben an falsche Narrative führt.

2. Die globale Expansion von Facebook führte zu realer Gewalt in Entwicklungsländern

„Facebook schadet den Menschen in großem Maßstab.“

Schnelle Expansion ohne Sicherheitsvorkehrungen: Facebook expandierte aggressiv in Entwicklungsländer, oft durch „Zero-Rating“-Programme, die kostenlosen Zugang zur Plattform boten. Das Unternehmen versäumte es jedoch, Inhalte angemessen zu moderieren oder lokale Kontexte zu verstehen, was zu gefährlichen Konsequenzen führte.

Fallstudien zur Gewalt:

  • Myanmar: Facebook wurde genutzt, um Hassreden gegen die Rohingya-Minderheit zu verbreiten, was zu einem Völkermord beitrug.
  • Sri Lanka: Fehlinformationen, die auf der Plattform verbreitet wurden, schürten anti-muslimische Unruhen.
  • Brasilien: Die Algorithmen von YouTube und Facebook förderten rechtsextreme Inhalte und Verschwörungstheorien, die politische Ergebnisse beeinflussten.

Unzureichende Reaktion: Trotz Warnungen von lokalen Aktivisten und Forschern war Facebook langsam darin, diese Probleme anzugehen und verwies oft auf einen Mangel an Moderatoren in lokalen Sprachen oder kulturellem Verständnis.

3. Das Empfehlungssystem von YouTube schuf rechtsextreme Echokammern und Verschwörungstheorien

„Es ist der Algorithmus von YouTube, der diese Kanäle verbindet. Das ist das Beunruhigende daran.“

Der Rabbit Hole-Effekt: Das Empfehlungssystem von YouTube ist darauf ausgelegt, die Nutzer so lange wie möglich zum Anschauen zu bewegen. Forschungen haben gezeigt, dass es Nutzer oft von Mainstream-Inhalten zu zunehmend extremen Standpunkten führt und so eine Pipeline zur Radikalisierung schafft.

Fallstudien:

  • Rechtsextreme Politik: Nutzer, die Mainstream-konservative Inhalte ansahen, wurden oft auf extremere rechte Videos verwiesen.
  • Verschwörungstheorien: Unschuldige Suchanfragen konnten Nutzer zu Videos führen, die die Flacherd-Theorie, anti-vakzinierende Inhalte oder QAnon propagierten.
  • Kindesmissbrauch: Der Algorithmus verband manchmal scheinbar harmlose Videos von Kindern mit Inhalten, die Minderjährige sexualisierten.

Widerstand gegen Veränderungen: Trotz interner und externer Warnungen zu diesen Themen war YouTube langsam darin, signifikante Änderungen an seinem Empfehlungssystem vorzunehmen und priorisierte Engagement-Metriken über potenzielle gesellschaftliche Schäden.

4. QAnon und andere randständige Bewegungen gewannen durch soziale Plattformen an Mainstream-Relevanz

„Algorithmen bauen die Miliz auf.“

Von der Randgruppe zum Mainstream: QAnon, eine Verschwörungstheorie, die auf 4chan begann, verbreitete sich schnell über die Mainstream-Social-Media-Plattformen. Die Inhalte der Bewegung wurden oft von Empfehlungsalgorithmen gefördert, wodurch sie einem viel breiteren Publikum ausgesetzt wurden.

Reale Konsequenzen:

  • Politische Auswirkungen: QAnon-Gläubige kandidierten und gewannen politische Ämter.
  • Aufstand vom 6. Januar: Viele Teilnehmer wurden durch QAnon-Überzeugungen motiviert.
  • Öffentliche Gesundheit: QAnon-Narrative trugen zur Fehlinformation über COVID-19 und zur Impfzurückhaltung bei.

Reaktionen der Plattformen: Soziale Medienunternehmen waren langsam darin, gegen QAnon und ähnliche Bewegungen vorzugehen, oft unter Berufung auf Bedenken hinsichtlich der Meinungsfreiheit. Wenn sie Maßnahmen ergriffen, war es oft zu spät, um signifikante reale Auswirkungen zu verhindern.

5. Tech-Unternehmen priorisierten Engagement über gesellschaftliche Auswirkungen und widerstanden sinnvollen Veränderungen

„Facebooks Untätigkeit bei der Löschung von Trumps gewalttätigem Post macht mich beschämt, hier zu arbeiten.“

Gewinnorientierte Entscheidungen: Soziale Medienunternehmen priorisierten konsequent die Nutzerinteraktion und das Wachstum über potenzielle gesellschaftliche Schäden. Dies führte zu Entscheidungen, die spaltende Inhalte und Fehlinformationen verstärkten.

Interne Konflikte: Viele Mitarbeiter in Tech-Unternehmen äußerten Bedenken hinsichtlich der Auswirkungen ihrer Plattformen, wurden jedoch oft ignoriert oder von der Führungsebene beiseitegeschoben.

Widerstand gegen Regulierung: Tech-Unternehmen lobbyierten gegen staatliche Regulierung und widerstanden oft Forderungen nach größerer Transparenz oder Verantwortung.

Begrenzte Reformen: Wenn Änderungen vorgenommen wurden, waren sie oft oberflächlich oder leicht umkehrbar und adressierten nicht die grundlegenden Probleme mit den Geschäftsmodellen und Algorithmen der Plattformen.

6. Die US-Wahlen 2016 offenbarten die Macht sozialer Medien, Politik zu beeinflussen und Fehlinformationen zu verbreiten

„Wir haben die Alt-Right ins Leben gerufen.“

Russische Einmischung: Soziale Medienplattformen wurden von russischen Akteuren genutzt, um Fehlinformationen zu verbreiten und während der Präsidentschaftswahlen 2016 Unruhe zu stiften.

Aufstieg der Alt-Right: Randständige rechtsextreme Bewegungen gewannen durch koordinierte Social-Media-Kampagnen an Bedeutung und nutzten oft die Algorithmen der Plattformen, um breitere Zielgruppen zu erreichen.

Epidemie von Fake News: Die Leichtigkeit, mit der falsche Informationen in sozialen Medien erstellt und geteilt werden können, führte zu einer Verbreitung von „Fake News“, die die öffentliche Meinung beeinflussten.

Reaktionen der Plattformen: Zunächst spielten Tech-Unternehmen ihre Rolle in diesen Problemen herunter. Im Laufe der Zeit implementierten sie einige Maßnahmen zur Bekämpfung von Fehlinformationen, aber diese Bemühungen wurden oft als unzureichend kritisiert.

7. Soziale Medien spielten eine entscheidende Rolle bei der Radikalisierung der Teilnehmer des Aufstands im Kapitol am 6. Januar

„Wir sind drin, wir sind drin! Derrick Evans ist im Kapitol!“

Online-Organisation: Soziale Medienplattformen wurden genutzt, um die Ereignisse des 6. Januar zu planen und zu koordinieren, wobei viele Teilnehmer offen über ihre Absichten diskutierten.

Radikalisierungspipeline: Viele Aufständische waren durch die Algorithmen sozialer Medien zunehmend extremen Inhalten ausgesetzt, was zu ihrem Glauben an Verschwörungstheorien über Wahlbetrug führte.

Live-Streaming des Angriffs: Teilnehmer nutzten soziale Medien, um ihre Aktionen in Echtzeit zu übertragen, was die Auswirkungen des Ereignisses weiter verstärkte.

Reaktionen der Plattformen: In der Folge ergriffen soziale Medienunternehmen beispiellose Maßnahmen, darunter das Verbot des damaligen Präsidenten Trump von ihren Plattformen. Diese Maßnahmen wurden jedoch als zu wenig und zu spät kritisiert.

8. Die Bemühungen zur Reform sozialer Medien wurden durch Gewinnmotivation und ideologischen Widerstand eingeschränkt

„Es gibt eine enorme Dominanz von rechten Kanälen auf YouTube.“

Algorithmische Anpassungen: Einige Plattformen haben Anpassungen an ihren Empfehlungssystemen vorgenommen, aber diese Änderungen adressieren oft nicht die grundlegenden Probleme.

Herausforderungen bei der Inhaltsmoderation: Die Skalierung der Inhaltsmoderation auf Milliarden von Nutzern hat sich als schwierig erwiesen, da die Plattformen Schwierigkeiten haben, die Bedenken hinsichtlich der Meinungsfreiheit mit der Notwendigkeit, schädliche Inhalte zu entfernen, in Einklang zu bringen.

Regulatorischer Druck: Regierungen weltweit haben begonnen, stärkere Regulierungen für soziale Medienunternehmen in Betracht zu ziehen, aber der Fortschritt war langsam und ungleichmäßig.

Interner Widerstand: Viele innerhalb der Tech-Unternehmen widerstehen weiterhin grundlegenden Veränderungen ihrer Geschäftsmodelle oder Kerntechnologien und berufen sich oft auf libertäre Ideale der Meinungsfreiheit und minimalen Regulierung.

9. Die Aufmerksamkeitsökonomie und persuasive Gestaltung nutzen die menschliche Psychologie zur Steigerung des Engagements

„Wir müssen diese korrupte Regierung stoppen.“

Das Gehirn kapern: Soziale Medienplattformen sind darauf ausgelegt, psychologische Schwächen auszunutzen, wie das Bedürfnis nach sozialer Bestätigung und die Angst, etwas zu verpassen.

Dopamin-gesteuerte Feedback-Schleifen: Funktionen wie Likes, Shares und Benachrichtigungen schaffen süchtig machende Zyklen des Engagements, die die Nutzer immer wieder zurückkehren lassen.

Gamifizierung der Interaktion: Plattformen nutzen spielähnliche Elemente, um das Nutzerengagement zu steigern, oft auf Kosten bedeutungsvoller Interaktionen oder der Informationsqualität.

Ethische Bedenken: Kritiker argumentieren, dass diese Designentscheidungen eine Form der Manipulation darstellen, was Fragen zur Ethik der persuasiven Technologie und deren Auswirkungen auf die Gesellschaft aufwirft.

Zuletzt aktualisiert:

Rezensionen

4.29 von 5
Durchschnitt von 5k+ Bewertungen von Goodreads und Amazon.

Die Chaosmaschine ist eine gründlich recherchierte und alarmierende Untersuchung der Auswirkungen sozialer Medien auf die Gesellschaft. Die Leser loben Fishers umfassende Analyse, wie Plattformen wie Facebook und YouTube zur Polarisierung, Fehlinformation und realer Gewalt beitragen. Viele fanden das Buch aufschlussreich und erschreckend, wobei besonders die Rolle der Algorithmen hervorgehoben wurde, die extremen Inhalten zum Profit verhelfen. Während einige die politische Voreingenommenheit kritisierten, waren sich die meisten einig, dass es eine wichtige Lektüre ist, um den Einfluss sozialer Medien zu verstehen. Das Buch ließ viele Leser über ihre eigene Nutzung sozialer Medien nachdenken und forderte eine verstärkte Regulierung der Technologieunternehmen.

Über den Autor

Max Fisher ist internationaler Reporter für die New York Times, wo er die Kolumne „The Interpreter“ verfasst, in der er globale Trends und bedeutende Ereignisse erklärt. Seine Berichterstattung über soziale Medien war 2019 Finalist für den Pulitzer-Preis. Zuvor berichtete Fisher über internationale Angelegenheiten für The Atlantic und die Washington Post. Seine umfangreiche Berichterfahrung fließt in seine tiefgehende Analyse der globalen Auswirkungen sozialer Medien in „The Chaos Machine“ ein. Fischers Fähigkeit, komplexe internationale Themen einem breiten Publikum verständlich zu machen, zeigt sich in seinem Ansatz, die komplexen Funktionsweisen von Social-Media-Algorithmen und deren weitreichende Konsequenzen zu entschlüsseln.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Unlock Unlimited Listening
🎧 Listen while you drive, walk, run errands, or do other activities
2.8x more books Listening Reading
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Jan 25,
cancel anytime before.
Compare Features Free Pro
Read full text summaries
Summaries are free to read for everyone
Listen to summaries
12,000+ hours of audio
Unlimited Bookmarks
Free users are limited to 10
Unlimited History
Free users are limited to 10
What our users say
30,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →