Wir lernen ziemlich viel Unsinn und kommen dadurch auf blöde Gedanken– und das nicht erst, seit es Fake News auf Social Media gibt. Wie lässt sich das alles wieder verlernen und vergessen? Und können Menschen gegen Verschwörungserzählungen geimpft werden?
Von Lea Susemichel. Mitarbeit: Chiara Kohlmorgen
Lernen ist ein Ort, an dem das Paradies erschaffen werden kann, schreibt bell hooks in ihrem Buch „Teaching to Transgress“. Die US-amerikanische Literaturwissenschaftlerin und Hochschullehrerin war überzeugt, dass Lernen vor allem darauf abzielen sollte, kritisches Denken und Selbstreflexion und so auch gesellschaftliche Veränderung zu ermöglichen. Auch für den einflussreichen brasilianischen Pädagogen Paulo Freire ist kritische Bildungsarbeit immer ein „Unterfangen der Veränderung“, bei dem Hierarchien hinterfragt und Machtstrukturen freigelegt werden, damit sie verändert werden können.
Doch nicht jede Form von Lernen fördert Emanzipation, ganz im Gegenteil.
Schließlich werden auch sexistische und rassistische Menschenbilder und antidemokratische Anschauungen erst gelernt. Denn egal, ob es um unsere Geschlechterordnung oder die Überzeugung geht, dass Kapitalismus ein Segen für alle ist – scheinbar selbstverständliche Annahmen über den Zustand der Welt und unsere Position darin wurden uns allen irgendwann beigebracht. Bildung ist also nicht einfach nur neutrale Wissensaufnahme, sondern immer mit Werturteilen und Weltanschauungen verbunden und kann so auch Unterdrückung reproduzieren, indem dabei patriarchale und autoritäre Überzeugungen tief verinnerlicht werden.
„Auslöschung“. Wer sich wie auch die Sozialwissenschaftlerin und Feministin Frigga Haug also mit der Frage beschäftigt, wie emanzipatorisches Lernen aussehen kann, das nicht auf Anpassung an ungerechte Zustände, sondern auf Veränderung und Befreiung zielt, sieht sich deshalb schnell mit einer zentralen Frage konfrontiert: Wie funktioniert eigentlich das Verlernen von menschenverachtenden und demokratiefeindlichen Ideologien? Auch für die postkoloniale Theoretikerin Gayatri Chakravorty Spivak ist Lernen untrennbar mit so einem Prozess des Verlernens verbunden. Wieder verlernt werden sollen ihr zufolge die eigenen internalisierten Privilegien und Prägungen, die beispielsweise vielen weißen Menschen bis heute nicht bewusst sind. „Unlearning one’s privilege as one’s loss“, so fasst es Spivak zusammen, gemeint ist ein Verlernen des eigenen Privilegs, das man als Verlust akzeptieren muss. Dieses Verlernen ist für sie aber eben nicht nur eine ethische Pflicht, sondern auch eine epistemische Praxis, die für echten Erkenntnisgewinn unabdingbar ist. Verlernen meint in diesem Fall ein aktives Auseinandersetzen und nicht einfach ein Vergessen, wie es beim sogenannten Extinktionslernen der Fall ist. In der Verhaltenstherapie zielt diese „Auslöschung“ darauf ab, ein zuvor erlerntes, problematisches Verhalten allmählich abzuschwächen und schließlich ganz abzulegen, indem ein Reiz wiederholt ohne die erwartete Konsequenz präsentiert wird, z. B. wenn eine Person mit Phobie in einem sicheren, therapeutischen Setting immer wieder mit dem Angstauslöser konfrontiert wird, bis die Angstreaktion schließlich ganz verschwindet.
Neuer Gedächtnisrahmen. Doch auch das vollständige Vergessen spielt bei der Korrektur unserer Überzeugungen durchaus eine wichtige Rolle. Denn unser Gedächtnis ist nicht nur fürs Erinnern zuständig, sondern ebenso fürs Vergessen, wie die Kulturwissenschaftlerin Aleida Assmann betont: Das Erinnern sei sogar die „unwahrscheinliche Ausnahme“. Die Regel hingegen ist das Vergessen, das lautlos und unbemerkt passiert und „der Normalfall in Kultur und Gesellschaft“ sei. Dieses Verschwinden von Erinnerungen an den Großteil aller Menschen hat unsere Kulturgeschichte zutiefst euro- und androzentrisch geprägt und dafür gesorgt, dass in den Geschichtsbüchern vor allem die Geschichte der Sieger erinnert wird.
Unserer Vergesslichkeit kommt aber durchaus auch eine positive, entlastende Funktion zu. Sie ermöglicht einen neuen „Gedächtnisrahmen“, wie Assmann einen historischen Paradigmenwechsel bezeichnet, in dem überkommene Deutungsmuster entsorgt und neue Formen des Erinnerns etabliert werden können. Dieser Wechsel des Gedächtnisrahmens ist ein idealtypischer Fall des kollektiven Verlernens, das große emanzipatorische Effekte haben kann – wie reizvoll wäre es schließlich, Sexismus und Misogynie einfach vergessen machen zu können? Nach politischen Umstürzen kann diese radikale Auslöschung von neuen Regimen allerdings auch höchst repressiv durchgesetzt werden. Es ist also entscheidend, ob etwa der Sturz von Denkmälern von offener, kritischer Reflexion über die Ideologien, für die sie standen, begleitet wird, oder ob er nur der Schwächung des politischen Gegners dienen soll.
Manipulation vorbeugen. Am besten wäre es freilich, wenn anti-demokratische Überzeugungen nicht erst mühsam wieder verlernt und vergessen werden müssten – ein oft vergebliches Unterfangen, wenn sich Einstellungsmuster erst mal verfestigt haben – sondern sich gar nicht erst durchsetzen könnten. Und im Zeitalter digitaler Desinformationsflut und Verschwörungserzählungen ist die Frage, wie Menschen gegen gefährliche ideologische Beeinflussung gewappnet werden können, ganz besonders dringlich.
Forscher:innen wie die Psychologen Sander van der Linden und Jon Roozenbeek empfehlen hierfür die sogenannte „Inokulation“, auch „Prebunking“ genannt (im Unterschied zu „Debunking“, also der nachträglichen argumentativen Anfechtung von Meinungen). Sie übertragen dabei das medizinische Prinzip der Impfung auf kognitive Prozesse. Die Idee dahinter: Menschen können widerstandsfähiger gegenüber manipulativen Narrativen werden, wenn sie frühzeitig mit Formen typischer Desinformationstechniken konfrontiert und dabei über deren Funktionsweise aufgeklärt werden. Van der Linden und Roozenbeek entwickelten für diese Inokulation Präventionsansätze wie das interaktive Online-Spiel „Bad News“, in dem Nutzer:innen in die Rolle von Desinformationsakteuren schlüpfen und verbreitete Strategien wie Emotionalisierung, Quellenfälschung, Polarisierung oder Trolling selbst ausprobieren können. Empirische Studien zeigen, dass solche spielerischen Prebunking-Interventionen im Vorfeld die Fähigkeit manipulative Inhalte zu erkennen erhöhen und die Anfälligkeit für Fehlinformation so reduzieren können. Hinweise auf typische Muster, nach denen Desinformationskampagnen oft konstruiert sind, stärken die kognitive und psychische Resistenz und können das kritische Urteilsvermögen fördern.
Es liegt nahe, diese Regel auch im Hinblick auf ideologische Indoktrinierung zu verallgemeinern: Prävention ist wirksamer als spätere Schadensbegrenzung. Wenn etwa Kinder und Jugendliche früh lernen, wie Narrative des Hasses und Muster gruppenbezogener Menschenfeindlichkeit funktionieren und wie sie Emotionen instrumentalisieren, werden sie weniger empfänglich für rechte Propaganda, Hetze und digitale Radikalisierung.
Gefühl von Kontrolle. Auch die Journalistin Ingrid Brodnig bestätigt: Frühzeitige Aufklärung schützt besser, später festgefahrene Meinungen korrigieren zu wollen, ist schwerer. Die Expertin für Digitalisierung und Maßnahmen gegen Desinformation beschäftigt sich seit vielen Jahren damit, warum viele Menschen so anfällig für Fake News, Falschmeldungen und Verschwörungsmythen sind: „Das Effizienteste ist die Aufklärung, bevor Leute sich tief in was reingearbeitet haben“, sagt Brodnig. Bereits einfache Hinweise, wie kritisches Hinterfragen reißerischer Überschriften, können die Wahrnehmung manipulativer Inhalte schärfen.
Im an.schläge-Interview erklärt die Autorin, dass Verschwörungsmythen vor allem eines bieten: Orientierung in unsicheren Zeiten. „Gerade Verschwörungsmythen geben Menschen sehr viel Halt, weil sie eine schlüssig scheinende Erklärung einer oft undurchsichtigen Welt geben“, so Brodnig. Besonders dann, wenn Menschen eine schwierige Phase durchleben – sei es der Verlust des Jobs, eine Trennung oder eine globale Krise wie eine Pandemie – vermitteln solche Mythen ein Gefühl von Kontrolle. „Sie geben das Gefühl, dass man etwas verstanden hätte, auch wenn sie das eigentliche Problem nicht lösen“, ergänzt sie. Psychologisch betrachtet entspricht das dem „Need for Closure“: Menschen wollen klare Antworten auf komplexe Fragen, selbst wenn die Schlussfolgerungen voreilig und falsch sind, einfach weil Unsicherheit schwer auszuhalten ist.
Wir gegen die anderen. Ein weiterer Aspekt, der Verschwörungsmythen so attraktiv macht, ist die narzisstische Selbsterhöhung, die sie erlauben. Wer behaupten kann, „Ich habe mehr verstanden als die Mehrheit da draußen“, erlebe ein Gefühl von Überlegenheit, betont Brodnig. Damit erfüllen Verschwörungsglauben und Fake News auch eine identitätsstiftende Funktion: Sie lassen ihre Anhänger:innen zu einer erleuchteten Minderheit werden, die vermeintlich über den anderen steht. Brodnig weist darauf hin, dass Verschwörungsmythen und radikale Szenen wie die Manosphere rund um maskulinistische Influencer wie Andrew Tate nicht nur wegen ihrer Ideologien attraktiv sind, sondern weil sie Gemeinschaft und Zugehörigkeit bieten. „Leute, die in der Verschwörungsgläubigen-Szene waren, erzählen oft vom großen Zusammenhalt, sie erleben dort ein starkes Gefühl des Miteinanders“, erläutert sie. Einsamkeit und fehlende soziale Bindungen können Menschen besonders anfällig für gefährliche Narrative machen. Extremistische Szenen liefern ein „Wir gegen die anderen“-Narrativ, das nicht nur Identität stiftet, sondern auch emotionale Bestätigung liefert. Gerade in jungen Altersgruppen sind diese sozialen Effekte besonders stark: Die Zugehörigkeit zu einer Community kann wichtiger sein als die Inhalte der Ideologie selbst.
Wie sich Einsamkeit und Ressentiment gegenseitig verstärken können, hat auch die Soziologin Claudia Neu erforscht. Ihre These: Menschen, die sich einsam fühlen, vertrauen demokratischen Institutionen oft weniger. Dies könne schließlich auch in einer erhöhten Neigung gipfeln, Verschwörungsmythen zu glauben oder politische Gewalt eher zu billigen.
Confirmation Bias. Was aber lässt sich entgegensetzen, wenn es für Prävention schon zu spät ist?
Die spätere Anfechtung verschwörungstheoretischer Erzählungen wird vom sogenannten Confirmation Bias erschwert. Der Begriff beschreibt die die Tendenz, Informationen so zu filtern, dass sie das eigene Weltbild bestätigen. Brodnig verdeutlicht: „Man fällt ja nicht auf die Falschmeldung hinein, die einem total widerspricht, sondern auf die Falschmeldung, die das besagt, was man sich eh schon gedacht hat.“ Dieser Mechanismus ist in der Kognitionspsychologie gut beschrieben: Menschen neigen dazu, Informationen eher zu glauben, wenn sie bestehende Überzeugungen bestätigen. Das erkläre auch, warum Aufklärung oft so schwer greift – eine Korrektur bringt Menschen auch um den emotionalen Nutzen, den ihnen der Glauben an eine bestimmte Geschichte geboten hatte.
In der digitalen Welt werden diese Effekte durch Plattform-Logiken verstärkt. Die Algorithmen von sozialen Netzwerken schlagen ihren Nutzer*innen verwandte oder ähnliche Inhalte vor, um Aufmerksamkeit und Verweildauer zu erhöhen – selbst dann, wenn die Inhalte irreführend sind. So entstehen Echokammern, die vorhandene Überzeugungen bestätigen, anstatt sie herauszufordern.
Motivated reasoning. Der Politikwissenschaftler Brendan Nyhan weist darauf hin, dass Fehlinformation besonders dann wirkmächtig wird, wenn sie identitätsstiftend ist: Menschen schützen ihre Weltbilder, nicht die Wahrheit. Informationen, die das eigene Zugehörigkeitsgefühl bedrohen, werden eher abgewehrt, selbst wenn sie korrekt sind. So erklärt sich, warum falsche Aussagen, die in vertraute Denkmuster eingebettet sind, oft widerstandsloser akzeptiert werden als nüchtern präsentierte Fakten, die den eigenen Annahmen widersprechen – das sogenannte motivated reasoning. Studien zeigen dabei immer wieder, dass ideologische Loyalität die Wahrnehmung von Fakten stark prägt.
Eng damit verknüpft ist die Anfälligkeit des menschlichen Gedächtnisses für Verzerrungen, wie die Kognitionspsychologin Elizabeth Loftus eindrucksvoll nachweisen konnte. In ihren Experimenten zur Suggestibilität demonstrierte sie, dass bereits kleine sprachliche Nuancen – etwa die Frage, ob Autos „zusammenstießen“ oder sich „berührten“ – die Erinnerung an ein Ereignis, im konkreten Fall die Schwere eines Unfalls, erheblich verändern können. Loftus’ Forschung zeigt, dass menschliches Erinnern durch externe Suggestion und innere Rekonstruktion hochgradig veränderbar ist. Im Kontext von Falschmeldungen bedeutet das, dass Erinnerungen und Wahrnehmungen aktiv durch Narrative, mediale Darstellung oder soziale Bestätigung geformt werden können.
Backfire-Effekt. Erschwerend für Interventionsversuche ist auch der mit dem Phänomen der ideologischen Loyalität eng verknüpfte „Backfire-Effekt“. Er beschreibt, dass Menschen nach einem Korrekturversuch von Fehlinformationen mitunter sogar noch stärker als vorher an ihrer falschen Überzeugung festhalten. Die Vermutung ist, dass eine verhärtete politische Identität diese Art Trotzhaltung begünstigt – Menschen verteidigen dann ihr Selbstbild und ihre Zugehörigkeit zu einer ideologischen Gruppe. Der enorme Widerstand gegen „Wokeness“ und der reaktionäre Backlash, der auf die Forderungen von Feministinnen oder marginalisierter Gruppen regelmäßig folgt, scheint diese Theorie zu bestätigen. Wenn konkurrierende Wertvorstellungen als Bedrohung und Angriff auf die eigene Lebensweise empfunden werden, entsteht häufig eine besonders heftige Gegenreaktion. Neuere Arbeiten, etwa von der Kognitionspsychologin Briony Swire-Thompson, zeigen jedoch, dass ein genereller Backfire-Effekt deutlich seltener auftritt als ursprünglich angenommen, Aufklärung kann also durchaus auch korrigierende Wirkung entfalten, zumindest sofern für die Gegenseite nicht allzu viel auf dem Spiel steht.
Ingrid Brodnig verweist jedoch auch darauf, dass jeder Korrekturversuch einer Falschinformationen in einem kommunikativen Dilemma steckt: „Die Korrektur einer Falschmeldung kann die Falschmeldung größer machen.“ Als Beispiel nennt sie den TikTok-Hoax „National Rape Day“, der jährlich auftaucht. Dabei wird behauptet, dass es einen Tag im Jahr gäbe, an dem sexuelle Gewalt gegen Frauen straffrei sei. Nachdem ein Berliner Senator vorab vor der misogynen Erzählung warnte, entfachte dies eine öffentliche Debatte, die die Falschmeldung weiter verstärkte.
Hohe Viralität. Emotionen sind dabei ein wesentlicher Faktor, analysiert Brodnig, vor allem Wut, Angst oder Empörung: „Wut ist eine besonders stark aktivierende Emotion.“ Empirische Daten zeigen, dass Inhalte, die Wut erzeugen, signifikant häufiger geteilt werden. Fake News würden diese Mechanismen gezielt nutzen, um Viralität zu erzeugen und sich die Aufmerksamkeit von Nutzer:innen zu sichern, so die Autorin.
Das bestätigt auch eine in „Science“ veröffentlichte Studie, bei der Forschende die Verbreitungsdynamik von über 126.000 Nachrichten auf Twitter untersuchten. Das Ergebnis: Falsche Nachrichten verbreiten sich nicht nur weiter, sondern auch deutlich schneller als wahrheitsgetreue Nachrichten. Besonders auffällig war, dass Meldungen, die starke Emotionen wie Wut, Angst oder Überraschung hervorriefen, eine deutlich höhere Viralität aufwiesen als einfache Fakten. Auch Nachrichten, die überraschend oder ungewöhnlich erscheinen, werden eher weitergegeben, selbst wenn sie offensichtlich falsch sind. Die Kombination aus emotionaler Aktivierung, ideologischer Bestätigung und Neuigkeitswert schafft also einen idealen Nährboden für Desinformation in sozialen Netzwerken. Besonders folgenschwer dabei ist: Diese Mechanismen werden gezielt monetarisiert, weil sie für mehr Klicks sorgen. Jede Interaktion steigert die Sichtbarkeit der Beiträge und generiert gleichzeitig Werbeeinnahmen für die Plattformen oder Einnahmen für die Urheber*innen des Contents, Falschmeldungen werden damit also auch ökonomisch belohnt.
Liar’s Dividend. Die Profiteure von Desinformation sind aber nicht nur jene, die kommerzielle Interessen verfolgen, erklärt Brodnig. Neben windigen Coaches oder Anbietern fragwürdiger Produkte profitieren vor allem auch politische Influencer und extremistische Akteur:innen: „Viele Falschinformationen sind ja politisch ausgerichtet, richten sich gegen Minderheiten und transportieren antisemitische, muslimfeindliche oder transfeindliche Erzählungen.“ Sie nutzen also bewusst Falschmeldungen, um Feindbilder zu etablieren und gesellschaftliche Hierarchien zu zementieren.
Mit dem Aufkommen von KI-generierten Videos hat sich die Lage noch verschärft. „Weil auch große Anbieter wie Google und OpenAI jetzt Video-Tools anbieten, ist die Gefahr der Täuschung größer geworden“, sagt Brodnig. Solche Videos untergraben das Vertrauen in visuelle Wahrnehmung: Menschen beginnen, selbst echten Videos zu misstrauen – ein Effekt, der als Liar’s Dividend bezeichnet wird. Erst werden Zweifel gesät, reale Aufnahmen werden dann infrage gestellt, wodurch die Glaubwürdigkeit verlässlicher Quellen erodiert.
Truth Sandwich. Doch wenn selbst Korrekturversuche oft nach hinten losgehen, was hilft dann überhaupt noch?
Es reiche nicht, sachliche Korrekturen anzubieten, auch wenn diese natürlich weiterhin unverzichtbar seien, resümiert Ingrid Brodnig. Sie empfiehlt, Fragen zu stellen, etwa „Woher hast du deine Info?“ aufmerksam zuzuhören und empathisch zu argumentieren. Für konkrete Debatten empfiehlt sich die Anwendung das sogenannten „Truth Sandwich“: Zuerst wird dabei die korrekte Information präsentiert, danach die Falschmeldung mit Erklärung, warum sie falsch ist, und zum Schluss muss die Richtigstellung nochmals betont werden.
Klar ist: Wer mit Bildung „das Paradies erschaffen“ will – um an das Eingangszitat von bell hooks zu erinnern – oder zumindest der politischen Hölle entfliehen will, die rechtsextreme Verschwörungserzählungen allerorten heraufbeschwören, kann jedenfalls nicht allein auf Faktenchecks setzten. Immer muss auch berücksichtigt werden, wer aus diesen Narrativen politisches, ökonomisches oder psychologisches Kapital schlägt, um auch gegen all diese Anreize vorgehen zu können. Dafür braucht es nicht nur Aufklärung und klare Argumentationsführung, sondern unbedingt auch eine Regulierung des Plattformkapitalismus und Gesetze, die wirksam vor Hetze und politischer Manipulation durch Fake News schützen.
