Welche Rolle spielte Desinformation bei den Wahlen in Sachsen? (2/2)

Bei der Veranstaltung der SLpB am 10. September im Leipziger Ariowitsch-Haus diskutierten Dr. Johannes Kiess vom Else-Frenkel-Brunswik-Institut (EFBI), Una Titz vom Projekt Faktenstark und Sina Laubenstein vom Institute for Strategic Dialogue. Im ersten Teil des Abends hatten alle Drei die Ergebnisse ihrer Analysen von demokratiefeindlichen Beiträgen in den sozialen Medien dargelegt. In Teil 2 geben wir einen Einblick in die Podiumsdiskussion. Dabei wurden weitere Hintergründe, der Einfluss auf die Wahlergebnisse und auch ein Ausblick die kommende Bundestagswahl besprochen.

Hier geht es zu Teil 1 unserer Dokumentation: Dort können Sie die drei Einzelvorträge in Kurzform zusammengefasst nachlesen oder als Video-Aufzeichnung komplett anschauen.

Freie Meinung oder bewusste Verzerrung?

Zu Beginn der Debatte verwies Sina Laubenstein auf das Grundgesetz Artikel 5, Absatz 2. Darin ist festgehalten, dass die Meinungsfreiheit dort ihre Grenzen hat, wo andere Grundrechte – etwa die Menschenwürde oder die freie Selbstentfaltung – verletzt werden. Von dort leiten sich solche Strafgesetze ab wie die zu Verleumdung, Beleidigung oder Volksverhetzung.

Una Titz machte sich ergänzend für den Begriff der Wahrheit stark. Sie formulierte somit einen Anspruch an Meinung, mit gesicherten Erkenntnissen und konkreten Beweisen begründet zu werden.

Als Soziologe stellte Johannes Kiess vom heraus, dass man sich viel häufiger fragen müsse, wer da was mit welcher Absicht kommuniziere und welche Wirkungen dies erzeuge. Denn rechtlich verboten ist Lügen an sich nicht. Das Problem der Desinformation bzw. der Informationsstörung bestehe jedoch darin, dass sie dem gesellschaftlichen Zusammenhalt Schaden zufüge, indem das Vertrauen in sachlich fundiertes Wissen untergraben werde.

Wie weit verbreitet ist Desinformation?

Johannes Kiess erklärte, dass man zwar grundsätzlich die Verbreitung von bestimmten Bildern oder Erzählungen messen könne. Dafür könnten Zahlen der sozialen Medien über Interaktionen oder Reichweiten genutzt werden. Doch bislang sei es technisch nicht möglich, Algorithmen zu entwickeln, die antisemitische Erzählungen zuverlässig von sachlichen Berichten über Jüdinnen und Juden unterscheiden könnten. Der Mensch sei wesentlich genauer darin, subtile Mittel zu erkennen. Händisches Auslesen sei jedoch in Anbetracht der Menge der Posts nicht vorstellbar.

Sina Laubenstein berichtete über Erkenntnisse aus der Forschung: Desinformationen verbreiteten sich schneller und auch weiter als deren Richtigstellung. Nicht zuletzt auch deshalb, weil reißerische und emotionalisierende Inhalte einen strategischen Vorteil auf kommerziellen Plattformen hätten.

Una Titz erinnerte nochmal daran, dass es neben der Desinformation unterschiedliche Formen und Techniken gibt, um die gewünschte manipulative Wirkung zu erzielen. Das mache es schwieriger, die Menge und den Anteil an den Inhalten im Internet zu schätzen.

Analyse von Plattformen schwierig

Una Titz berichtete, dass sich Social-Media-Plattformen in der Regel eher entziehen würden, wenn es um die Analyse der Verbreitung von Fake News gehe. TikTok sei vermeintlich um Aufklärung bemüht, da es stark in der Kritik stehe. Doch um TikTok zu analysieren, brauche man einen technischen Zugang und den bekomme man schlecht. Die Plattform X ist ihrer Ansicht nach seit der Übernahme durch Elon Musk für die Forschung „komplett verloren“.

Auch ein Monitoring von Facebook und Instagram sei derzeit schwieriger: Meta habe im August das seit Jahren von Forschenden genutzte Analysetool CrowdTangle abgestellt. Zugang zu einem neuen Werkzeug habe laut Titz in Deutschland nur noch das Weizenbaum-Institut – und dieses dürfe das Werkzeug nicht herausgeben.

Sina Laubenstein bemerkte dazu, dass sich die Hoffnung auf den Digital Service Act der EU bislang nicht erfüllt habe. In diesem sei unter anderem geregelt, dass die Plattformen der Wissenschaft ihre Daten bereitstellen müssen. Doch noch sei der Forschungsdaten-Zugang noch nicht realisiert und die Ausgestaltung zudem unklar.

Langfristiger Einfluss auf Wahlergebnisse

Vor den Wahlen waren die Sorgen groß, dass gezielte Falschinformation die Wahlen beeinflussen könnten. Aus der Erforschung von Wahlverhalten ist bekannt, dass viele Faktoren zur Entscheidung beitragen und diese nicht leicht nachgewiesen werden können.

Die Analysen von Kiess, Titz und Laubenstein zeigen: Es gab nicht die eine große Desinformationskampagne zur gezielten Manipulation der Landtagswahlen 2024 in Sachsen. Vielmehr würden permanent und über Jahre hinweg desinformierende Narrative verbreitet. Das führe letztendlich dazu, dass sich Meinungen zu gesellschaftlich relevanten Themen verschieben und damit auch Wahlergebnisse langfristig beeinflusst werden.

Johannes Kiess beklagte zudem die allgemein schlechte Qualität des politischen Diskurses über kontroverse Themen in Deutschland. Diese führe dazu, dass demokratisch eingestellte Menschen demotiviert würden und sich zunehmend aus dem öffentlichen Diskurs zurückzögen. Und das komme wiederum denjenigen zu Gute, die Falschinformationen verbreiten und das gesellschaftliche Klima vergiften wollten.

Wer produziert den desinformierenden Content?

Basierend auf der Telegram-Analyse berichtete Johannes Kiess, dass dies themenabhängig sei. Beispielsweise gebe es zahlreiche QAnon-Kanäle in Sachsen, die Inhalte von außen aufnehmen und verbreiten würden. Hinter QAnon steht eine weltweite verschwörungsideologische Szene, die davon überzeugt ist, dass Eliten satanische Rituale mit Kindern durchführen, um ihre Macht zu sichern.

Außerdem gebe es einzelne unternehmerisch agierende Personen, die Geld mit Desinformation und hetzerischen Posts verdienen. Zudem beobachtete das EFBI auch winzige Player etwa aus der Reichsbürger-Szene, die recht primitiv gestaltete desinformierende Inhalte erstellen. Da jedoch sehr einfache Botschaften in den sozialen Medien besonders gut funktionieren, könnten auch Inhalte von sehr unbedeutenden Akteuren große Reichweiten erreichen.

Una Titz zählte eine ganze Reihe von Akteuren auf: russische Polittechnologen und chinesische Staatspropagandisten; Trollfabriken, die wie Marketingunternehmen arbeiten; Betrüger und sogenannte Finfluencer, die mit Verschwörungserzählungen Cryptowährung oder Edelmetalle verkaufen möchten; und Rechtsextreme aus dem In- und Ausland, die mit bewusst falschen Geschichten völkische, rassistische und autoritäre Ideen verbreiten wollen.

Sina Laubenstein bestätigte, dass die verschiedenen Akteure weltweit zwar zum Teil unterschiedliche Interessen verfolgten. Aber sie seien untereinander vernetzt, würden voneinander lernen und sich gegenseitig auch verstärken. Sie erinnerte zudem daran, dass manche der desinformierenden Geschichten bereits Jahrhunderte alt sind und in abgewandelter Weise immer wiederholt werden – wie beispielsweise die antisemitische Ritualmordlegende.

Verhaltenskodex: ja oder nein?

Auf der Suche nach Gegenmaßnahmen für kommende Wahlen wurde ein Verhaltenskodex für politische Parteien, aber auch für zivilgesellschaftliche Akteure im Online-Wahlkampf ins Gespräch gebracht. Eine Abstimmung im Publikum ergab eine eindeutige Zustimmung zu dieser Idee, bei einzelnen Enthaltungen. Das Podium hatte gemischte Ansichten dazu:

Una Titz hatte vor allem Fragen zur Umsetzung und Entstehung eines solchen Kodexes; Sina Laubenstein zeigte sich skeptisch bezüglich der Umsetzbarkeit; Johannes Kiess äußerte sich dagegen eher zuversichtlich: Ein solcher Kodex würde zumindest eine wichtige Diskussion in Gesellschaft und Politik über die Qualität der politischen Öffentlichkeit anstoßen. Zudem könne man ein solches Papier auch als Argument nutzen, um mit den Plattformen dazu ins Gespräch zu gehen.

Medienkompetenz: der wichtigste Schlüssel?

Wenn über falsche und schädliche Inhalte in (digitalen) Medien gesprochen wird, dann folgt zumeist schnell der Ruf nach Medienkompetenzprojekten. Doch ist Medienkompetenz der zentrale Schlüssel im Kampf gegen Desinformation? In der Abstimmung stimmte das Publikum zu großen Teilen zu, doch auch einige Nein-Stimmen hatten sich daruntergemischt.

Das Podium sah es etwas anders: Sina Laubenstein meinte, Medienkompetenz sei nur ein Baustein. Auch Una Titz meinte, Medienkompetenz allein sei zu wenig, es brauche weitere Formen der politischen Bildung. Denn allein das Wissen, wie verschiedene Medien funktionieren und wie man sich darin sicher bewegt, schütze nicht davor, anfällig zu sein für vereinfachte Welterklärungen, propagandistische Heilversprechen oder der Macht von Emotionen in manipulativen Strategien.

Johannes Kiess verwies in dem Kontext nochmal auf den Wert von fairen und qualitativ geführten Diskussionen – etwas, das alle in der Gesellschaft seiner Ansicht nach lernen und üben müssten.

Gesamtgesellschaftliche Herausforderung

Als Fazit des Abends wurde klar: Desinformation, Hassrede und weiteren unlauteren Mitteln in der demokratischen Debattenkultur kann nur ganzheitlich begegnet werden. Informations-, Medien- und Nachrichtenkompetenz sind wichtig, wie auch die Offenheit für eine wertschätzende und faktenbasierte Kommunikation.

Im Kampf gegen Desinformation und andere Informationsstörungen braucht es ebenso eine funktionierende Regulierung der Medienplattformen. Schließlich gilt es, auch psychologische Aspekte zu bedenken. Denn die Anfälligkeit für populistisch geschürte Ängste, für Feindbilder und Verschwörungsideologie ist nicht (allein) durch eine falsche oder mangelnde Bildung zu erklären.

Letztlich geht es darum, den Nährboden für Extremismus und Verschwörungsideologie, Antisemitismus und menschenfeindliche Weltbilder zu entziehen.

Sina Laubenstein betonte abschließend, es sei daher auch wichtig, eine Politik zu machen, welche transparent arbeitet und Probleme der Menschen löst, um das Vertrauen der Gesellschaft zu bewahren oder auch zurückzugewinnen.