KI und Demokratie: zwischen Untergang und Heilserwartung. Teil 1
„Der Diskurs über KI bewegt sich zwischen Hype und Untergang“, eröffnete Dr. Nikolai Horn den ersten Vortrag. Horn ist Philosoph und arbeitet im iRights.Lab, einem ThinkTank zu gemeinwohlorientierter Digitalisierung. „Entweder wird KI mit Gott gleichgesetzt oder aber mit der Atomkraft verglichen“, beschrieb er die Aufregung über die aktuellen Entwicklungen, die seit der Veröffentlichung von ChatGPT ordentlich in Bewegung gekommen sind. Rund 130 neue Anwendungen würden aktuell pro Tag vorgestellt, berichtete er – und nein, er selbst würde nicht hinterherkommen, alle genau zu betrachten. Immerhin, eine Anwendung kennen fast alle: Denn nahezu alle Teilnehmerinnen und Teilnehmer des Fachtags hoben die Hand, als die Frage aufkam, wer ChatGPT schon einmal verwendet hätte.
Droht die Algokratie?
Dr. Horn beschrieb die verschiedenen Narrative: Entweder wird KI als höchst bedrohlich angesehen. Es könnte zur Manipulation eingesetzt werden, so die Befürchtung; oder es drohe möglicherweise die „Algokratie“, was – abgeleitet von dem Wort Algorithmus – die Herrschaft der KI über die Menschen bedeuten würde. Das Gegenteil davon nennt er das Hermes-Narrativ: Das betrachtet KI als alternativlos, es gehe um Effizienz und Entlastung und also unsere Wettbewerbsfähigkeit. Das Prometheus-Narrativ schließlich denkt Potenziale und Risiken zusammen, wofür sich Horn ausspricht: Er favorisiert die reflexive Einzelfallbetrachtung jedes Tools, um eine Einschätzung über Risiken, Gefahren und Chancen vornehmen zu können.
Als Philosoph konnte er sich auch nicht einen Ausflug auf die Metaebene verkneifen. So wies es zurecht darauf hin, dass über Begriffe wie „Intelligenz“, „lernen“ und „halluzinieren“ KI regelrecht vermenschlicht werde, was falsche Assoziationen wecke. Dabei, so der Philosoph, ist sich die Forschung noch gar nicht einig, was Bewusstsein eigentlich genau ist. Auch den Begriff „Intelligenz“ sieht er in diesem Zusammenhang als problematisch an, wisse man doch auch noch gar nicht genau, was das eigentlich bedeutet. „Wir aber tun so, als wüssten wir, dass es bald ein eigenes künstliches Bewusstsein mit eigener Intelligenz gibt“, stellte Horn fest.
Auswirkungen auf die Demokratie
Im weiteren Verlauf seines Vortrags untersuchte Horn zentrale Demokratie-Aspekte wie Volkssouveränität, Gewaltenteilung und freie Information auf Risiken und Chancen, die durch den Einsatz von KI entstehen könnten. Er brachte verschiedene Beispiele: So könne etwa die Volksouveränität durch den Einsatz bei Beteiligungsverfahren erheblich profitieren. Als Risiken identifizierte er die mögliche Entstehung von Echokammern, die Priorisierung emotionalisierender, affektiver Beiträge und die Manipulation von Mikrogruppen.
Noch konkreter wurde er bei dem Einsatz im Bereich Gewaltenteilung. So erzählte er von einem Beispiel aus den Niederlanden, wo die komplette Regierung zurücktreten musste, nachdem eine KI-Software Eltern Betrug bei Beihilfen unterstellt hatte. Die Datengrundlage war schlicht falsch, dafür musste am Ende die Regierung die Verantwortung übernehmen. Ein weiteres Beispiel: Eine in den USA eingesetzte Software unterstellte dunkelhäutigen Menschen, potenziell schneller rückfällig bei Straftaten zu werden. Er brachte auch ein Beispiel aus Deutschland: Das Bundesamt für Asyl sei heftig kritisiert worden, weil es KI eingesetzt habe, um Dialekte zu erkennen und so den Herkunftsort von Flüchtlingen zu ermitteln. „Neben Hermes gibt es auch Pandora“, sagte Horn in Anspielung auf die Missbrauchsmöglichkeiten – etwa die Entstehung eines Überwachungsstaates – durch den Einsatz von KI-Software.
Grundrechtseingriffe durch Plattformbetreiber?
Für nahezu jeden Demokratieaspekt nannte Nikolai Horn Chancen und Herausforderungen: KI könnte sowohl dafür eingesetzt werden, antidemokratische Trends zu identifizieren wie auch diese in Umlauf zu bringen. Eine große Rolle spielt dabei in seinen Augen auch die mögliche Abhängigkeit von IT-Lösungen der Unternehmen, was eine Delegation hoheitlicher Aufgaben an Plattformbetreiber bedeuten würde. Und die grundsätzliche Frage nach dem Gewaltmonopol stellt: „Ist das Aussortieren von Hasskommentaren nicht schon einen Grundrechtseingriff?“ fragte er.
Horn kam zu dem Schluss: „KI ist weder pro- noch antidemokratisch.“ Alle Aspekte von Demokratie seien potenziell KI-offen, wir sollten dabei den Fokus jedoch nicht nur auf Desinformationen legen, so Horn. Doch KI allein kann Demokratie weder retten noch stärken, denn: „Die KI lebt von Voraussetzungen, die nicht-technologischer Form sind. Die Anwendungen an sich sind dann eher sekundär.“
Es bleiben aber, und damit schloss sein Beitrag, eine Reihe offener Fragen: Wie fließen demokratische Werte in die Algorithmen-Logik, z.B. bei der Bewertung der Relevanz von Beiträgen ein? Können wir wirklich die Wertevermittlung auf Anbieter und Tech-Konzerne übertragen? Welche Haltung haben diejenigen, die KI-Tools entwickeln und einsetzen? „Es bringt alles nichts, wenn Menschen demokratische Werte nicht teilen“, so Horn.
Desinformation mit KI bekämpfen
Als nächstes trat Isabel Bezzaoui ans Rednerpult. Die Soziologin ist Mitarbeiterin im Projekt DeFaktS vom Forschungszentrum Informatik in Karlsruhe. DeFaktS soll dabei helfen, Online-Desinformation zu bekämpfen. Der Name steht dabei für „Desinformationskampagnen beheben durch Offenlegung der Faktoren und Stilmittel“.
Bezzaoui erklärte im Detail, wie ihr Team die Programmierung der Software angegangen sei. Als einer der ersten kniffeligen Fragen hatte sich das Team damit auseinandersetzen müssen, wie man einen Datensatz herstellt, der anhand von typischen stilistischen Mitteln eine Unterscheidung treffen kann zwischen Desinformation und vertrauenswürdiger Information. Dabei wurde nicht versucht, Wahrheit zu erkennen, sondern stilistische und sprachliche Mittel auszumachen, die häufig in Falschinformationen eingesetzt werden. „Eine nicht ganz triviale Aufgabe“, so Bezzaoui. Die Forschenden haben eine Taxonomie entwickelt, welche die sprachlichen Merkmale und Stilmittel kategorisiert. Neun Tutoren hätten anhand dieser in einem Zeitraum von über zwölf Monaten über 30.000 Nachrichten aus Twitter und Telegram gesichtet, mit Labels versehen und damit die Datengrundlage für die KI erstellt.
Das Ziel des Forschungsprojektes ist es schließlich, eine App zu entwickeln, mit der Nutzerinnen und Nutzer von Android-Geräten sich Beiträge in sozialen Medien bewerten lassen können. Dabei gibt die KI eine Wahrscheinlichkeit aus, mit der ein Post eine Desinformation sein könnte und erstellt eine nachvollziehbare Erklärung welche Merkmale darauf hindeuten.
DeFaktS habe aber Grenzen, so Bezzaoui: Es könne sensibilisieren und ein Bewusstsein schaffen. Das Programm ersetze aber nicht das klassische Fact-Checking und könne also keine entsprechenden Organisationen ersetzen; es sei also allenfalls ein Anfang. „Wir können so nicht das das Problem der Desinformation und ihrer Folgen ganzheitlich lösen“, so Bezzaoui.
Desinformations-Narrative besser verstehen
Per Video schaltete sich Dr. Vera Schmitt, Forschungsleiterin der XplaiNLP Research Group an der TU Berlin, dazu. Sie eröffnete ihren Vortrag mit einigen persönlichen Informationen: Fotos zeigten sie auf einem 7.000er Berg im Himalaya, in der Wüste und beim Weltraum-Training, dass sie auf einen Aufenthalt auf der Raumstation ISS vorbereiten sollte. Auch wenn die Fotos überzeugend realistisch aussahen, war schnell klar: Nur eines der Motive war wirklich echt, die anderen waren mit einer generativen KI erstellt worden.
Schmitt berichtete über ihre Forschung zu Desinformation an der TU Berlin. Die XplaiNLP Gruppe untersucht Möglichkeiten, Des- und Misinformation mithilfe von KI zu erkennen und zu bekämpfen. Denn gezielte Desinformation wird sowohl im Vorfeld von Wahlen als auch bei Konflikten und Kriegen wie in der Ukraine und Israel eingesetzt. Im Projekt news-polygraph entwickeln die Forscherinnen und Forscher eine Plattform, die Journalistinnen und Journalisten dabei unterstützen soll, Desinformation in Bild, Video, Audio und Text zu erkennen. Bei dem Projekt VeraXtract liegt der Fokus darauf, Desinformationsnarrative besser zu verstehen. Ziel ist es, eine umfassende Übersicht über Mis- und Desinformationen zu schaffen, um insbesondere Bürgerinnen und Bürger den Zugang zu diesen Informationen zu erleichtern.
„Die Programmierung der KI sei das größte Problem“, so Schmitt. Auch sie verwendete die Beschreibung „nicht ganz trivial“ für diese Herkules-Aufgabe. Bei Bildern sei die Untersuchung schwieriger als bei Texten: „Am Ende schaut man Pixel für Pixel durch“, so Schmitt. Eine andere Herausforderung sei die Frage, wie transparent man das eigene Modell mache, könnte dies doch am Ende Manipulationsmöglichkeiten eröffnen.
Zusätzlich gäbe es noch umfangreiche rechtliche Herausforderungen zu beachten. Desinformation mit Software zu bekämpfen, sei aktuell ein Katz-und-Maus-Spiel: „Ja, im Kampf um die Enttarnung sind wir auf jedem Fall weithinterher im Rückstand“, sagte Schmitt. Dies sei auch eine Frage der Ressourcen.
weiter zu Teil 2 des Tagungsberichtes
Empfehlungen unserer Gäste, der Teilnehmenden und uns finden Sie auch in der TaskCard, die im Rahmen der Tagung befüllt wurde.