Herr Güllner, vor einigen Monaten verbreitete sich auf dem Kurznachrichtendienst X eine erstaunliche Botschaft der deutschen Außenministerin. Annalena Baerbock schien nahezulegen, dass die Ukraine den Krieg bald verlieren werde. Auf den ersten Blick wirkte alles echt: das Foto der Ministerin, die Zahl der Follower…
Lutz Güllner : … dabei war alles daran falsch, wie man heute weiß. Ein klassischer Fall – es geht um gefälschte Inhalte, um falsche Fotos und Sonstiges, oft frei erfundenes Material. Das ist aber nicht unser einziges Problem. Oft werden solche Inhalte über Nachrichtenplattformen verbreitet, die gar keine sind oder die – etwa mit einer künstlich erhöhten Zahl von Followern – so tun, als wären sie wichtiger, als sie sind.
Was erhoffen sich die Urheber eines solchen gefälschten Posts?
Güllner: Politische Vorteile für die eigene Sache, das ist die Regel. Man will Unsicherheit streuen, Spaltungen in der Gesellschaft vertiefen. Im Fall des Baerbock-Posts sollten Zweifel verstärkt werden, wie lange die Ukraine dem russischen Angriff noch standhält.
Wie kann man herausfinden, ob ein Post gefälscht ist?
Güllner: Das ist oft sehr schwierig. In den vergangenen Jahren werden diese Kampagnen immer professioneller. Ich kann nur raten, jedes Mal die Quelle zu hinterfragen: Woher kommt das? Wer hat ein Interesse, dass ich das lese? Kenne ich den, der das ins Netz stellt?
Sie bekämpfen im Auftrag der EU Desinformation. Wenn Sie so einen gefälschten Post wie von Frau Baerbock finden, was machen Ihre Leute da?
Güllner: Das hängt immer von der Situation ab. Gegenkommunikation, das Richtigstellen, wir nennen das Debunking, das kann gut funktionieren. Es kann aber auch das Gegenteil bewirken, etwa, weil man Inhalte weiter verstärkt. Das Wichtigste ist, die Methoden hinter der Desinformation aufzuzeigen. Welche Strukturen stecken dahinter, welche Akteure? Mit welchen Mitteln wird gearbeitet? Licht ins Dunkel bringen, das ist unser wichtigster Job.
Die Zahl der russischen Troll-Fabriken geht in die Zehntausende, wie viele Leute haben Sie im Einsatz, um diese Attacken zu kontern?
Güllner: Auf der Angreifer-Seite kennen wir die Zahlen nicht sehr gut, das sind nicht nur Troll-Fabriken, sondern auch ein ganzer Apparat von staatlich kontrollierten Medien und manchmal sogar der russische diplomatische Dienst. Dem gegenüber steht meine Einheit mit 42 Mitarbeitern. Zum Glück bauen EU-Mitgliedstaaten Strukturen auf, das ist wichtig. Schweden und Frankreich sind hier gute Beispiele, auch Deutschland will die Früherkennung jetzt verstärken. Dazu kommt die Zivilgesellschaft: Faktenchecker, Forscher, Journalisten sind unschätzbare Verbündete. Aber klar: Das ist eine asymmetrische Ausgangslage.
Was unterscheidet Fake News von plumper Propaganda?
Güllner: Desinformation ist schwerer zu widerlegen, weil es nicht unbedingt um falsche Tatsachen geht. Meist wird mit einem wahren Kern gearbeitet. Außerdem geht es nicht um einen klar erkennbaren „Angriff“. Die Desinformationskampagnen, die wir sehen, sind eher unterschwellig, wie ein dauerhaftes Trommelfeuer, anhaltend und stetig. Technisch werden ganze Bot-Netzwerke aufgebaut, die uns mit E-Mails überschwemmen, und Hunderte Informationsportale geschaffen, um uns mit Informationen zu überfluten. Hunderte von Netzwerken, die immer wieder bespielt werden, 360 Grad, jeden Tag im Jahr – das ist die Herausforderung, vor der wir stehen.
Auf der Website „EU vs. Disinfo“ listen Ihre Leute mehr rund 16.500 aufgedeckte und widerlegte Vorgänge von Desinformation auf. Wie viele davon kamen aus Russland?
Güllner: Fast alle. Das liegt aber auch daran, dass die Webseite 2016 mit Mandat des Europäischen Rates geschaffen wurde, um Russland in den Blick zu nehmen. Inzwischen schauen wir uns auch andere Akteure an, etwa China. Uns geht es darum, die Muster hinter den einzelnen Angriffen zu zeigen.
Stellen Sie jetzt, vor den Europawahlen, eine Zunahme der Beeinflussungsversuche fest?
Güllner: Es gibt immer ein Risiko, dass Wahlen von außen manipuliert werden, deswegen schauen wir bei den Europawahlen genau hin. Wir sehen derzeit keine Zunahme, was die Zahl der Desinformationen von russischen Akteuren angeht, aber wir sehen, dass die Kampagnen immer raffinierter werden. Neu ist zum Beispiel, dass die Täter aus Russland für irreführende Kampagnen geklonte Webseiten von Medien, wie etwa dem Spiegel oder Le Monde, benutzen. Hier wird dann oft damit argumentiert, dass die Ukraine ein gescheiterter Staat sei und keinerlei Hilfe benötige. Täuschend echt – und doch falsch.
Diese Kampagnen haben ihren Ausgangspunkt im Internet, welchen Einfluss haben sie in der realen Welt?
Güllner: Das ist schwer zu messen. Aber wir sehen immer wieder, wie solche Kampagnen zu realen Ereignissen führen, wie etwa im berühmten Lisa-Fall…
… 2016 war das, als das von sozialen Medien befeuerte Gerücht über ein angeblich von arabischen Flüchtlingen verschlepptes und vergewaltigtes russisches Mädchen dazu führte, dass in Deutschland Tausende Russlanddeutsche auf die Straße gingen. Außenminister Lawrow mischte sich ein – und dann wurde das Kind wieder gefunden – wohlbehalten und unversehrt.
Güllner: Ein nahezu klassisches Beispiel. Oder schauen Sie, ganz aktuell, nach Frankreich, wo ein russisches Propaganda-Netzwerk versuchte, die ohnehin aufgeheizte Stimmung nach dem Überfall der Hamas auf Israel dadurch zu verstärken, dass es massenhaft Davidsterne auf Gebäude sprühen ließ – und die Fotos davon in sozialen Medien verbreitete. Man kann Desinformation daher nicht einfach beiseite wischen, nach dem Motto: Lass sie doch reden. Nein, das sind sehr ernste Angriffe auf unsere Gesellschaft.
Neben den sozialen Medien gibt es deutlich hemdsärmeligere Methoden der Beeinflussung. Derzeit gibt es Vorwürfe gegen mehrere Politiker der AfD, sie hätten Geld kassiert, um russische Propaganda zu verbreiten.
Güllner: Desinformation ist kein isolierter Akt, im Gegenteil: Desinformation ist ein Instrument aus dem Werkzeugkasten des Kreml, eines von vielen. Das wird frei kombiniert – mit Bestechung, Korruption, Ausnutzung von Abhängigkeiten. Erinnern Sie sich an den Mitschnitt des Gesprächs von Bundeswehr-Offizieren über mögliche Lieferung von Taurus-Marschflugkörpern aus den Beständen der Bundeswehr an die Ukraine. Die Soldaten wurden abgehört, das war also eine Cyberattacke. Dann wurden die Inhalte über russische staatliche Medien-Plattformen bewusst an die Öffentlichkeit gespielt, um zu manipulieren. Auch das ist typisch: Es geht hier nicht einfach darum, die Sichtweise des Kreml zu transportieren, sondern manchmal auch darum, Verwirrung zu stiften, den Raum mit widersprüchlichen Narrativen zu fluten.
Was können Schulen tun, was können Journalisten tun, um Fake News zu enttarnen?
Güllner: Die Arbeit der Zivilgesellschaft ist zentral. Wir alle müssen unsere Resilienz, unsere Widerstandsfähigkeit stärken. Journalisten, Faktenchecker, digitale Medienkompetenz, all das hilft, um das Problem richtig einzuordnen und um die Gefahr zu erkennen, die für unser demokratisches Zusammenleben davon ausgeht.
Im Zuge der Sanktionen gegen Russland nach dem Überfall auf die Ukraine hat die EU russische TV-Sender wie RT und Sputnik verboten. Auch wenn man die Inhalte dieser Sender nicht teilt, ist das der richtige Weg, oder geht das – Stichwort Meinungsfreiheit – zu weit?
Güllner: Nein, dieser Schritt ist absolut gerechtfertigt. Es geht hier darum, dass der russische Staat RT und Sputnik als Instrument benutzt hat, um seinen illegalen Angriff auf die Ukraine zu unterstützen. Wir Europäer treffen solche Entscheidungen nicht leichtfertig, gerade, weil wir den Wert der Meinungsfreiheit kennen. Aber wir müssen aufpassen, dass unsere offene Gesellschaft nicht zu unserer Schwäche wird. Ein Begriff, den man vielleicht neu entdecken sollte, ist der der wehrhaften Demokratie.
Die philippinische Friedensnobelpreisträgerin Maria Ressa sagt, der gefälschte Inhalt, den wir sehen, sei nur die Kugel. Dahinter aber stehe eine Waffe, das heißt ein ganzes System, das die Desinformation generiert und verbreitet. Wie muss man sich das vorstellen?
Güllner: Das ist genau der Punkt: Wir müssen verstehen, welche Methoden und Instrumente benutzt werden. Das ist ein ganzes Ökosystem aus staatlichen Stellen, aber auch privaten Unternehmen, die damit Geld verdienen. Dazu kommt: Durch den Fortschritt, durch neue technologische Fähigkeiten, Bot-Netzwerke mit E-Mail-Überflutung, wird es immer einfacher, immer billiger.
Zuletzt enthüllten der Spiegel und andere Medien, dass ein in Israel ansässiges Unternehmen die Manipulation von Wahlen als Dienstleistung anbiete. Können sich finstere Mächte also solche Kampagnen einfach kaufen?
Güllner: Ja, das ist so. Wir haben nicht nur staatliche Akteure. Es gibt auch private Anbieter, die sogenannte schwarze PR machen, also auf einen Auftrag hin beispielsweise einen Konkurrenten schlechtreden. Für diesen Bereich fehlen uns schlicht die nötigen Regeln, auch international.
Macht Künstliche Intelligenz nun alles noch schwieriger? Mit KI kann man Kanzler Olaf Scholz in Videos so auftreten lassen, dass es scheint, er fordere ein Verbot der AfD…
Güllner: … mit KI können sie jeden alles sagen lassen, es gibt mehr Deep Fakes, also lebensecht wirkende Fälschungen, auch im Audiobereich. Auf der anderen Seite: die Masche bleibt die gleiche. KI verstärkt also einerseits das Problem, KI kann aber auch Teil der Lösung sein. Da müssen wir auch die Industrie in Verantwortung nehmen, sie muss sich mithilfe von KI schützen, synthetische Medien, also mit KI erzeugte falsche Inhalte, aufzudecken.
Heute geht man davon aus, dass das britische Ja zum Brexit und der Wahlsieg Donald Trumps 2016 auch deswegen zustande kamen, weil Russland Einfluss genommen hat. Können Sie das bestätigen?
Güllner: Ich kann nicht auf das Komma genau sagen, wie viel Prozent bei Wahlen durch Manipulationen und Desinformation verändert worden sind. Dass es Einfluss gab, ist aber unbestritten. Und wir wissen, dass Russland inhaltlich und technisch massiv im Bereich Desinformation investiert. Warum sollte der Kreml das tun, wenn er sich davon keinen Erfolg verspricht?
Die EU hat – auch als Reaktion auf den Brexit und die US-Wahlen – die Betreiber großer Internetplattformen mit ihrem Digital Services Act in die Pflicht genommen. Nun sind X, Youtube, Facebook und andere verpflichtet, riskante Inhalte zu löschen. Zeigt das neue Gesetz bereits Wirkung?
Güllner: Diese Gesetze sind noch recht jung. Aber sie bewirken schon etwas, weil die Europäische Union jetzt mit den großen Plattformen ganz anders reden kann. Und hier sind die Europäer wirklich Vorreiter und viele unserer internationalen Partner wollen von unserer Erfahrung lernen. Wichtig ist die bindende Wirkung: Das Ganze ist nicht mehr freiwillig, die großen Plattformen sind dazu verpflichtet, etwas gegen Manipulation auf ihren Plattformen zu unternehmen.