Rentenreform, Verkehrsunfall oder neuer Diättrend: Kein Nachrichtenthema, zu dem Internetnutzer keine Meinung haben, die sie in Kommentarspalten, Facebook-Posts und Tweets kundtun. Nicht jeder Kommentator ist dabei der, der er vorgibt zu sein. Immer wieder gibt es jene, die mit ihren Beiträgen gezielt manipulieren und provozieren wollen. Trolle nennt man diese Kommentatoren im Netzjargon.
Ein Thema, das auch in der Arbeit von Lambert Zumbrägel auftaucht. Er ist im Bezirksjugendring Unterfranken für Medienberatung zuständig und erklärt: „Das spielt immer wieder eine Rolle. Vor allem auch in der politischen Bildungsarbeit. Dort ist es derzeit auch medial am präsentesten.“ Das wird vor allem an einem Schlagwort deutlich: Fake News. „Der Begriff ist eine Verharmlosung von Lüge. Daher versuchen wir in der Jugendarbeit, das auch so hinzustellen. Das Phänomen ist auch nicht neu. Früher sind Hoaxe eben über Mails gekommen, heute über Soziale Medien“, erklärt Zumbrägel.
Der Vorwurf an andere Nutzer, sich als Troll zu betätigen, ist für Internetverhältnisse uralt: Seit über 20 Jahren kennt das „Oxford Dictionary“ den Troll als jemanden, der in Netzdiskussionen provoziert und an einer sachlichen Diskussion nicht interessiert ist. Doch jüngst ist die Bedeutung dieser Stimmungsmacher gestiegen. Ganze Troll-Fabriken gibt es inzwischen. So bezeichneten Medien eine russische Organisation, die hunderte Mitarbeiter beschäftigt, die Beiträge und Kommentare im Sinne des Kreml posten. Anders als der klassische Internettroll sollen sie nicht einfach Diskussionen zerstören, sondern gezielt beeinflussen: Sie sollen Propaganda für die russische Regierung verbreiten – und dabei wirken, wie normale Internetkommentatoren.
Im Beruf online kommentieren und provozieren
Netzkommentare hat man auch anderswo als Mittel entdeckt, um die öffentliche Meinung zu beeinflussen. In China werden Kommentatoren, die für den Staat tippen, als 50-Cent-Partei bezeichnet – nach dem Gerücht, sie bekämen für jeden Beitrag 50 Cent der chinesischen Währung Renminbi. Tatsächlich werden die chinesischen Kommentatoren wohl nicht extra bezahlt, fand eine Studie der Universität Harvard heraus – es handele sich um Staatsbedienstete, die eigentlich anderen Tätigkeiten nachgehen.
Regierungsansichten im Netz zu verbreiten, sei nur ein Teil der Jobbeschreibung. Die Harvard-Wissenschaftler schätzen, dass die staatlichen Kommentatoren für 448 Millionen Kommentare im Jahr in den Sozialen Netzen in China verantwortlich sind. Die Strategie sei dabei nicht, Kritikern mit Argumenten entgegenzutreten, sondern vor allem abzulenken, das Thema zu wechseln und für das chinesische System zu werben.
Egal, wer hinter Falschmeldungen im Netz steckt, Jugendliche sind beim Surfen durchaus skeptisch, so Zumbrägel: „Grundsätzlich wissen Jugendliche, dass im Internet nicht alles richtig und wahr ist. Da sind sie in großen Teilen kritischer als Erwachsene.“ Wer wissen möchte, ob eine Geschichte auf Facebook wahr ist, wird manchmal auf Seiten wie mimikama.at
Informationen streuen, Meinungen beeinflussen, das sei im Netz zu jedem Thema möglich, meint Marc Latoschik. Nicht immer muss es dabei um Politik gehen, erklärt der Würzburger Professor für Mensch-Computer-Interaktion und führt etwa Produktbewertungen als Beispiel an: „Ob ich das anfänglich noch mit Menschen mache – und sie lügen lasse, weil sie ein Produkt bewerten, obwohl sie es nie in der Hand hatten – oder ob es im Nachhinein ein Bot macht, das ist eigentlich keine andere Qualität, es ist eine andere Umsetzung. Für diese Meinungsmache im großen Stil auf vielen Plattformen braucht man viele und schnelle Reaktionen. Wenn das Menschen machen, wird es teuer.
“ Deshalb setzt, wer im Netz gezielt Meinung machen will, oft Bots ein – Programme, die automatisch kommentieren, posten, teilen. „Ein Social Bot ahmt die Fähigkeit von Menschen nach, mit geschriebener Sprache zu kommunizieren. Es ist ein Programm, das versucht, dem menschlichen Benutzer vorzugaukeln, auf der anderen Seite säße ein Mensch aus Fleisch und Blut“, erklärt Latoschik. Gegenüber menschlichen Kommentatoren, die gezielt Meinungen streuen, hätten Bots noch einen Vorteil: die Verschwiegenheit. Setze man einen Menschen ein, sei die Wahrscheinlichkeit groß, dass er über seine Aufgabe spricht. Geheim bleibe so nichts mehr. „Ein Computerprogramm hingegen wird nichts verraten. Es führt genau den Algorithmus aus, den ich ihm einprogrammiert habe.“
Und diese Algorithmen sind inzwischen so ausgeklügelt, dass es als menschlicher Nutzer schwer ist, Bots zu erkennen. Mit Rückfragen an den vermeintlichen Kommentator sei das teils möglich, besonders mit Fragen, die außerhalb des Diskussionsthemas liegen, so Latoschik. Aber: „Dafür muss man erst einen Verdacht haben. Wenn man sich der Flut der Posts einfach hingibt, fällt es einem wahrscheinlich gar nicht auf.“ Einfache Bots könne man sich auf bestimmten Webseiten auch ohne größere Programmierkenntnisse zusammenstellen.
Überschriften lassen sich problemlos ändern
Wie häufig Bots eingesetzt werden, sei schwer zu schätzen, erklärt der Professor. Schätzungen zum US-Wahlkampf zeigten aber, dass etwa 30 Prozent der Tweets über Donald Trump von Bots stammten. „Ich halte das für eine der größten Gefahren im Internet“, sagt Latoschik. Bots machen es schwer, einzuschätzen, was andere Nutzer wirklich denken und welche Nachrichten viel Aufmerksamkeit erfahren, stimmt auch Zumbrägel zu: „Likes und Klicks können gekauft oder per Bots generiert werden und haben kaum Aussagekraft. Mehr Aussagekraft hat es, wenn ich die Nachricht in mehreren verschiedenen Quellen finde.“
Noch mehr Vertrauen wecken Nachrichtenseiten, die der Nutzer schon als seriöse Quellen kennt. Wer auf Facebook den Link zu einem Artikel seiner Tageszeitung sieht, geht davon aus, keine Fake News vor sich zu sehen – und schaut erst einmal auf Überschrift und anreißenden Text, den Facebook zum Link zeigt. Die aber können Betreiber einer Facebook-Seite leicht ändern: Wer zum Beispiel ein Facebookkonto für ein Unternehmen oder eine Partei betreut, kann frei wählen, mit welcher Überschrift ein Artikel, den er auf Facebook teilt, angezeigt wird.
Diese Funktion können sich Seitenbetreiber zunutze machen, um eigene Botschaften zu verkaufen, als hätten seriöse Nachrichtenseiten damit aufgemacht. Aus der „Handelsblatt“-Schlagzeile „Mitteldeutsche Regiobahn führt Frauenabteile ein“ machte eine rechte Facebook-Gruppe „Erhöhte Sicherheit: Regiobahn führt Frauenabteile ein, wegen Übergriffe durch Flüchtlinge“. Solange ein Facebook-Nutzer aber nur den Link sieht, deutet nichts darauf hin, dass die Überschrift ausgetauscht wurde. Im Artikel kommen weder Flüchtlinge noch Übergriffe vor, die Seitenbetreiber setzten ihre eigene Überschrift ein. Richtigstellungen des „Handelsblatts“ in der Gruppe löschten die Administratoren; wer also nur den geteilten Link auf Facebook sieht, geht davon aus, das „Handelsblatt“ habe den Artikel so veröffentlicht. Wer allerdings den Artikel liest, erkennt, dass die Behauptungen in der Überschrift auf Facebook falsch waren.
Dass Internetnutzer sich nicht selten auf das Lesen der Überschrift beschränken, legt eine Studie der Universität Columbia nahe: Viele Nutzer seien eher bereit, eine Geschichte zu teilen, als sie zu lesen, so die Wissenschaftler. Ein Phänomen, dem eine Nachrichtenseite des norwegischen Rundfunks in der eigenen Kommentarspalte Herr werden möchte: Wer bestimmte Artikel kommentieren möchte, muss erst drei Fragen zum Inhalt des Beitrags richtig beantworten.