Die neuen Rechten haben das Internet und digitale Werkzeuge entdeckt. Automatisierte Computerskripte, auch als Social Bots bezeichnet, spielen in den Wahlkämpfen und der politischen Meinungsbildung mittlerweile eine wichtige Rolle. Social Bots geben meist vor, echte Menschen zu sein, die ihre Meinungen über die sozialen Netzwerke teilen. Das hat verschiedene Funktionen: Es lanciert Inhalte, verstärkt schon vorhandene Trends, normalisiert tabuisierte Standpunkte oder gibt Nutzer_innen das Gefühl, mit ihrer kontroversen Meinung nicht allein zu sein.
Demokratisierung des politischen Diskurses
Durch das Internet und die Digitalisierung hat sich der politische Diskurs zunächst demokratisiert: Nicht mehr nur Politiker_innen, Wahlkampfstrateg_innen und Journalist_innen konnten Informationen und Meinungen verbreiten, sondern auch normale Bürger_innen. Auf Facebook und auf Twitter diskutieren Menschen darüber, wie die Klimaerwärmung aufgehalten werden kann oder welche Sozialleistungen angemessen sind. Nichts gegen einzuwenden, oder? Das war allerdings nur die erste Phase.
Dadurch, dass jeder das Netz als Publikationsplattform nutzen konnte, kamen nämlich auch die Spinner: Verschwörungstheorien wurden plötzlich salonfähig (die Kondensstreifen von Flugzeugen, sogenannte Chemtrails, sind in Wirklichkeit Drogen, um die Bevölkerung ruhig zu halten; die Bundesrepublik Deutschland ist kein souveräner Staat, sondern eine GmbH; der Anschlag auf das World Trade Center am 9. September 2001 wurde wahlweise vom US-amerikanischen oder israelischen Geheimdienst durchgeführt – und das sind nur einige Beispiele). Auffälligerweise sind viele der Verschwörungstheorien mit rechtspopulistischer Politik assoziiert. So ist es wohl kein Zufall, dass unter Trumps Anhängern und medialen Unterstützern (Breitbart et al.) Verschwörungstheorien sprossen.1 Sie bieten in einer komplexen Welt einfache Erklärungen – etwas, was sie mit rechtem Populismus gemeinsam haben.
An der sogenannten Pizzagate-Verschwörung lässt sich die Verbindung zwischen Online-Communitys und politischer Meinungsmache gut nachvollziehen. Nutzer_innen des Messageboards 4chan und der Onlinecommunity Reddit verbreiteten 2016 das Gerücht, dass im Keller der Washingtoner Pizzeria Comet Ping Pong in Washington, D.C. ein Kinderporno-Ring existiere, in den Hillary Clinton und andere demokratische Politiker verwickelt seien. Das führte soweit, dass im Dezember 2016 der 28-jährige Edgar Welch aus South Carolina mit einem Gewehr bewaffnet in die Pizzeria stürmte und drei Schüsse abfeuerte (es wurde niemand verletzt). Er wollte selbst schauen, was da los sei, als er aber keine Beweise fand, dass Minderjährige in der Pizzeria festgehalten wurden, stellte er sich dann der Polizei.
Die Pizzagate-Verschwörung ist eines der bekanntesten Beispiele für »Fake News« – offensichtlich falsche Nachrichten, die sich entgegen allem Menschenverstand in Foren und sozialen Medien verbreiten. Dabei spielten Social Bots eine große Rolle. Der Medienwissenschaftler Jonathan Albright von der Elon University in North Caroline sagte gegenüber der Washington Post, dass auffällig viele Pizzagate-Tweets aus der Tschechischen Republik, Zypern und Vietnam kamen. Er gehe davon aus, dass die aktivsten Retweeter Bots seien, die bestimmte Nachrichten und Informationen verstärken sollten.2
Wie funktioniert ein Social Bot?
Bei dem massenhaften Einsatz von automatisierten Skripten geht es darum, Meinungen zu beeinflussen. Dabei gibt es verschiedene Strategien: Beim Retweeten sollen Nachrichten möglichst schnell weiterverbreitet werden um einen Schneeballeffekt auszulösen. Durch das automatische Retweeten wird der Eindruck erzeugt, dass eine Meinung oder Information wichtig ist. Social Bots können vor allem in kleineren Sprachgebieten schnell Trends setzen, so dass die entsprechenden Nachrichten vermehrt angezeigt werden. In Deutschland soll es zum Beispiel reichen, wenn nur 10.000 Menschen zu einem Thema twittern.
In der politischen Kommunikation konstruiert sich so Realität – extreme Meinungen werden sichtbar und anerkannt. Mit Fake News wird öffentliche Meinung in eine bestimmte Richtung gelenkt: Flüchtlingsfluten, die islamistische Gefahr, Verschwörungen der Eliten gegen das Volk. Fake News sind so konstruiert, dass sie Vorurteile und Ressentiments bedienen. Verschwörungstheorien, Misstrauen gegenüber den Medien und der Mainstreampolitik schaffen so eine Realität, in der es Sinn ergibt, für Populisten und rechte Demagogen zu stimmen. Die Mainstream-Presse berichtet darüber nicht – ein weiteres Zeichen für viele, dass die Verschwörung echt sein muss und dass die etablierten Medien lügen.
Die meisten Bots sind technisch nicht besonders aufwendig. Es gibt inzwischen Software-Pakete, die man nur noch konfigurieren muss. Trotzdem ist es nicht einfach festzustellen, ob ein Account ein Bot ist oder ein echter Mensch. Die Software wird ständig verbessert und verhält sich immer menschenähnlicher. So folgen Bots inzwischen einem Tag- und Nachtrhythmus und antworten komplexer. Auf der Website »Bot or Not?« der Indiana University [http://truthy.indiana.edu/botornot/] kann man den Namen eines Twitter-Accounts angeben und bekommt eine Prozentzahl angezeigt, wie wahrscheinlich der Account ein Bot ist. Dabei macht »Bot or not« transparent, nach welchen Kriterien es urteilt: wann Tweets veröffentlicht werden, den Satzbau der Tweets, das Netzwerk der Follower und Gefolgten, welche Sprachen verwendet werden und vieles mehr.
Meinungsfreiheit für Bots
Automatisierte Kommunikation ist erstmal kein Problem – es gibt sinnvolle Einsatzmöglichkeiten für Bots. Sie können Servicenachrichten posten, die Kundenkommunikation erleichtern, bestimmte Themen automatisch zusammenfassen. Problematisch wird es, wenn diejenigen, die Bots einsetzen, verschleiern, dass die Bot-Postings algorithmisch gesteuert sind und vor allem, wer dahintersteckt.
Forscher schätzen, dass in den Wahlkämpfen der letzten Jahre bis zu 50 Prozent der Kommunikation von Bots stammt. So stellten die Wissenschaftler_innen des Projekts »Political Bots« der Oxford University [comprop.oii.ox.ac.uk] fest, dass bei der US-Wahl jeder dritte Tweet von Trump-Unterstützer_innen automatisiert gewesen sein soll – bei Clinton war es immerhin jeder vierte. Auch bei der Frankreich-Wahl sollen zahlreiche Bots unterwegs gewesen sein.3
Ohne das Wissen um die Hintergründe fehlt Nutzer_innen die notwendige Transparenz und das kontextuelle Wissen, um zu entscheiden, wie relevant und zuverlässig eine Meldung ist. Hier stellt sich die Frage nach der Verantwortung und Meinungsfreiheit. Darf ich Lügen verbreiten und mich auf die Meinungsfreiheit berufen? Gilt das Recht auf freie Meinungsäußerung nur für Menschen? Hinter jedem Account steckt aber letztendlich jemand, der ihn gestartet hat und mit Inhalten füttert. Je nach Komplexität der Software ist diese zwar mehr oder weniger autonom, aber die dahinterstehende Intention ist immer politisch – und das heißt von bestimmten Machtinteressen geleitet. Es fehlt jedoch an Werkzeugen, in den sozialen Medien Transparenz herzustellen – möglicherweise so etwas wie eine Impressumspflicht für Bots. Die Diskussion darüber hat erst angefangen.
In dieser Versorgerin sind zwei weitere Texte zum servus-Jahresthema abgedruckt: