FAQ

 

Was sind Social Bots?

Der Name Social Bots (Kurzform “Bots”) leitet sich aus dem Bereich, in dem Social Bots vorkommen (“Social” für soziale Netzwerke oder Social Media Networks), und der Abkürzung für “Robots” (“Bots”) ab.

Eine allgemein gültige und einheitliche Definition, was Social Bots genau sind, gibt es derzeit nicht. Einigkeit besteht unter vielen Experten jedoch, dass Social Bots einzelne Accounts in den sozialen Netzwerken sind, die durch Automation gesteuert werden (Oxford University: The Production and Detection of Bots, TU München: Are Social Bots on Twitter Political Actors?). Manche Social Bots wirken wie von Menschen geführte Accounts (Hegelich/ Janetzko 2016).

Botswatch versteht Social Bots als Accounts in den sozialen Netzwerken, die mit einer hohen Automation arbeiten. Wir unterscheiden zwischen vollständig automatisierten Accounts und Accounts, die nur teilweise oder in verschiedenen Abstufungen mit Automation arbeiten. Wenn Accounts nur teilweise automatisiert sind, nennen wir sie hybride Accounts (auch “Cyborgs”. First Draft: Reporting on a new age of digital astroturfing).

Was bewirken Social Bots?

Social Bots arbeiten mit unterschiedlich hoher Automation (siehe “Was sind Social Bots?”). Dadurch sind sie in der Lage, nicht nur einen Account automatisiert zu steuern, sondern viele hunderte Accounts gleichzeitig. Damit können in den sozialen Netzwerken Themen nach vorne gebracht werden, die in einem natürlich entstandenen Diskurs gar nicht vorne wären (3 Sat: Social Bots – von Programmierern gesteuerte Automaten). 

Die Technologie, durch die Social Bots entstehen, ist zunächst nur eine Technologie. Sie ist weder gut noch böse. Allerdings können Social Bots Schaden bewirken, wenn sie unverifizierte Informationen automatisiert verbreiten (siehe Communications of the ACM: The Rise of Social Bots).

Das Shorenstein Center der Harvard University hebt die Rolle von Social Bots bei der Verbreitung Fake News hervor: Social Bots verstärken die Reichweite von Fake News, beispielsweise durch künstlich erzeugte Grass Roots Kampagnen, welche die Aufmerksamkeit der Medien beeinflussten und bestimmte Nutzer gezielt dazu bringen, die Desinformation weiter zu verbreiten (Shorenstein Center: How Fake News Spreads). 

Das Oxford Internet Institute der Oxford University untersucht seit vielen Jahren die Aktivität und den Einfluß von politischen Social Bots (“Propaganda Bots” oder “Politische Bots”) auf den politischen Diskurs: Politische Bots manipulieren die öffentliche Meinung, so das Oxford Internet Institute. Sie werden überall auf der Welt eingesetzt und nehmen Einfluß auf Unterhaltungen, demobilisieren die Opposition und erzeugen ein falsches Bild politischer Zustimmung (Oxford Internet Institute: Computational Propaganda).

Botswatch sieht nicht nur Social Bots als Teil des manipulativen Einflusses auf gesellschaftliche Themen in den sozialen Netzwerken, sondern auch organisierte Accounts und Netzwerke, die von Menschen gesteuert werden. Wir nennen diese organisierten Netzwerke “toxische Netzwerke”.

Allein die Höhe der Aktivität von Social Bots ist kein Beweis für eine Manipulation von gesellschaftlichen Themen. Allerdings war die Aktivität von Social Bots in der Vergangenheit stets ein Hinweis darauf, dass ein gesellschaftliches Thema von Social Bots oder von toxischen Netzwerken manipuliert sein könnte. Deswegen ist es wichtig, die Aktivität von Social Bots zu kennen.

Wie werden Social Bots erkannt?

Viele Social Bot Accounts versuchen wie von Menschen gesteuerte Accounts zu wirken (siehe “Was sind Social Bots”): Social Bots können antworten, über mehrere Themen twittern, auf seriöse Quellen verweisen, faven, retweeten und Bilder twittern. Sie können sich vertippen, Schlafenszeiten haben, in Listen aufgeführt sein, eigene Listen anlegen, Tweets an ihr Profil anheften und sie können für eine lange Zeit inaktiv und geschützt sein, bevor sie für die nächste Kampagne aufwachen. Gleichzeitig verändern sich Social Bots nahezu jeden Tag. Das macht eine Erkennung von Social Bots sehr anspruchsvoll und komplex.

Die Oxford University definiert einen Social Bot Account auf Twitter, wenn er gleich oder mehr als 50 Tweets am Tag veröffentlicht (Oxford University: Pro-Trump highly automated accounts ‘colonised’ pro-Clinton Twitter campaign). Obwohl andere Forscher strengere Kriterien zugrunde legen, ist die Oxford Methode grundsätzlich ein brauchbarer Ansatz, um hochautomatisierte Accounts zu erkennen.

Als Technologieunternehmen hat Botswatch eigene Kriterien für die Erkennung von Social Bots entwickelt. Diese Kriterien entwickeln wir laufend fort. Bei der Erkennung spielt die Anzahl von Tweets eine Rolle, die ein Account veröffentlicht, oder die Originalität von Texten, die wir erkennen, einordnen und unterschiedlich gewichten (Wie botswatch seine Bot Detection entwickelt hat: Wenn offizielle Stellen schweigen, sind Social Bots erfolgreich). Wenn wir auf unserem Twitterkanal oder auf unserer Website einen Botindex veröffentlichen, lehnen wir ihn zugunsten der Nachvollziehbarkeit an die Kriterien der Oxford University (s.o.) an.

Wie kann ein unterschiedlicher Botindex zum selben Thema gemessen werden?

Der Botindex beschreibt den prozentualen Anteil, den Social Bots an einer Diskussion in den sozialen Netzwerken haben. Wenn der Botindex beispielsweise 28 Prozent beträgt, bedeutet dies, dass 28 Prozent der untersuchten Tweets von Social Bots veröffentlicht wurden. Der Botindex verändert sich nach vielen verschiedenen Faktoren wie zum Beispiel die Grunddatenmenge, die untersucht wird, dem Untersuchungszeitraum und ob in der Analyse der Anteil von Social Bot Tweets (Botindex Tweets) oder der Anteil von Social Bot Accounts (Botindex Accounts) gemessen wird.

Die Grunddatenmenge einer Analyse entsteht nicht nur, aber vor allem durch die Anzahl und die inhaltlichen Auswahl der untersuchten Tweets: Der Botindex über eine Grunddatenmenge von 30 Tweets kann ein anderer sein als eine Analyse von 3.000.000 Tweets. Eine Analyse, die das Untersuchungsthema sehr weit fasst, kann zu einem anderen Botindex kommen, als eine Analyse, die das Thema sehr eng fasst.

Aber nicht nur die inhaltliche Auswahl verändert einen Botindex, sondern auch, ob die Daten bereinigt wurden und wenn ja, wie sie bereinigt wurden. Die Grunddatenmenge ist eine andere, wenn beispielsweise menschliche Heavy User, also Menschen, die sehr viele Tweets veröffentlichen aber gar keine Bot-Technologie einsetzen, oder wenn automatisierte Accounts von Medienunternehmen Teil der Grunddatenmenge sind.

Neben der Grunddatenmenge ist für die Höhe des Botindex auch der Untersuchungszeitraum wichtig. Es gibt Zeiten, in denen Social Bots aktiver sind und es gibt Zeiten, in denen sie inaktiver sind. Wenn ein Botindex zu ein und dem selben Thema verglichen wird, ist es wichtig, um welchen Botindex es genau geht: Der Botindex Tweets zeigt den Anteil von Tweets von Social Bots zu einem Thema. Der Botindex Accounts zeigt den Anteil von Social Bot Accounts zu einem Thema.

Je nachdem, welche Grunddatenmenge analysiert wird, welche Kriterien für die Social Bot Erkennung gewählt werden, welcher Untersuchungszeitraum die Analyse einbezieht und ob der Botindex Tweets oder der Botindex Accounts gemessen wird, kann es bei ein und demselben Thema zu einem unterschiedlichen Ergebnis beim Botindex kommen.  
 

Detektiert botswatch nur Social Bots?

Nein. Botswatch sieht den manipulativen Einfluß auf gesellschaftliche Themen in den sozialen Netzwerken nicht nur durch Social Bots, sondern auch durch organisierte Accounts und Netzwerke, die auch von Menschen gesteuert werden. Wir nennen diese organisierten Netzwerke “Toxische Netzwerke”.

Allein die Höhe der Aktivität von Social Bots ist kein Beweis für eine Manipulation von gesellschaftlichen Themen. In der Vergangenheit war die Aktivität von Social Bots aber stets ein Hinweis darauf, dass ein gesellschaftliches Thema von Social Bots oder von toxischen Netzwerken manipuliert sein könnte. Deswegen ist es wichtig, die Aktivität von Social Bots zu kennen (Siehe „Was bewirken Social Bots?“).

Erstellt botswatch wissenschaftliche Studien?

Nein. Obwohl botswatch mit verschiedenen Universitäten weltweit im engen Austausch steht, haben wir bisher keine wissenschaftliche Studie erstellt.

Botswatch ist ein privatwirtschaftlich organisiertes Technologieunternehmen, das im Auftrag von Wirtschaft, Institutionen und Medien Daten analysiert. Dies umfasst Produkte wie ein vollautomatisiertes Alert System sowie automatisierte Cyber Forensik Analysen in Echtzeit.

Unsere Produkte ermöglichen Kunden frühzeitig Gefahren zu kennen und digitale Ereignisse im Nachhinein zu verstehen.

Worauf ist botswatch spezialisiert?

Botswatch ist auf die automatisierte Erkennung und Frühwarnung von Unregelmäßigkeiten im Informationsraum spezialisiert. Dies beinhaltet die automatisierte Erkennung von Desinformation, Propaganda und Fake News aber auch die automatische Detektion von Aktivitäten durch Social Bots und toxischen Netzwerken (siehe “Detektiert Botswatch nur Social Bots?”) auf Twitter, besonders vor und während Wahlen, Terroranschlägen, Naturkatastrophen und Krisensituationen von Unternehmen.