Social Bots – die Technik hinter Fake-News

Was ist eigentlich ein Social Bot? Insbesondere in Zusammenhang mit Internetdiskussionen um den Brexit und Wahl Donald Trumps als US-Präsident tauchte dieser Begriff häufig auf. Social Bots gelten als eine Art Meinungsroboter, die Diskussionen in den sozialen Netzwerken beeinflussen. Nicht wenige befürchteten 2017, dass sie auch die Bundestagswahl massiv beeinflussen würden. Doch ist ihr Einfluss wirklich so groß? Was genau verbirgt sich eigentlich hinter einem Social Bot und wie funktioniert er?

Social Bots simulieren in sozialen Netzwerken menschliche Nutzer. Geben sie keinerlei Hinweis darauf, dass es sich bei ihnen um Maschinen handelt, sind sie zudem als Fake-Accounts zu werten. Andere Nutzer werden durch entsprechende Profilangaben irregeführt und gehen davon aus, es mit Menschen zu tun zu haben. Diese Art von Bots wird oft eingesetzt, um in den sozialen Netzwerken Meinungen zu verbreiten oder Diskussionen anzuregen, die im Sinne ihrer Anwender sind.

Unternehmen nutzen Social Bots mitunter für Marketingzwecke – beispielsweise, um eine höhere Popularität von Produkten vorzutäuschen. Auch gefälschte, positive Produktbewertungen werden mitunter von ihnen verfasst. Sie können aber auch politischen Zwecken dienen – dann beeinflussen sie die öffentlichen Diskussionen im Sinne einer bestimmten Partei bzw. eines bestimmten Politikers. Um den politischen Gegner zu diskreditieren, nutzen Social Bots nicht selten gezielte Desinformation. So verwundert es kaum, dass diese Technologie häufig zusammen mit Reizworten wie „Fake News“, „Hate Speech“, „Filterbubbles“ oder „Feedbackschleifen“ diskutiert wird.

Der polarisierende Effekt von Social Bots beschäftigt Journalisten und Medienunternehmen ebenso wie Geistes- und Sozialwissenschaftler. Darüber hinaus hat sich aufgrund der zunehmenden Bedeutung der sozialen Netzwerke inzwischen eine eigene Branche entwickelt, die mit der Entwicklung und Nutzung von Social Bots Geld verdient. Denn der Einsatz von Social Bots ist legal – und die Social-Bot-Technik im Netz anzubieten, ist ein lukratives Geschäft.

Fakt

Aufgrund der Tatsache, dass sich immer mehr Menschen in den sozialen Medien informieren, prognostizieren nicht wenige einen wachsenden Einfluss der Meinungsroboter auf die Öffentlichkeit. Auch das Bundesministerium des Innern (BMI) und die Bundeszentrale für politische Bildung klären inzwischen umfassend über die Gefahr durch Social Bots auf.

Allerdings sollte die Technologie an sich nicht vorschnell verteufelt werden. Schließlich lässt sie sich durchaus sinnvoll einsetzen, ohne dass sie zur Desinformation beiträgt oder meinungsmanipulierend wirkt – beispielsweise als Chatprogramm auf Unternehmensseiten, das Kundenfragen beantwortet.

Um jedoch zu verstehen, welche Gefahren von Social Bots ausgehen und woran man sie erkennen kann, muss man zunächst wissen, wie die Bot-Technologie an sich funktioniert. Es folgt daher ein kurzer Abriss, was ein Bot eigentlich ist, und eine Erklärung, welche Bot-Typen es gibt.

Was ist ein Bot?

Ein Bot (von engl. „robot“, deutsch „Roboter“) ist ein automatisiertes Programm, das auf bestimmte Aktionen programmiert ist und diese entweder regelmäßig oder reaktiv ausführt. Der Bot tut dies, ohne dafür auf menschliche Steuerung angewiesen zu sein. Er analysiert seine Umgebung und „entscheidet“ selbstständig je nach Situation, welche Aktionen er ausführt.

Fakt

Eine Studie von Incapsula kam 2016 zu dem Ergebnis, dass mehr als die Hälfte des weltweiten Internet-Traffics von Bots generiert wird. Fast 30 Prozent dieser Bots wurden als sogenannte Bad Bots identifiziert.

Die verschiedenen Typen von Bots unterscheiden sich hinsichtlich ihrer technischen Komplexität mitunter deutlich. Die Bandbreite reicht von einfachen Algorithmen bis hin zur hochkomplexen KI-Technologie. Arbeitet ein Bot mit künstlicher Intelligenz, dann ist er sogar lernfähig: Er erkundet seine Umgebung und passt sich ihr an.

Je nach Funktion ist ein Bot für menschliche Nutzer gar nicht ohne weiteres wahrnehmbar und verrichtet seine Arbeit unbemerkt im Hintergrund oder tritt als Mensch auf (bzw. imitiert menschliches Verhalten). Einige Arten von Bots stellen wir nachfolgend genauer vor:

  • Webcrawler: Sie gehören zu jener Kategorie Bots, die gänzlich unbemerkt arbeiten. Meist werden sie von Suchmaschinen eingesetzt, um selbsttätig das Web zu durchforsten, Webseiten zu analysieren und diese Informationen in Suchverzeichnisse einzugeben. Sie handeln meist „gutartig“ innerhalb allgemein anerkannter Standards (wie dem Robots Exclusion Standard). Andere Webcrawler agieren jenseits dieser Normen und sammeln im Netz unautorisiert Daten.
  • Chat-Bots: Im Gegensatz zu Webcrawlern arbeiten Chat-Bots reaktiv: Sie reagieren auf menschliche Aktivitäten und sind darauf spezialisiert, anderen Chatteilnehmern sinnvoll zu antworten. Im Alltag begegnen einem Chat-Bots vor allem als digitale Assistenten. Ein Webseiten-Assistent kann beispielsweise Besucher durch die Website führen oder Fragen zum Thema/Angebot der jeweiligen Webpräsenz beantworten. Auch Sprachassistenten wie Siri oder OK Google oder externe Sprachassistenten wie Amazon Echo oder Google Home basieren auf dieser Chat-Bot-Technologie.
  • Virtuelle Computerspieler: Auch in vielen Computerspielen benötigt man virtuelle Akteure, die variabel auf den Menschen reagieren. Diese Operationen werden von Bots ausgeführt. Man spricht dann von Nicht-Spieler-Charakteren (Rollenspiele), Aim-Bots (Actionspiele), Poker-Bots (Onlinepoker) und so weiter. Diese Bots handeln reaktiv und arbeiten vermehrt mit künstlich intelligenter Technik. Ein spektakuläres Beispiel dafür ist die Künstliche Intelligenz von Google mit dem Namen AlphaZero, die sowohl im Schach als auch im Brettspiel Go beeindruckte. Solch intelligente Techniken finden auch in Computerspiele Eingang – in Form von Bots.
  • Social Bots: Dies sind jene Bots, die verdeckt in sozialen Netzwerken eingesetzt werden. Sie arbeiten sowohl repetitiv als auch reaktiv: Sie liken, kommentieren, retweeten und versuchen, andere Nutzer zu provozieren oder in Gespräche zu verwickeln. Damit die anderen Nutzer natürlich auf sie reagieren, täuschen sie eine menschliche Identität vor.
Fakt

Bots können Nutzern den Alltag erheblich erleichtern, allerdings lassen sie sich ebenso auch für kriminelle Handlungen nutzen. Da viele Bots darauf spezialisiert sind, selbstständig und möglichst unauffällig zu arbeiten bzw. menschliches Verhalten zu imitieren, eignen sie sich insbesondere für Datenspionage bzw. Datendiebstahl.

Der Webcrawler und der Chat-Bot gelten als die beiden grundlegenden Bot-Typen. Aktuelle Bot-Generationen kombinieren oft deren Grundfunktionen: das verdeckte Auswerten von Daten des Webcrawlers und die Simulation menschlicher Kommunikation des Chat-Bots. Auch Social Bots greifen auf diese beiden Grundfunktionen zurück.

Was ist ein Social Bot und was unterscheidet ihn von anderen Bots?

Ein Social Bot ist ein selbsttätiges Programm, das in sozialen Netzwerken menschliches Verhalten simuliert. Social Bots nehmen an Diskussionen auf Twitter oder Facebook teil und wirken dort wie menschliche Nutzer. In den Social Media verbreiten sie Inhalte zu einem bestimmten Thema – meist zu dem Zweck, die Meinungsbildung in der Öffentlichkeit zu beeinflussen.

Social Bots werden in der Regel im Marketingbereich oder auch für politische Zwecke genutzt. Nicht selten verbreiten Social Bots auch Fake-News. Weil sie auf diese Weise die Stimmung und in Internet-Diskussionen beeinflussen, bezeichnet man sie auch als Meinungsroboter: Um die öffentliche Meinung zu lenken, nutzt ein Social Bot Techniken, die für Bots typisch sind und auch von anderen Bot-Arten genutzt werden: Er sucht in sozialen Netzwerken nach Diskussionen zu einem zuvor vorgegebenen Thema (Datenauswertung wie bei den Webcrawlern) und beeinflusst diese als virtueller Gesprächsteilnehmer (Gesprächssimulation wie bei einem Chat-Bot).

Social Bots ähneln hinsichtlich ihrer Funktion also sehr stark Chat-Bots oder digitalen Assistenten – auch sie dienen der Kommunikation mit dem Menschen. Doch gibt es einen entscheidenden Unterschied: Während Chat-Bots meist einen Beratungsservice darstellen, der dem Gesprächspartner nutzt, sollen Social Bots ihre menschlichen Gesprächspartner täuschen und manipulieren. Und während Chat-Bots ihre Funktion auch erfüllen können, wenn sie als technische Programme wahrgenommen werden, ist bei den Social Bots die Täuschung der anderen Netzteilnehmer wesentliche Voraussetzung, damit sie die öffentliche Meinung beeinflussen können.

Beispiele für den Einsatz von Social Bots

Beispiele für den manipulativen Einsatz von Social Bots gibt es viele. Allein in den Jahren 2016 und 2017 wurde bei fast allen größeren öffentlichen Wahlen der Einsatz von Social Bots registriert: Insbesondere bezüglich ihres Einflusses auf das Brexit-Votum, die Präsidentschaftswahl in den USA, die Parlamentswahl in Frankreich und auf die Bundestagswahl in Deutschland gab es ausführliche Diskussionen über Social Bots.

  • Brexit-Votum: Im Juni 2016 entschied sich die Mehrheit der Briten für einen Austritt aus der EU. Zuvor wurden in sozialen Netzwerken heftige Diskussionen geführt – und man stellte fest: An diesen waren auch viele Social Bots beteiligt. Wie The Independent berichtete, spielten Social Bots insbesondere für das Pro-Austritts-Lager eine wichtige strategische Rolle.
  • US-Präsidentschaftswahl: Im November 2016 wurde Donald Trump zum 58. Präsidenten der USA gewählt. In diesem Zusammenhang gab es zahlreiche Informationen, wie viel Einfluss Social Bots auf seinen knappen Wahlsieg hatten. Laut dem BR wurde beim ersten Fernsehduell jeder dritte Pro-Trump-Tweet von einem Bot abgesetzt. Und die Fake-News-Meldung, der Papst habe Donald Trump zur Wahl empfohlen, wurde fast eine Million Mal geteilt – u. a. von Social Bots. Doch auch für das Pro-Hillary-Lager verzeichnete man den massiven Einsatz von Social Bots.
  • Bundestagswahl: Angesichts der vorangegangenen Wahlen im Ausland waren vor der Bundeswahlkampf 2017 viele Menschen besorgt, dass Social Bots auch hierzulande die öffentliche Meinung beeinflussen würden. Infolgedessen sprachen sich alle teilnehmenden Parteien gegen ihren Einsatz im Wahlkampf aus, auch wenn Social Bots in Deutschland durchaus erlaubt sind. Letztlich, so resümierte eine Studie der Universität Oxford, hätten Bots den Wahlkampf in Deutschland „nicht wesentlich“ beeinflusst. Aufgrund der hierzulande verhältnismäßig geringen Anzahl an Twitter-Nutzern ist allerdings auch ihre Reichweite geringer, weswegen in Deutschland ohnehin weniger Social Bots eingesetzt werden.

Welchen Einfluss Social Bots auf den Ausgang von Wahlen haben, wurde kontrovers diskutiert. Insbesondere das Brexit-Votum und die für viele überraschende Wahl Donald Trumps bestimmten über Monate die deutsche Presse – nicht selten mutmaßten User, dass vor diesen Wahlen Meinungsroboter als heimliche Wahlhelfer zum Einsatz kamen. In einer Umfrage vom April 2017, durchgeführt von Fittkau & Maaß Consulting, gaben 59 Prozent der Befragten an, dass sie viele Posts und Accounts in sozialen Netzwerken für „gefaket“ hielten und Social Bots als Verfasser vermuteten. Und immerhin 42 Prozent dieser Befragten waren überzeugt, dass Bots auch die politischen Entscheidungen im Jahr 2016 beeinflusst hätten. Die Auswirkungen von Social Bots und Fake-News sind also offenkundig: Sie führen zu einem großen Vertrauensverlust im Rahmen der digitalen Kommunikation.

Fakt

Ein weiterer Nebeneffekt von Social Bots: Sie verfälschen die Ergebnisse von Social-Media-Analysen. Bei der Auswertung von Likes und Retweets ist für Analysten kaum zu erkennen, ob diese von menschlichen oder virtuellen Accounts stammen. Die tatsächliche Relevanz von Themen lässt sich dadurch statistisch deutlich schwerer ermitteln. Dies ist sowohl für Unternehmen als auch für die Politik von Nachteil. Denn beide stützen ihre Strategien gerne auf Ergebnisse von Social-Media-Analysen.

Funktionsweise von Social Bots

Ein Social Bot postet Beiträge meist unter einem Fake-Account – mit eigenem Profilbild, Posts und häufig sogar mit eigenen Followern bzw. „Freunden“. Über diesen Account verbreitet der Social Bot seine Marketing-Botschaften oder politischen Statements. Dies kann über Likes und Retweets geschehen oder auch in Form von Posts und Kommentaren. Über eine Programmierschnittstelle (API) bekommt ein Social Bot Zugang zu sozialen Netzwerken und kann Daten sowohl empfangen als auch versenden. Social Bots agieren meist zu Tageszeiten, zu denen auch Menschen typischerweise aktiv sind. Außerdem posten sie ihre Beiträge meist in variierenden Zeitabständen – all das verschleiert, das in Wirklichkeit eine Maschine hinter den Beiträgen steckt. Darüber hinaus kann ein Social Bot auch Freundschaftsanfragen versenden. Wird eine solche Freundschaftsanfrage von menschlichen Nutzern bestätigt, sind viele Social Bots in der Lage, die Daten dieser User zu sammeln und auszuwerten. Schon 2011 belegte eine kanadische Studie, dass Social Bots Daten sammeln und die Account-Informationen von Leuten auswerten, die ihre Freundschaftsanfrage annehmen.

Fakt

Twitter ist aufgrund der Kürze der Tweets eines der beliebtesten Netzwerke für Social Bots. Dort genügen bereits die geringen Sprachkenntnisse einfacher Bots, um unerkannt zu agieren.

Viele Social Bots sind mit simplen Algorithmen programmiert, die auf einfachen Wenn-dann-Ereignisketten beruhen: Wenn ein relevantes Thema identifiziert wurde, dann postet der Social Bot seine vorprogrammierten Inhalte. Um entsprechende Themen zu finden, arbeiten Social Bots mit einfachen Keyword-Suchen und scannen Twitter-Timelines oder Facebook-Posts nach bestimmten Wörtern und Hashtags. Dann veröffentlichen sie vorgefertigte Texte als Statement oder versuchen, Gespräche in eine bestimmte Richtung zu lenken.

Zitat

Das renommierte Tech-Magazin Wired formuliert den Charakter technisch einfacher Social Bots so: „Die meisten Bots sind ziemlich dumm, aber eben effektiv.“

Es gibt jedoch auch Social Bots, die technisch deutlich komplexer sind. Mithilfe künstlicher Intelligenz, umfassender Datenanalyse und Textauswertung gelingt es diesen intelligenten Social Bots, immer wieder neue Kommentare zu generieren, die sich von den vorangegangenen unterscheiden. Mitunter können sich solche Bots in ihren Beiträgen sogar auf das aktuelle Tagesgeschehen beziehen. Meist bauen sie ihre Beiträge aus unterschiedlichen Onlinetexten zusammen, die sie neu arrangieren. Bei diesen komplexeren Social Bots fällt es wesentlich schwerer, sie zu entlarven.

Wirklich effizient arbeiten Meinungsroboter allerdings erst, wenn sie miteinander vernetzt sind: Agieren viele Bots koordiniert miteinander in einem sogenannten Botnet, verbreiten sie Informationen noch wirkungsvoller. Dann können Social Bots beispielsweise Beiträge liken und teilen, die ein anderer Social Bot verfasst hat. Ihr Einfluss wächst also mit der Masse an Accounts.

Technik: Warum gibt es so viele Social Bots?

Um einen einfachen Social Bot zu entwickeln, bedarf es inzwischen kaum besonderer technischer Fähigkeiten: Mit entsprechenden Tools kann man auch ohne große Programmierkenntnisse eigene Social Bots kreieren. An gefälschte Nutzer-Accounts kommt man ebenso leicht heran: Über online verfügbare Generatoren werden sie einfach neu erzeugt – oder der menschliche Initiator kauft einfach bestehende Fake-Accounts. Selbst die Steuerungssoftware für diese Accounts kann man inzwischen online kaufen. Über eine Programmierschnittstelle verschafft man dem Bot dann Zugang zu Twitter oder Facebook, wo er auf vorher festgelegte Hashtags oder Keywords reagiert. Die leichte Verfügbarkeit der Technologie trägt wesentlich zur rasanten Verbreitung von Social Bots bei.

Die Verbreitung wird aber auch durch die sozialen Medien selbst erleichtert – denn Facebook und Twitter halten ihre Programmierschnittstellen bewusst relativ einfach zugänglich: Dies soll Applikationsentwickler ermutigen, weiterhin an neuer Software für ihre Plattformen zu arbeiten. Doch damit bieten die sozialen Netzwerke eben auch kaum Hürden für die Social Bots. Insbesondere Twitter ist für sie einfach zu erreichen – und so tummeln sich dort auch die meisten Bots.

Zitat

„Technisch ist es besonders einfach, Bots für Twitter zu entwickeln. Auf Facebook ist das schwieriger, aber ich könnte mir vorstellen, dass das Botaufkommen in Facebook bei einem so singulären Ereignis wie der Bundestagswahl zumindest ansteigt.“

- Andree Thieltges (TU München) 2017 im Gespräch mit Zeit Online

Doch es gibt auch Maßnahmen, die den Handlungsspielraum von Social Bots eingrenzen. So lassen sich technische Barrieren einrichten, die bereits die Erstellung von Fake-Accounts verhindern bzw. zumindest erschweren. Hat man die IP-Adresse eines Bots ermittelt, kann man diese sperren, sodass er keinen Zugang zum Netzwerk erhält. Viele Plattformen nutzen zur Abwehr von Social Bots sogenannte Captchas. Captchas sind Kurztests, die Menschen in der Regel problemlos bestehen können, mit denen viele Bots aber Schwierigkeiten haben. Meist muss der User bei einem Captcha eine grafisch verfremdete Ziffernfolge eintippen, die von einer Maschine nicht ausgelesen werden kann. Je aufwendiger ein Bot programmiert ist, desto höher ist allerdings auch die Wahrscheinlichkeit, dass er einfache Captchas bewältigen kann.

Die unterschiedlichen Arten von Social Bots

  1. Der Überlaster: Der Überlaster ist ein Bot, der eine Onlinekonversation mit seinen Kommentaren regelrecht überflutet. Er postet immer wieder dieselben Aussagen und drängt damit andere Beiträge in den Hintergrund. Der Überlaster ist erst dann richtig effizient, wenn er mit anderen Bots zusammenarbeitet. Wenn ein Netz von Überlastern sich gegenseitig liket und kommentiert, verlieren die menschlichen Nutzer schnell die Kontrolle über Diskussionen. Ein inhaltlicher Austausch wird so unmöglich.

  2. Der Trendsetter: Auch Trendsetter agieren am besten im Team: Greift eine größere Menge von Social Bots koordiniert einen bestimmten Hashtag auf, so können sie Beiträgen zu diesem Thema eine enorme Reichweite verleihen. Gelingt es auf diese Weise in die Trendspalten von Facebook oder Twitter zu gelangen, wird das Thema möglicherweise von der Presse aufgegriffen. Spätestens dann konnten die Social Bots die tatsächliche Relevanz des gewählten Themengebiets verzerren: Trendsetter-Bots sorgen dafür, dass Randphänomene wirken wie wegweisende Trends oder eine kleine Randgruppe wie eine große soziale Bewegung.

  3. Der Auto-Troll: Der Auto-Troll agiert alleine. Er versucht, User, die sich zu einem bestimmten Thema äußern, gezielt abzulenken und in ein Gespräch zu verwickeln. Dies tut er meistens mit provozierenden Aussagen, die die jeweiligen Nutzer zu Widerspruch provozieren. Dadurch wird die Konversation vom eigentlichen Thema abgelenkt – eine konstruktive Unterhaltung wird polemisch und hitzig. Einen inhaltlichen Austausch können Bots mit dieser Methode leicht verhindern.

Akteure: Wer profitiert von Social Bots?

Wer tatsächlich hinter einem Social Bot steckt, lässt sich nur schwer ermitteln. Bisher existiert nicht einmal eine hundertprozentig sichere Methode, um Fake-Accounts überhaupt zu identifizieren. Dann den verantwortlichen Entwickler aufzuspüren, ist noch schwerer. Allerdings lassen sich grob vier Gruppen nennen, die Nutzen aus dem Einsatz von Social Bots schlagen können:

  1. Social Marketer/Influencer: Kleinere und größere Unternehmen können Social Bots für verdecktes Marketing verwenden. Als Influencer wiederum möchte man mithilfe von Meinungsrobotern Trends setzen und beeinflussen. Auch Zielgruppeninformationen lassen sich über einen Social Bot gewinnen – denn bestätigt man die Freundschaftsanfrage eines Bots, so hat dieser umfassenden Zugriff auf die im Profil hinterlegten Daten.

  2. Politische Akteure: Auch Lobbygruppen oder politische Akteure stehen im Verdacht, Social Bots zu nutzen. So vermuten amerikanische Geheimdienste, dass hinter vielen Fake-Accounts und Social Bots im US-Wahlkampf russische Hacker steckten. Ob der Angriff von Kriminellen oder von der russischen Regierung ausging, ist allerdings unklar.

  3. Andere Akteure mit Interesse an öffentlicher Meinungsbildung: Es gibt noch weitere Akteure, die über Social Bots Meinungen beeinflussen wollen. Dies können Privatpersonen, Gruppierungen, Organisationen oder Kriminelle sein. Diese dritte Gruppe – ein Sammelbecken aus schwer identifizierbaren Akteuren – ist wohl die größte der hier genannten. Die entsprechenden Personen setzen Bots zum Vorteil einer Partei ein oder um Themen mehr Aufmerksamkeit zu verschaffen – oder auch einfach nur, um Unruhe zu stiften. Sehr häufig ist auch die Verbreitung von links- oder rechtsextremistischen Inhalten das Ziel. Da diese Gruppe so heterogen ist, lässt sich die Intention der Anwender kaum auf einen gemeinsamen Nenner bringen.

  4. Akteure ohne erkennbares Interesse: Es gibt eine ganze Reihe vergleichbar „harmloser“ Social Bots, die z. B. massenweise „Star Wars“-Kommentare liken. Bots dieser Art dienen keinem erkennbaren politischen oder wirtschaftlichen Ziel. Vermutlich sind viele davon lediglich aus der Lust an technischen Spielereien entstanden.

Gefahren und Wirksamkeit von Social Bots

Der Zweck von Social Bots ist in den meisten Fällen, Meinungen und Trends in den sozialen Netzwerken zu beeinflussen. Das BMI fasst die möglichen gesellschaftlichen und wirtschaftlichen Auswirkungen folgendermaßen zusammen:

Zitat

Gesellschaftliche Folgen: Social Bots haben die Möglichkeit zur „Desinformation, Täuschung und Manipulation von Meinungsbildungsprozessen. [...] [Dadurch] werden selbstverstärkende Feedbackschleifen möglich: Medien greifen die beeinflussten Meinungsbilder der Sozialen Medien auf und beeinflussen dadurch die weitere Meinungsbildung und politische Entscheidungen. [...] Langfristig werden hier beträchtliche Risiken durch die Verbreitung von Hate Speech, Fake News und Extrempositionen gesehen, die zu gesellschaftlicher Polarisierung, Radikalisierung und Fragmentierung beitragen können.“ – Bundesministerium des Innern

Zitat

Wirtschaftliche Folgen: „Netze von Social Bots können dazu beitragen, Popularität vorzutäuschen oder Werbung zu verbreiten und werden eingesetzt, um Börsenkurse zu beeinflussen, Werbeeinahmen ungerechtfertigt zu steigern und Malware zu verbreiten. [...] Betreiber werbefinanzierter sozialer Netzwerke [haben] ein gesteigertes Interesse daran, die Anzahl der auf ihren Plattformen aktiven Social Bots zu verringern. Social Bots zählen nicht zur Zielgruppe der Werbetreibenden.“ – Bundesministerium des Innern

Umstritten ist jedoch, wie erfolgreich Social Bots ihrer Funktion nachgehen. Denn viele Experten sind sich einig: Social Bots erledigen ihre Arbeit nicht besonders gut und haben damit kaum Einfluss auf die Nutzer sozialer Medien.

So hält der Datenjournalist Michael Kreil Social Bots für überschätzt Im Rahmen seiner Social-Media-Analysen habe er kaum Anzeichen für einen nennenswerten Einfluss der Meinungsroboter entdeckt – echte Menschen seien in Onlinediskussionen immer viel erfolgreicher. Auch andere Experten gehen von einem eher geringen Einfluss von Social Bots aus.

Allerdings ist Konsens, dass das Wirken von Social Bots stärker erforscht werden müsse. Es ist daher davon auszugehen, dass die Sozialforschung in den nächsten Jahren genauere Erkenntnisse liefern wird. Auch aus prophylaktischen Gründen ist eine genauere Erforschung der Technik sinnvoll: Denn während aktuell viele Bots noch leicht zu enttarnen sind, muss das bei technisch fortgeschritteneren Bots keineswegs mehr der Fall sein. Dann würde sich auch das Wirkungspotenzial von Bots erhöhen. Daher ist es notwendig, bereits frühzeitig Lösungsstrategien zu entwickeln, um auf den technischen Fortschritt reagieren zu können.

Fazit

Social Bots dienen überwiegend Zielen, die denen der Allgemeinheit entgegengerichtet sind. Ihre Anwender wollen über sie Meinungsbildung betreiben – dazu bedienen sich die Social Bots Techniken, die einen echten Austausch verhindern. Inwieweit Bots jedoch tatsächlich die öffentliche Meinung beeinflussen können, ist noch nicht hinreichend erforscht – es mangelt an wissenschaftlichen Belegen ihrer Wirksamkeit.

Wie kann man einen Social Bot erkennen?

Einen Social Bot zu identifizieren, wird mit der wachsenden Komplexität der Meinungsroboter immer schwieriger. Allerdings gibt es eine Reihe an Fragen, die man sich im Umgang mit Social-Media-Accounts stellen sollte, um abschätzen zu können, ob man es mit einem menschlichen Gegenüber zu tun hat:

  1. Wie glaubhaft ist es, dass ein Mensch ein Profil so gestalten würde? Indizien liefern häufig das Profilbild, Alter des Accounts oder das Verhältnis aus Followern und Following-Angaben: Denn Bots folgen meist sehr vielen Accounts, ohne selbst viele Follower zu haben. Hat ein Account nur zwei oder drei Freunde, ist die Wahrscheinlichkeit, dass es sich um einen Bot handelt, vergleichsweise groß. Sieht das Profilbild wie ein einzigartiger Schnappschuss aus oder eher wie ein professionelles Modelbild, dass sich ein Bot leicht aus dem Netz ziehen kann? Auch, wie stimmig der Profiltext wirkt, liefert einen Hinweis, ob man es mit einem menschlichen Nutzer zu tun hat. Außerdem sollte man überprüfen, seit wann es den Account gibt. Denn viele Meinungsroboter werden erst kurz vor ihrem Einsatz entwickelt und haben daher oft sehr junge Accounts.

  2. Was postet der Account? Versendet ein Account immer wieder sich ähnelnde Posts mit nahezu identischer Wortwahl oder mit Links auf immer dieselben Medien, liegt der Schluss nahe, dass es sich um einen Bot handelt, der ein bestimmtes Thema ins Gespräch bringen soll. Auch ein unnatürlicher Sprachstil oder ungewöhnliche Grammatikfehler lassen auf einen Bot schließen. Grundsätzlich posten Bots häufiger, als dass sie kommentieren.

  3. Wie oft postet der Account Beiträge und wie oft gefällt ihm etwas? Weitere Rückschlüsse liefert die Frequenz, mit der ein Account in den sozialen Netzwerken aktiv ist. Außerordentlich viele Posts, Likes und Retweets sind ebenso auffällig wie eine stetig gleichbleibende Anzahl an Posts pro Tag. Und auch die Reaktionszeit des Accounts sollte man beachten: Antwortet und postet ein Account im Abstand weniger Sekunden, ist dies ein deutlicher Hinweis, dass kein Mensch die Texte eintippt.

  4. Wie reagiert der Account auf Kontextfragen? Eine der zuverlässigsten Methoden, einen Bot zu identifizieren, ist das Stellen von sogenannten Kontextfragen. Das sind Fragen, die in jeder Situation anders beantwortet werden müssen. Außerdem fällt Social Bots das räumliche Denken schwer. Fragt man also einen Bot: „Wie sieht das Profilbild der kommentierenden Person über dir aus?“, so wird er Mühe haben, diese kontextabhängige Frage zu beantworten.

Zu guter Letzt ist es immer sinnvoll, sich die Wirkungsweise der unterschiedlichen Social Bots ins Gedächtnis zu rufen: Beobachtet man störendes Verhalten nach der Art des „Überlasters“ oder des „Auto-Trolls“, sollte man sich davon nicht ablenken oder provozieren lassen. Selbst wenn sich hinter dem Account kein Bot verbirgt, hilft es, diesen zu ignorieren und stattdessen einfach konstruktiv mit den anderen Usern weiterzudiskutieren. Auf diese Weise wirkt man dem Einfluss von Social Bots ebenso entgegen wie dem von menschlichen Störenfrieden.

War dieser Artikel hilfreich?
Page top