Was ist ei­gent­lich ein Social Bot? Ins­be­son­de­re in Zu­sam­men­hang mit In­ter­net­dis­kus­sio­nen um den Brexit und Wahl Donald Trumps als US-Präsident tauchte dieser Begriff häufig auf. Social Bots gelten als eine Art Mei­nungs­ro­bo­ter, die Dis­kus­sio­nen in den sozialen Netz­wer­ken be­ein­flus­sen. Nicht wenige be­fürch­te­ten 2017, dass sie auch die Bun­des­tags­wahl massiv be­ein­flus­sen würden. Doch ist ihr Einfluss wirklich so groß? Was genau verbirgt sich ei­gent­lich hinter einem Social Bot und wie funk­tio­niert er?

Social Bots si­mu­lie­ren in sozialen Netz­wer­ken mensch­li­che Nutzer. Geben sie keinerlei Hinweis darauf, dass es sich bei ihnen um Maschinen handelt, sind sie zudem als Fake-Accounts zu werten. Andere Nutzer werden durch ent­spre­chen­de Pro­fil­an­ga­ben ir­re­ge­führt und gehen davon aus, es mit Menschen zu tun zu haben. Diese Art von Bots wird oft ein­ge­setzt, um in den sozialen Netz­wer­ken Meinungen zu ver­brei­ten oder Dis­kus­sio­nen anzuregen, die im Sinne ihrer Anwender sind.

Un­ter­neh­men nutzen Social Bots mitunter für Mar­ke­ting­zwe­cke – bei­spiels­wei­se, um eine höhere Po­pu­la­ri­tät von Produkten vor­zu­täu­schen. Auch ge­fälsch­te, positive Pro­dukt­be­wer­tun­gen werden mitunter von ihnen verfasst. Sie können aber auch po­li­ti­schen Zwecken dienen – dann be­ein­flus­sen sie die öf­fent­li­chen Dis­kus­sio­nen im Sinne einer be­stimm­ten Partei bzw. eines be­stimm­ten Po­li­ti­kers. Um den po­li­ti­schen Gegner zu dis­kre­di­tie­ren, nutzen Social Bots nicht selten gezielte Des­in­for­ma­ti­on. So ver­wun­dert es kaum, dass diese Tech­no­lo­gie häufig zusammen mit Reiz­wor­ten wie „Fake News“, „Hate Speech“, „Fil­ter­bubbles“ oder „Feed­back­schlei­fen“ dis­ku­tiert wird.

Der po­la­ri­sie­ren­de Effekt von Social Bots be­schäf­tigt Jour­na­lis­ten und Me­di­en­un­ter­neh­men ebenso wie Geistes- und So­zi­al­wis­sen­schaft­ler. Darüber hinaus hat sich aufgrund der zu­neh­men­den Bedeutung der sozialen Netzwerke in­zwi­schen eine eigene Branche ent­wi­ckelt, die mit der Ent­wick­lung und Nutzung von Social Bots Geld verdient. Denn der Einsatz von Social Bots ist legal – und die Social-Bot-Technik im Netz an­zu­bie­ten, ist ein lu­kra­ti­ves Geschäft.

Fakt

Aufgrund der Tatsache, dass sich immer mehr Menschen in den sozialen Medien in­for­mie­ren, pro­gnos­ti­zie­ren nicht wenige einen wach­sen­den Einfluss der Mei­nungs­ro­bo­ter auf die Öf­fent­lich­keit. Auch das Bun­des­mi­nis­te­ri­um des Innern (BMI) und die Bun­des­zen­tra­le für po­li­ti­sche Bildung klären in­zwi­schen umfassend über die Gefahr durch Social Bots auf.

Al­ler­dings sollte die Tech­no­lo­gie an sich nicht vor­schnell ver­teu­felt werden. Schließ­lich lässt sie sich durchaus sinnvoll einsetzen, ohne dass sie zur Des­in­for­ma­ti­on beiträgt oder mei­nungs­ma­ni­pu­lie­rend wirkt – bei­spiels­wei­se als Chat­pro­gramm auf Un­ter­neh­mens­sei­ten, das Kun­den­fra­gen be­ant­wor­tet.

Um jedoch zu verstehen, welche Gefahren von Social Bots ausgehen und woran man sie erkennen kann, muss man zunächst wissen, wie die Bot-Tech­no­lo­gie an sich funk­tio­niert. Es folgt daher ein kurzer Abriss, was ein Bot ei­gent­lich ist, und eine Erklärung, welche Bot-Typen es gibt.

Was ist ein Bot?

Ein Bot (von engl. „robot“, deutsch „Roboter“) ist ein au­to­ma­ti­sier­tes Programm, das auf bestimmte Aktionen pro­gram­miert ist und diese entweder re­gel­mä­ßig oder reaktiv ausführt. Der Bot tut dies, ohne dafür auf mensch­li­che Steuerung an­ge­wie­sen zu sein. Er ana­ly­siert seine Umgebung und „ent­schei­det“ selbst­stän­dig je nach Situation, welche Aktionen er ausführt.

Fakt

Eine Studie von Incapsula kam 2016 zu dem Ergebnis, dass mehr als die Hälfte des welt­wei­ten Internet-Traffics von Bots generiert wird. Fast 30 Prozent dieser Bots wurden als so­ge­nann­te Bad Bots iden­ti­fi­ziert.

Die ver­schie­de­nen Typen von Bots un­ter­schei­den sich hin­sicht­lich ihrer tech­ni­schen Kom­ple­xi­tät mitunter deutlich. Die Band­brei­te reicht von einfachen Al­go­rith­men bis hin zur hoch­kom­ple­xen KI-Tech­no­lo­gie. Arbeitet ein Bot mit künst­li­cher In­tel­li­genz, dann ist er sogar lernfähig: Er erkundet seine Umgebung und passt sich ihr an.

Je nach Funktion ist ein Bot für mensch­li­che Nutzer gar nicht ohne weiteres wahr­nehm­bar und ver­rich­tet seine Arbeit unbemerkt im Hin­ter­grund oder tritt als Mensch auf (bzw. imitiert mensch­li­ches Verhalten). Einige Arten von Bots stellen wir nach­fol­gend genauer vor:

  • Web­craw­ler: Sie gehören zu jener Kategorie Bots, die gänzlich unbemerkt arbeiten. Meist werden sie von Such­ma­schi­nen ein­ge­setzt, um selbst­tä­tig das Web zu durch­fors­ten, Webseiten zu ana­ly­sie­ren und diese In­for­ma­tio­nen in Such­ver­zeich­nis­se ein­zu­ge­ben. Sie handeln meist „gutartig“ innerhalb allgemein an­er­kann­ter Standards (wie dem Robots Exclusion Standard). Andere Web­craw­ler agieren jenseits dieser Normen und sammeln im Netz un­au­to­ri­siert Daten.
  • Chat-Bots: Im Gegensatz zu Web­craw­lern arbeiten Chat-Bots reaktiv: Sie reagieren auf mensch­li­che Ak­ti­vi­tä­ten und sind darauf spe­zia­li­siert, anderen Chat­teil­neh­mern sinnvoll zu antworten. Im Alltag begegnen einem Chat-Bots vor allem als digitale As­sis­ten­ten. Ein Webseiten-Assistent kann bei­spiels­wei­se Besucher durch die Website führen oder Fragen zum Thema/Angebot der je­wei­li­gen Web­prä­senz be­ant­wor­ten. Auch Sprach­as­sis­ten­ten wie Siri oder OK Google oder externe Sprach­as­sis­ten­ten wie Amazon Echo oder Google Home basieren auf dieser Chat-Bot-Tech­no­lo­gie.
  • Virtuelle Com­pu­ter­spie­ler: Auch in vielen Com­pu­ter­spie­len benötigt man virtuelle Akteure, die variabel auf den Menschen reagieren. Diese Ope­ra­tio­nen werden von Bots aus­ge­führt. Man spricht dann von Nicht-Spieler-Cha­rak­te­ren (Rol­len­spie­le), Aim-Bots (Ac­tion­spie­le), Poker-Bots (On­line­po­ker) und so weiter. Diese Bots handeln reaktiv und arbeiten vermehrt mit künstlich in­tel­li­gen­ter Technik. Ein spek­ta­ku­lä­res Beispiel dafür ist die Künst­li­che In­tel­li­genz von Google mit dem Namen AlphaZero, die sowohl im Schach als auch im Brett­spiel Go be­ein­druck­te. Solch in­tel­li­gen­te Techniken finden auch in Com­pu­ter­spie­le Eingang – in Form von Bots.
  • Social Bots: Dies sind jene Bots, die verdeckt in sozialen Netz­wer­ken ein­ge­setzt werden. Sie arbeiten sowohl repetitiv als auch reaktiv: Sie liken, kom­men­tie­ren, retweeten und versuchen, andere Nutzer zu pro­vo­zie­ren oder in Gespräche zu ver­wi­ckeln. Damit die anderen Nutzer natürlich auf sie reagieren, täuschen sie eine mensch­li­che Identität vor.
Fakt

Bots können Nutzern den Alltag erheblich er­leich­tern, al­ler­dings lassen sie sich ebenso auch für kri­mi­nel­le Hand­lun­gen nutzen. Da viele Bots darauf spe­zia­li­siert sind, selbst­stän­dig und möglichst un­auf­fäl­lig zu arbeiten bzw. mensch­li­ches Verhalten zu imitieren, eignen sie sich ins­be­son­de­re für Da­ten­spio­na­ge bzw. Da­ten­dieb­stahl.

Der Web­craw­ler und der Chat-Bot gelten als die beiden grund­le­gen­den Bot-Typen. Aktuelle Bot-Ge­ne­ra­tio­nen kom­bi­nie­ren oft deren Grund­funk­tio­nen: das verdeckte Auswerten von Daten des Web­craw­lers und die Si­mu­la­ti­on mensch­li­cher Kom­mu­ni­ka­ti­on des Chat-Bots. Auch Social Bots greifen auf diese beiden Grund­funk­tio­nen zurück.

Was ist ein Social Bot und was un­ter­schei­det ihn von anderen Bots?

Ein Social Bot ist ein selbst­tä­ti­ges Programm, das in sozialen Netz­wer­ken mensch­li­ches Verhalten simuliert. Social Bots nehmen an Dis­kus­sio­nen auf Twitter oder Facebook teil und wirken dort wie mensch­li­che Nutzer. In den Social Media ver­brei­ten sie Inhalte zu einem be­stimm­ten Thema – meist zu dem Zweck, die Mei­nungs­bil­dung in der Öf­fent­lich­keit zu be­ein­flus­sen.

Social Bots werden in der Regel im Mar­ke­ting­be­reich oder auch für po­li­ti­sche Zwecke genutzt. Nicht selten ver­brei­ten Social Bots auch Fake-News. Weil sie auf diese Weise die Stimmung und in Internet-Dis­kus­sio­nen be­ein­flus­sen, be­zeich­net man sie auch als Mei­nungs­ro­bo­ter: Um die öf­fent­li­che Meinung zu lenken, nutzt ein Social Bot Techniken, die für Bots typisch sind und auch von anderen Bot-Arten genutzt werden: Er sucht in sozialen Netz­wer­ken nach Dis­kus­sio­nen zu einem zuvor vor­ge­ge­be­nen Thema (Da­ten­aus­wer­tung wie bei den Web­craw­lern) und be­ein­flusst diese als vir­tu­el­ler Ge­sprächs­teil­neh­mer (Ge­sprächs­si­mu­la­ti­on wie bei einem Chat-Bot).

Social Bots ähneln hin­sicht­lich ihrer Funktion also sehr stark Chat-Bots oder digitalen As­sis­ten­ten – auch sie dienen der Kom­mu­ni­ka­ti­on mit dem Menschen. Doch gibt es einen ent­schei­den­den Un­ter­schied: Während Chat-Bots meist einen Be­ra­tungs­ser­vice dar­stel­len, der dem Ge­sprächs­part­ner nutzt, sollen Social Bots ihre mensch­li­chen Ge­sprächs­part­ner täuschen und ma­ni­pu­lie­ren. Und während Chat-Bots ihre Funktion auch erfüllen können, wenn sie als tech­ni­sche Programme wahr­ge­nom­men werden, ist bei den Social Bots die Täuschung der anderen Netz­teil­neh­mer we­sent­li­che Vor­aus­set­zung, damit sie die öf­fent­li­che Meinung be­ein­flus­sen können.

Beispiele für den Einsatz von Social Bots

Beispiele für den ma­ni­pu­la­ti­ven Einsatz von Social Bots gibt es viele. Allein in den Jahren 2016 und 2017 wurde bei fast allen größeren öf­fent­li­chen Wahlen der Einsatz von Social Bots re­gis­triert: Ins­be­son­de­re bezüglich ihres Ein­flus­ses auf das Brexit-Votum, die Prä­si­dent­schafts­wahl in den USA, die Par­la­ments­wahl in Frank­reich und auf die Bun­des­tags­wahl in Deutsch­land gab es aus­führ­li­che Dis­kus­sio­nen über Social Bots.

  • Brexit-Votum: Im Juni 2016 entschied sich die Mehrheit der Briten für einen Austritt aus der EU. Zuvor wurden in sozialen Netz­wer­ken heftige Dis­kus­sio­nen geführt – und man stellte fest: An diesen waren auch viele Social Bots beteiligt. Wie The In­de­pen­dent be­rich­te­te, spielten Social Bots ins­be­son­de­re für das Pro-Austritts-Lager eine wichtige stra­te­gi­sche Rolle.
  • US-Prä­si­dent­schafts­wahl: Im November 2016 wurde Donald Trump zum 58. Prä­si­den­ten der USA gewählt. In diesem Zu­sam­men­hang gab es zahl­rei­che In­for­ma­tio­nen, wie viel Einfluss Social Bots auf seinen knappen Wahlsieg hatten. Laut dem BR wurde beim ersten Fern­seh­du­ell jeder dritte Pro-Trump-Tweet von einem Bot abgesetzt. Und die Fake-News-Meldung, der Papst habe Donald Trump zur Wahl empfohlen, wurde fast eine Million Mal geteilt – u. a. von Social Bots. Doch auch für das Pro-Hillary-Lager ver­zeich­ne­te man den massiven Einsatz von Social Bots.
  • Bun­des­tags­wahl: An­ge­sichts der vor­an­ge­gan­ge­nen Wahlen im Ausland waren vor der Bun­des­wahl­kampf 2017 viele Menschen besorgt, dass Social Bots auch hier­zu­lan­de die öf­fent­li­che Meinung be­ein­flus­sen würden. In­fol­ge­des­sen sprachen sich alle teil­neh­men­den Parteien gegen ihren Einsatz im Wahlkampf aus, auch wenn Social Bots in Deutsch­land durchaus erlaubt sind. Letztlich, so re­sü­mier­te eine Studie der Uni­ver­si­tät Oxford, hätten Bots den Wahlkampf in Deutsch­land „nicht we­sent­lich“ be­ein­flusst. Aufgrund der hier­zu­lan­de ver­hält­nis­mä­ßig geringen Anzahl an Twitter-Nutzern ist al­ler­dings auch ihre Reich­wei­te geringer, weswegen in Deutsch­land ohnehin weniger Social Bots ein­ge­setzt werden.

Welchen Einfluss Social Bots auf den Ausgang von Wahlen haben, wurde kon­tro­vers dis­ku­tiert. Ins­be­son­de­re das Brexit-Votum und die für viele über­ra­schen­de Wahl Donald Trumps be­stimm­ten über Monate die deutsche Presse – nicht selten mutmaßten User, dass vor diesen Wahlen Mei­nungs­ro­bo­ter als heimliche Wahl­hel­fer zum Einsatz kamen. In einer Umfrage vom April 2017, durch­ge­führt von Fittkau & Maaß Con­sul­ting, gaben 59 Prozent der Befragten an, dass sie viele Posts und Accounts in sozialen Netz­wer­ken für „gefaket“ hielten und Social Bots als Verfasser ver­mu­te­ten. Und immerhin 42 Prozent dieser Befragten waren überzeugt, dass Bots auch die po­li­ti­schen Ent­schei­dun­gen im Jahr 2016 be­ein­flusst hätten. Die Aus­wir­kun­gen von Social Bots und Fake-News sind also of­fen­kun­dig: Sie führen zu einem großen Ver­trau­ens­ver­lust im Rahmen der digitalen Kom­mu­ni­ka­ti­on.

Fakt

Ein weiterer Ne­ben­ef­fekt von Social Bots: Sie ver­fäl­schen die Er­geb­nis­se von Social-Media-Analysen. Bei der Aus­wer­tung von Likes und Retweets ist für Analysten kaum zu erkennen, ob diese von mensch­li­chen oder vir­tu­el­len Accounts stammen. Die tat­säch­li­che Relevanz von Themen lässt sich dadurch sta­tis­tisch deutlich schwerer ermitteln. Dies ist sowohl für Un­ter­neh­men als auch für die Politik von Nachteil. Denn beide stützen ihre Stra­te­gien gerne auf Er­geb­nis­se von Social-Media-Analysen.

Funk­ti­ons­wei­se von Social Bots

Ein Social Bot postet Beiträge meist unter einem Fake-Account – mit eigenem Pro­fil­bild, Posts und häufig sogar mit eigenen Followern bzw. „Freunden“. Über diesen Account ver­brei­tet der Social Bot seine Marketing-Bot­schaf­ten oder po­li­ti­schen State­ments. Dies kann über Likes und Retweets geschehen oder auch in Form von Posts und Kom­men­ta­ren. Über eine Pro­gram­mier­schnitt­stel­le (API) bekommt ein Social Bot Zugang zu sozialen Netz­wer­ken und kann Daten sowohl empfangen als auch versenden. Social Bots agieren meist zu Ta­ges­zei­ten, zu denen auch Menschen ty­pi­scher­wei­se aktiv sind. Außerdem posten sie ihre Beiträge meist in va­ri­ie­ren­den Zeit­ab­stän­den – all das ver­schlei­ert, das in Wirk­lich­keit eine Maschine hinter den Beiträgen steckt. Darüber hinaus kann ein Social Bot auch Freund­schafts­an­fra­gen versenden. Wird eine solche Freund­schafts­an­fra­ge von mensch­li­chen Nutzern bestätigt, sind viele Social Bots in der Lage, die Daten dieser User zu sammeln und aus­zu­wer­ten. Schon 2011 belegte eine ka­na­di­sche Studie, dass Social Bots Daten sammeln und die Account-In­for­ma­tio­nen von Leuten auswerten, die ihre Freund­schafts­an­fra­ge annehmen.

Fakt

Twitter ist aufgrund der Kürze der Tweets eines der be­lieb­tes­ten Netzwerke für Social Bots. Dort genügen bereits die geringen Sprach­kennt­nis­se einfacher Bots, um unerkannt zu agieren.

Viele Social Bots sind mit simplen Al­go­rith­men pro­gram­miert, die auf einfachen Wenn-dann-Er­eig­nis­ket­ten beruhen: Wenn ein re­le­van­tes Thema iden­ti­fi­ziert wurde, dann postet der Social Bot seine vor­pro­gram­mier­ten Inhalte. Um ent­spre­chen­de Themen zu finden, arbeiten Social Bots mit einfachen Keyword-Suchen und scannen Twitter-Timelines oder Facebook-Posts nach be­stimm­ten Wörtern und Hashtags. Dann ver­öf­fent­li­chen sie vor­ge­fer­tig­te Texte als Statement oder versuchen, Gespräche in eine bestimmte Richtung zu lenken.

Zitat

Das re­nom­mier­te Tech-Magazin Wired for­mu­liert den Charakter technisch einfacher Social Bots so: „Die meisten Bots sind ziemlich dumm, aber eben effektiv.“

Es gibt jedoch auch Social Bots, die technisch deutlich komplexer sind. Mithilfe künst­li­cher In­tel­li­genz, um­fas­sen­der Da­ten­ana­ly­se und Text­aus­wer­tung gelingt es diesen in­tel­li­gen­ten Social Bots, immer wieder neue Kom­men­ta­re zu ge­ne­rie­ren, die sich von den vor­an­ge­gan­ge­nen un­ter­schei­den. Mitunter können sich solche Bots in ihren Beiträgen sogar auf das aktuelle Ta­ges­ge­sche­hen beziehen. Meist bauen sie ihre Beiträge aus un­ter­schied­li­chen On­line­tex­ten zusammen, die sie neu ar­ran­gie­ren. Bei diesen kom­ple­xe­ren Social Bots fällt es we­sent­lich schwerer, sie zu entlarven.

Wirklich effizient arbeiten Mei­nungs­ro­bo­ter al­ler­dings erst, wenn sie mit­ein­an­der vernetzt sind: Agieren viele Bots ko­or­di­niert mit­ein­an­der in einem so­ge­nann­ten Botnet, ver­brei­ten sie In­for­ma­tio­nen noch wir­kungs­vol­ler. Dann können Social Bots bei­spiels­wei­se Beiträge liken und teilen, die ein anderer Social Bot verfasst hat. Ihr Einfluss wächst also mit der Masse an Accounts.

Technik: Warum gibt es so viele Social Bots?

Um einen einfachen Social Bot zu ent­wi­ckeln, bedarf es in­zwi­schen kaum be­son­de­rer tech­ni­scher Fä­hig­kei­ten: Mit ent­spre­chen­den Tools kann man auch ohne große Pro­gram­mier­kennt­nis­se eigene Social Bots kreieren. An ge­fälsch­te Nutzer-Accounts kommt man ebenso leicht heran: Über online ver­füg­ba­re Ge­ne­ra­to­ren werden sie einfach neu erzeugt – oder der mensch­li­che Initiator kauft einfach be­stehen­de Fake-Accounts. Selbst die Steue­rungs­soft­ware für diese Accounts kann man in­zwi­schen online kaufen. Über eine Pro­gram­mier­schnitt­stel­le ver­schafft man dem Bot dann Zugang zu Twitter oder Facebook, wo er auf vorher fest­ge­leg­te Hashtags oder Keywords reagiert. Die leichte Ver­füg­bar­keit der Tech­no­lo­gie trägt we­sent­lich zur rasanten Ver­brei­tung von Social Bots bei.

Die Ver­brei­tung wird aber auch durch die sozialen Medien selbst er­leich­tert – denn Facebook und Twitter halten ihre Pro­gram­mier­schnitt­stel­len bewusst relativ einfach zu­gäng­lich: Dies soll Ap­pli­ka­ti­ons­ent­wick­ler ermutigen, weiterhin an neuer Software für ihre Platt­for­men zu arbeiten. Doch damit bieten die sozialen Netzwerke eben auch kaum Hürden für die Social Bots. Ins­be­son­de­re Twitter ist für sie einfach zu erreichen – und so tummeln sich dort auch die meisten Bots.

Zitat

„Technisch ist es besonders einfach, Bots für Twitter zu ent­wi­ckeln. Auf Facebook ist das schwie­ri­ger, aber ich könnte mir vor­stel­len, dass das Bot­auf­kom­men in Facebook bei einem so sin­gu­lä­ren Ereignis wie der Bun­des­tags­wahl zumindest ansteigt.“

- Andree Thieltges (TU München) 2017 im Gespräch mit Zeit Online

Doch es gibt auch Maßnahmen, die den Hand­lungs­spiel­raum von Social Bots ein­gren­zen. So lassen sich tech­ni­sche Barrieren ein­rich­ten, die bereits die Er­stel­lung von Fake-Accounts ver­hin­dern bzw. zumindest er­schwe­ren. Hat man die IP-Adresse eines Bots ermittelt, kann man diese sperren, sodass er keinen Zugang zum Netzwerk erhält. Viele Platt­for­men nutzen zur Abwehr von Social Bots so­ge­nann­te Captchas. Captchas sind Kurztests, die Menschen in der Regel pro­blem­los bestehen können, mit denen viele Bots aber Schwie­rig­kei­ten haben. Meist muss der User bei einem Captcha eine grafisch ver­frem­de­te Zif­fern­fol­ge eintippen, die von einer Maschine nicht aus­ge­le­sen werden kann. Je auf­wen­di­ger ein Bot pro­gram­miert ist, desto höher ist al­ler­dings auch die Wahr­schein­lich­keit, dass er einfache Captchas be­wäl­ti­gen kann.

Die un­ter­schied­li­chen Arten von Social Bots

  1. Der Über­las­ter: Der Über­las­ter ist ein Bot, der eine On­line­kon­ver­sa­ti­on mit seinen Kom­men­ta­ren re­gel­recht über­flu­tet. Er postet immer wieder dieselben Aussagen und drängt damit andere Beiträge in den Hin­ter­grund. Der Über­las­ter ist erst dann richtig effizient, wenn er mit anderen Bots zu­sam­men­ar­bei­tet. Wenn ein Netz von Über­las­tern sich ge­gen­sei­tig liket und kom­men­tiert, verlieren die mensch­li­chen Nutzer schnell die Kontrolle über Dis­kus­sio­nen. Ein in­halt­li­cher Austausch wird so unmöglich.

  2. Der Trend­set­ter: Auch Trend­set­ter agieren am besten im Team: Greift eine größere Menge von Social Bots ko­or­di­niert einen be­stimm­ten Hashtag auf, so können sie Beiträgen zu diesem Thema eine enorme Reich­wei­te verleihen. Gelingt es auf diese Weise in die Trend­spal­ten von Facebook oder Twitter zu gelangen, wird das Thema mög­li­cher­wei­se von der Presse auf­ge­grif­fen. Spä­tes­tens dann konnten die Social Bots die tat­säch­li­che Relevanz des gewählten The­men­ge­biets verzerren: Trend­set­ter-Bots sorgen dafür, dass Rand­phä­no­me­ne wirken wie weg­wei­sen­de Trends oder eine kleine Rand­grup­pe wie eine große soziale Bewegung.

  3. Der Auto-Troll: Der Auto-Troll agiert alleine. Er versucht, User, die sich zu einem be­stimm­ten Thema äußern, gezielt ab­zu­len­ken und in ein Gespräch zu ver­wi­ckeln. Dies tut er meistens mit pro­vo­zie­ren­den Aussagen, die die je­wei­li­gen Nutzer zu Wi­der­spruch pro­vo­zie­ren. Dadurch wird die Kon­ver­sa­ti­on vom ei­gent­li­chen Thema abgelenkt – eine kon­struk­ti­ve Un­ter­hal­tung wird polemisch und hitzig. Einen in­halt­li­chen Austausch können Bots mit dieser Methode leicht ver­hin­dern.

Akteure: Wer pro­fi­tiert von Social Bots?

Wer tat­säch­lich hinter einem Social Bot steckt, lässt sich nur schwer ermitteln. Bisher existiert nicht einmal eine hun­dert­pro­zen­tig sichere Methode, um Fake-Accounts überhaupt zu iden­ti­fi­zie­ren. Dann den ver­ant­wort­li­chen Ent­wick­ler auf­zu­spü­ren, ist noch schwerer. Al­ler­dings lassen sich grob vier Gruppen nennen, die Nutzen aus dem Einsatz von Social Bots schlagen können:

  1. Social Marketer/In­fluen­cer: Kleinere und größere Un­ter­neh­men können Social Bots für ver­deck­tes Marketing verwenden. Als In­fluen­cer wiederum möchte man mithilfe von Mei­nungs­ro­bo­tern Trends setzen und be­ein­flus­sen. Auch Ziel­grup­pen­in­for­ma­tio­nen lassen sich über einen Social Bot gewinnen – denn bestätigt man die Freund­schafts­an­fra­ge eines Bots, so hat dieser um­fas­sen­den Zugriff auf die im Profil hin­ter­leg­ten Daten.

  2. Po­li­ti­sche Akteure: Auch Lob­by­grup­pen oder po­li­ti­sche Akteure stehen im Verdacht, Social Bots zu nutzen. So vermuten ame­ri­ka­ni­sche Ge­heim­diens­te, dass hinter vielen Fake-Accounts und Social Bots im US-Wahlkampf russische Hacker steckten. Ob der Angriff von Kri­mi­nel­len oder von der rus­si­schen Regierung ausging, ist al­ler­dings unklar.

  3. Andere Akteure mit Interesse an öf­fent­li­cher Mei­nungs­bil­dung: Es gibt noch weitere Akteure, die über Social Bots Meinungen be­ein­flus­sen wollen. Dies können Pri­vat­per­so­nen, Grup­pie­run­gen, Or­ga­ni­sa­tio­nen oder Kri­mi­nel­le sein. Diese dritte Gruppe – ein Sam­mel­be­cken aus schwer iden­ti­fi­zier­ba­ren Akteuren – ist wohl die größte der hier genannten. Die ent­spre­chen­den Personen setzen Bots zum Vorteil einer Partei ein oder um Themen mehr Auf­merk­sam­keit zu ver­schaf­fen – oder auch einfach nur, um Unruhe zu stiften. Sehr häufig ist auch die Ver­brei­tung von links- oder rechts­extre­mis­ti­schen Inhalten das Ziel. Da diese Gruppe so heterogen ist, lässt sich die Intention der Anwender kaum auf einen ge­mein­sa­men Nenner bringen.

  4. Akteure ohne er­kenn­ba­res Interesse: Es gibt eine ganze Reihe ver­gleich­bar „harmloser“ Social Bots, die z. B. mas­sen­wei­se „Star Wars“-Kom­men­ta­re liken. Bots dieser Art dienen keinem er­kenn­ba­ren po­li­ti­schen oder wirt­schaft­li­chen Ziel. Ver­mut­lich sind viele davon lediglich aus der Lust an tech­ni­schen Spie­le­rei­en ent­stan­den.

Gefahren und Wirk­sam­keit von Social Bots

Der Zweck von Social Bots ist in den meisten Fällen, Meinungen und Trends in den sozialen Netz­wer­ken zu be­ein­flus­sen. Das BMI fasst die möglichen ge­sell­schaft­li­chen und wirt­schaft­li­chen Aus­wir­kun­gen fol­gen­der­ma­ßen zusammen:

Zitat

Ge­sell­schaft­li­che Folgen: Social Bots haben die Mög­lich­keit zur „Des­in­for­ma­ti­on, Täuschung und Ma­ni­pu­la­ti­on von Mei­nungs­bil­dungs­pro­zes­sen. [...] [Dadurch] werden selbst­ver­stär­ken­de Feed­back­schlei­fen möglich: Medien greifen die be­ein­fluss­ten Mei­nungs­bil­der der Sozialen Medien auf und be­ein­flus­sen dadurch die weitere Mei­nungs­bil­dung und po­li­ti­sche Ent­schei­dun­gen. [...] Lang­fris­tig werden hier be­trächt­li­che Risiken durch die Ver­brei­tung von Hate Speech, Fake News und Ex­trem­po­si­tio­nen gesehen, die zu ge­sell­schaft­li­cher Po­la­ri­sie­rung, Ra­di­ka­li­sie­rung und Frag­men­tie­rung beitragen können.“ – Bun­des­mi­nis­te­ri­um des Innern

Zitat

Wirt­schaft­li­che Folgen: „Netze von Social Bots können dazu beitragen, Po­pu­la­ri­tät vor­zu­täu­schen oder Werbung zu ver­brei­ten und werden ein­ge­setzt, um Bör­sen­kur­se zu be­ein­flus­sen, Wer­be­ei­nah­men un­ge­recht­fer­tigt zu steigern und Malware zu ver­brei­ten. [...] Betreiber wer­be­fi­nan­zier­ter sozialer Netzwerke [haben] ein ge­stei­ger­tes Interesse daran, die Anzahl der auf ihren Platt­for­men aktiven Social Bots zu ver­rin­gern. Social Bots zählen nicht zur Ziel­grup­pe der Wer­be­trei­ben­den.“ – Bun­des­mi­nis­te­ri­um des Innern

Um­strit­ten ist jedoch, wie er­folg­reich Social Bots ihrer Funktion nachgehen. Denn viele Experten sind sich einig: Social Bots erledigen ihre Arbeit nicht besonders gut und haben damit kaum Einfluss auf die Nutzer sozialer Medien.

So hält der Da­ten­jour­na­list Michael Kreil Social Bots für über­schätzt Im Rahmen seiner Social-Media-Analysen habe er kaum Anzeichen für einen nen­nens­wer­ten Einfluss der Mei­nungs­ro­bo­ter entdeckt – echte Menschen seien in On­line­dis­kus­sio­nen immer viel er­folg­rei­cher. Auch andere Experten gehen von einem eher geringen Einfluss von Social Bots aus.

Al­ler­dings ist Konsens, dass das Wirken von Social Bots stärker erforscht werden müsse. Es ist daher davon aus­zu­ge­hen, dass die So­zi­al­for­schung in den nächsten Jahren genauere Er­kennt­nis­se liefern wird. Auch aus pro­phy­lak­ti­schen Gründen ist eine genauere Er­for­schung der Technik sinnvoll: Denn während aktuell viele Bots noch leicht zu enttarnen sind, muss das bei technisch fort­ge­schrit­te­ne­ren Bots kei­nes­wegs mehr der Fall sein. Dann würde sich auch das Wir­kungs­po­ten­zi­al von Bots erhöhen. Daher ist es notwendig, bereits früh­zei­tig Lö­sungs­stra­te­gien zu ent­wi­ckeln, um auf den tech­ni­schen Fort­schritt reagieren zu können.

Fazit

Social Bots dienen über­wie­gend Zielen, die denen der All­ge­mein­heit ent­ge­gen­ge­rich­tet sind. Ihre Anwender wollen über sie Mei­nungs­bil­dung betreiben – dazu bedienen sich die Social Bots Techniken, die einen echten Austausch ver­hin­dern. Inwieweit Bots jedoch tat­säch­lich die öf­fent­li­che Meinung be­ein­flus­sen können, ist noch nicht hin­rei­chend erforscht – es mangelt an wis­sen­schaft­li­chen Belegen ihrer Wirk­sam­keit.

Wie kann man einen Social Bot erkennen?

Einen Social Bot zu iden­ti­fi­zie­ren, wird mit der wach­sen­den Kom­ple­xi­tät der Mei­nungs­ro­bo­ter immer schwie­ri­ger. Al­ler­dings gibt es eine Reihe an Fragen, die man sich im Umgang mit Social-Media-Accounts stellen sollte, um ab­schät­zen zu können, ob man es mit einem mensch­li­chen Gegenüber zu tun hat:

  1. Wie glaubhaft ist es, dass ein Mensch ein Profil so gestalten würde? Indizien liefern häufig das Pro­fil­bild, Alter des Accounts oder das Ver­hält­nis aus Followern und Following-Angaben: Denn Bots folgen meist sehr vielen Accounts, ohne selbst viele Follower zu haben. Hat ein Account nur zwei oder drei Freunde, ist die Wahr­schein­lich­keit, dass es sich um einen Bot handelt, ver­gleichs­wei­se groß. Sieht das Pro­fil­bild wie ein ein­zig­ar­ti­ger Schnapp­schuss aus oder eher wie ein pro­fes­sio­nel­les Modelbild, dass sich ein Bot leicht aus dem Netz ziehen kann? Auch, wie stimmig der Pro­fil­text wirkt, liefert einen Hinweis, ob man es mit einem mensch­li­chen Nutzer zu tun hat. Außerdem sollte man über­prü­fen, seit wann es den Account gibt. Denn viele Mei­nungs­ro­bo­ter werden erst kurz vor ihrem Einsatz ent­wi­ckelt und haben daher oft sehr junge Accounts.

  2. Was postet der Account? Versendet ein Account immer wieder sich ähnelnde Posts mit nahezu iden­ti­scher Wortwahl oder mit Links auf immer dieselben Medien, liegt der Schluss nahe, dass es sich um einen Bot handelt, der ein be­stimm­tes Thema ins Gespräch bringen soll. Auch ein un­na­tür­li­cher Sprach­stil oder un­ge­wöhn­li­che Gram­ma­tik­feh­ler lassen auf einen Bot schließen. Grund­sätz­lich posten Bots häufiger, als dass sie kom­men­tie­ren.

  3. Wie oft postet der Account Beiträge und wie oft gefällt ihm etwas? Weitere Rück­schlüs­se liefert die Frequenz, mit der ein Account in den sozialen Netz­wer­ken aktiv ist. Au­ßer­or­dent­lich viele Posts, Likes und Retweets sind ebenso auffällig wie eine stetig gleich­blei­ben­de Anzahl an Posts pro Tag. Und auch die Re­ak­ti­ons­zeit des Accounts sollte man beachten: Antwortet und postet ein Account im Abstand weniger Sekunden, ist dies ein deut­li­cher Hinweis, dass kein Mensch die Texte eintippt.

  4. Wie reagiert der Account auf Kon­text­fra­gen? Eine der zu­ver­läs­sigs­ten Methoden, einen Bot zu iden­ti­fi­zie­ren, ist das Stellen von so­ge­nann­ten Kon­text­fra­gen. Das sind Fragen, die in jeder Situation anders be­ant­wor­tet werden müssen. Außerdem fällt Social Bots das räumliche Denken schwer. Fragt man also einen Bot: „Wie sieht das Pro­fil­bild der kom­men­tie­ren­den Person über dir aus?“, so wird er Mühe haben, diese kon­text­ab­hän­gi­ge Frage zu be­ant­wor­ten.

Zu guter Letzt ist es immer sinnvoll, sich die Wir­kungs­wei­se der un­ter­schied­li­chen Social Bots ins Ge­dächt­nis zu rufen: Be­ob­ach­tet man störendes Verhalten nach der Art des „Über­las­ters“ oder des „Auto-Trolls“, sollte man sich davon nicht ablenken oder pro­vo­zie­ren lassen. Selbst wenn sich hinter dem Account kein Bot verbirgt, hilft es, diesen zu igno­rie­ren und statt­des­sen einfach kon­struk­tiv mit den anderen Usern wei­ter­zu­dis­ku­tie­ren. Auf diese Weise wirkt man dem Einfluss von Social Bots ebenso entgegen wie dem von mensch­li­chen Stö­ren­frie­den.

Zum Hauptmenü