Alle sind meiner Meinung, Dis­kus­sio­nen gibt es kaum und jeder Nach­rich­ten­ar­ti­kel un­ter­mau­ert meine These – sieht so die Realität aus? Für eine zu­neh­men­de Zahl von In­ter­net­nut­zern er­schre­cken­der­wei­se ja. Dabei ist sich die Ge­sell­schaft nur ganz selten einig und andere Meinungen sind die Vor­aus­set­zung für eine de­mo­kra­ti­sche Streit­kul­tur. Spä­tes­tens seit den Er­geb­nis­sen der US-ame­ri­ka­ni­schen Prä­si­dent­schafts­wahl 2016 wissen wir al­ler­dings: Das Bild, das uns soziale Medien und Such­ma­schi­nen vom Diskurs liefern, ist nicht voll­stän­dig, ja sogar von Meinungen anderer bereinigt. Ob wir wollen oder nicht: Wir leben in der Filter-Bubble.

Als Donald Trump 2016 die Wahl zum 45. Prä­si­den­ten der Ver­ei­nig­ten Staaten von Amerika gewann, waren viele Menschen rund um den Globus scho­ckiert: Nichts hatte darauf hin­ge­wie­sen, dass der po­li­ti­sche Au­ßen­sei­ter tat­säch­lich eine Mehrheit um sich ver­sam­meln konnte. So sahen es zumindest Trumps Gegner. Für dessen Anhänger hingegen war die Sache klar: Alle waren doch schließ­lich gegen Clinton. Beide Seiten hatten im Netz trefflich ar­gu­men­tiert und lautstark die eigene Meinung geäußert, doch davon hatte die Ge­gen­sei­te nichts mit­be­kom­men. Alle hatten nur innerhalb ihrer Fil­ter­bla­se gelesen und kom­men­tiert.

Wie entsteht eine Filter-Bubble?

Unsere Ge­sell­schaft hat einen großen Teil des Alltags in das Internet verlegt. Kom­mu­ni­ka­ti­on und In­for­ma­ti­ons­be­schaf­fung laufen für viele fast nur noch online ab. Der News-Feed von Facebook fungiert als Nach­rich­ten­ma­ga­zin, Google als Lexikon, Messenger wie WhatsApp oder Skype dienen zum Austausch mit Freunden, Kollegen und Familie. Nahezu alles, was wir wissen möchten, finden wir in­zwi­schen online. Das wissen auch die Anbieter im Internet: Google, Facebook, Netflix oder Instagram ist klar, wie wichtig ihre Angebote für die Ge­sell­schaft sind. Sie ver­fei­nern deshalb ständig ihre Al­go­rith­men im Sinne der Nut­zer­freund­lich­keit: Sie zeigen uns nur die In­for­ma­tio­nen, die ver­meint­lich relevant für uns sind.

Es ist nichts Neues: Die großen Dienst­leis­ter im Internet sammeln Daten über das Nut­zungs­ver­hal­ten auf ihren Platt­for­men und ver­spre­chen, damit das Nut­zer­er­leb­nis noch besser auf die Belange der Anwender an­zu­pas­sen – oft ganz ohne deren Zutun. Die Da­ten­sam­me­lei wurde in der Ver­gan­gen­heit bereits von vielen Experten kri­ti­siert, aber vorrangig unter dem (sehr wichtigen) Aspekt des Da­ten­schut­zes. Der plakative Begriff „Da­ten­kra­ke“ um­schreibt, wie umfassend Google, Facebook & Co. die per­sön­li­chen Daten ihrer Anwender sammeln und ana­ly­sie­ren: Wie viel Zeit verbringt jemand online? Wo wohnt er? Was sind seine Hobbys?

All diese In­for­ma­tio­nen werden selbst­re­dend auch für ganz ei­gen­nüt­zi­ge Zwecke dieser Un­ter­neh­men verwendet: Mit per­so­na­li­sier­ter Werbung bei­spiels­wei­se verdienen Google und Facebook einen großen Teil ihres Umsatzes. Aber die Daten sollen eben auch helfen, die Angebote besser auf den je­wei­li­gen Nutzer zu­zu­schnei­den. Es wird also nicht nur Werbung per­so­na­li­siert, sondern auch das In­for­ma­ti­ons­an­ge­bot.

In­fol­ge­des­sen zeigen uns die Dienste nur noch die Nach­rich­ten, In­for­ma­tio­nen und Meinungen, die zu unserem Nut­zer­pro­fil passen. Das mag zunächst positiv er­schei­nen: Feeds werden nicht mehr mit Artikeln voll­ge­stopft, die einen ohnehin nicht in­ter­es­sie­ren; beliebte Posts werden nicht mehr mit Kom­men­ta­ren überhäuft, die man sowieso nicht liest; man muss sich nicht mehr mühsam durch Mei­nungs­de­bat­ten kämpfen, die zu keinem Ergebnis führen. Doch auf längere Sicht entstehen dadurch Probleme, die einem erst auffallen, wenn man die Fil­ter­me­cha­nis­men der sozialen Medien hin­ter­fragt.

Kritik an Facebook-Blasen und Google-Bubbles

Der Begriff der Fil­ter­bla­se geht auf den Ak­ti­vis­ten Eli Pariser zurück, der in seinem Buch „Filter Bubble: Wie wir im Internet ent­mün­digt werden“ das Ausmaß der Per­so­na­li­sie­rung von In­for­ma­tio­nen im Internet kri­ti­siert. Ihm war auf­ge­fal­len, dass ver­schie­de­ne Nutzer – abhängig etwa von ihrer po­li­ti­schen Ein­stel­lung – un­ter­schied­li­che Er­geb­nis­se bei gleichen Such­be­grif­fen angezeigt bekommen. Diese Google-Blase ist aber kein Ein­zel­fall: Andere Dienste im Web verwenden ebenfalls Al­go­rith­men zur Per­so­na­li­sie­rung. Gerade auch bei Facebook entsteht so eine Bubble. Die Probleme, die daraus re­sul­tie­ren, sind nicht nur in­di­vi­du­el­ler Natur, sondern haben ge­samt­ge­sell­schaft­li­che Aus­wir­kun­gen.

Innerhalb einer funk­tio­nie­ren­den De­mo­kra­tie ist der Diskurs maß­geb­lich: Der Austausch un­ter­schied­li­cher Per­spek­ti­ven ist nicht nur zwischen Po­li­ti­kern ver­schie­de­ner Parteien wichtig, sondern sollte bes­ten­falls in der gesamten Ge­sell­schaft statt­fin­den. Nur so ist es möglich, nicht in einer fest­ge­fah­re­nen Meinung zu verharren, sondern andere Ansichten mit­ein­zu­be­zie­hen und den eigenen Horizont zu erweitern. Wer al­ler­dings in einer Fil­ter­bla­se lebt, der findet kaum noch Argumente gegen den eigenen Stand­punkt vor, sondern übermäßig viel Zu­stim­mung. Da aber viele In­ter­net­nut­zer noch nicht über ein aus­rei­chend kri­ti­sches Be­wusst­sein im Umgang mit den neuen Medien verfügen – Stichwort: Me­di­en­kom­pe­tenz –, wird die eigene Wahr­neh­mung innerhalb der Blase auf die gesamte Welt außerhalb pro­ji­ziert.

Statt die eigene Meinung als nur eine von vielen zu sehen, wird man durch die Fil­ter­bla­se nur noch in ihr bestätigt und nimmt kaum mehr wahr, dass es auch andere Ansichten gibt. Dadurch lassen sich solche Phänomene wie der – z. B. für Me­di­en­ver­tre­ter – über­ra­schen­de Sieg Trumps erklären. Innerhalb der Filter-Bubble liberal ein­ge­stell­ter Personen gab es keine Anzeichen, dass genügend Menschen die Po­si­tio­nen des re­pu­bli­ka­ni­schen Kan­di­da­ten teilen würden. Jour­na­lis­ten, die sich auch in einer solchen Fil­ter­bla­se befinden, wirken als Mul­ti­pli­ka­to­ren und ver­brei­ten die vor­ge­fer­tig­te Meinung in den übrigen Medien.

Die Bildung von Fil­ter­bla­sen wi­der­spricht zwei Grund­ge­dan­ken, die mit der Ver­brei­tung des Internets als Mas­sen­me­di­um ein­her­gin­gen: Zum einen steht es für die Ver­net­zung un­ter­schied­lichs­ter Menschen über den gesamten Globus hinweg – wer sich aber nur noch innerhalb einer homogenen Gruppe aufhält, der hat nichts mehr von diesem Vorteil. Zum anderen ist das Internet als vir­tu­el­ler Ort gelobt worden, an dem In­for­ma­tio­nen frei zu­gäng­lich sind und sich nicht zensieren lassen. Damit konnte das Internet einen Gegenpol zu den tra­di­tio­nel­len Medien bilden, denn dort werden Inhalte durch die je­wei­li­gen Re­dak­tio­nen gefiltert. Nun ist diese Filterung auch im Internet an­ge­kom­men, aber statt eines Re­dak­ti­ons­teams ist es nun ein Al­go­rith­mus, der auswählt, was Nutzer wissen sollen.

Wer ist schuld an der Filter-Bubble?

Es ist recht einfach, die Schuld bei den großen Konzernen und ihren Al­go­rith­men zu suchen: Facebook, Yahoo oder Google klären ihre Nutzer nicht oder nur un­ge­nü­gend darüber auf, wie und warum sie bestimmte In­for­ma­tio­nen filtern, und geben ihnen auch nicht direkt die Mög­lich­keit, die Filterung zu verändern bzw. ab­zu­stel­len. Generell sind aber alle Nutzer mit­ver­ant­wort­lich für die Inhalte, die sie angezeigt bekommen. Facebook z. B. zeigt weniger Neu­ig­kei­ten von Nutzern an, auf deren Links wir nicht klicken. Das heißt, wir si­gna­li­sie­ren schon im Vorfeld ein Des­in­ter­es­se an Berichten, die nicht mit unserer Meinung konform sind. Der Al­go­rith­mus führt dies fort und prä­sen­tiert in vor­aus­ei­len­dem Gehorsam nur noch die In­for­ma­tio­nen, die uns offenbar in­ter­es­sie­ren.

Eli Pariser geht davon aus, dass ein Wi­der­spruch in jedem selbst herrscht, und ver­gleicht dies mit gesunden und un­ge­sun­dem Essen: Zwar wissen wir, dass wir auch Le­bens­mit­tel zu uns nehmen sollten, die gut für unsere Ge­sund­heit sind, aber wir ent­schei­den uns doch zu gern für Produkte, die un­mit­tel­bar unsere Be­dürf­nis­se stillen. Dem­entspre­chend sind auch wir ver­ant­wort­lich dafür, dass wir nichts anderes mehr angeboten bekommen. Deshalb plädiert Pariser für eine Mischform als Lösung: zum einen In­for­ma­tio­nen, die sich mit unserem Profil decken, und zum anderen solche, die uns her­aus­for­dern. So sollten auch Al­go­rith­men aufgebaut sein.

Deshalb ist eine Schuld­fra­ge nicht eindeutig zu be­ant­wor­ten: Es scheint sich um eine Mischung aus ge­sell­schaft­li­chen und tech­ni­schen Phä­no­me­nen zu handeln. Auf der einen Seite neigt jeder Mensch dazu, nach Be­stä­ti­gung seiner Meinung zu suchen. Auf der anderen Seite sind die tech­ni­schen Ent­wick­lun­gen, die im Web ein­ge­setzt werden, darauf ausgelegt, das Surfen möglichst angenehm zu gestalten – nicht darauf, in­tel­lek­tu­el­le Her­aus­for­de­run­gen zu schaffen. Fakt ist: Die Menge an Meldungen, die tag­täg­lich im Internet er­schei­nen, kann keine Person komplett sichten. Deshalb ist gegen einen auf tech­ni­schen Al­go­rith­men ba­sie­ren­den Filter grund­sätz­lich nichts ein­zu­wen­den. Die daraus re­sul­tie­ren­den Auswüchse sind al­ler­dings durchaus kritisch zu hin­ter­fra­gen.

Echo­kam­mern und Fake-News: Die Auswüchse der Fil­ter­bla­sen

In Zu­sam­men­hang mit der Filter-Bubble tauchen häufig auch zwei weitere Begriffe auf: „Echo­kam­mern“ und „Fake-News“. Eine Echo­kam­mer ist ei­gent­lich ein Raum, in dem man einen starken Nachhall erzeugen kann. Im über­tra­ge­nen Sinn wird damit ein vir­tu­el­ler Raum be­zeich­net, in dem sich Meinungen nur noch ver­stär­ken und es keine mil­dern­den Einflüsse mehr gibt. Solche Echo­kam­mern entstehen innerhalb einer Fil­ter­bla­se, da eine ein­ge­speis­te Meinung (z. B. in Form eines Facebook-Posts) durch das Echo der anderen Mit­glie­der innerhalb der Blase nur verstärkt wird und nicht mehr durch einen anderen Stand­punkt re­la­ti­viert.

So lässt sich unter anderem auch der Erfolg der so­ge­nann­ten Fake-News erklären. Die an­geb­li­chen Tat­sa­chen­be­rich­te stellen entweder Sach­ver­hal­te verzerrt dar oder haben gar aus­schließ­lich Fiktionen zum Inhalt. Agi­ta­to­ren speisen solche Lü­gen­ge­schich­ten in eine Filter-Bubble ein, in der sie sich un­wi­der­spro­chen wei­ter­ver­brei­ten und zu ver­meint­li­chen Tatsachen auf­schwin­gen können. So entsteht eine Wahr­neh­mung der Welt, die mehr von Meinungen als von Tatsachen bestimmt ist, wodurch Konflikte statt Diskurse entstehen.

Die Fil­ter­bla­se: Alles halb so wild?

Doch es gibt – ganz im Sinne der Mei­nungs­viel­falt – einige Stimmen, die Kritik an der Theorie von der Fil­ter­bla­se üben. Frag­wür­dig ist vor allem, wie hoch der Einfluss einer Filter-Bubble wirklich ist und ob das Internet oder die ent­spre­chen­den Al­go­rith­men diesen tat­säch­lich ver­stär­ken. So hat das Hans-Bredow-Institut im Jahr 2016 ermittelt, dass die meisten Deutschen Nach­rich­ten immer noch haupt­säch­lich über das klas­si­sche Medium Fernsehen beziehen: 78 Prozent der Befragten gaben dies an. Darauf folgt aber schon das Internet, das immerhin 59 Prozent als Nach­rich­ten­quel­le verwenden. 31 Prozent der Befragten be­schaf­fen sich Nach­rich­ten übrigens in sozialen Medien – dort also, wo die Fil­ter­bla­se am stärksten wirken dürfte. Doch nur für die wenigsten sind Social Media die einzige Quelle. Ist die Kritik an der Fil­ter­bla­se also über­trie­ben? Bevor man das bejaht, sollte man be­rück­sich­ti­gen: Immerhin 47 Prozent der Befragten nutzen eine Such­ma­schi­ne, um an Online-Nach­rich­ten zu gelangen. Die Google-Bubble könnte also schon einen deut­li­chen Einfluss darauf nehmen, welche In­for­ma­tio­nen Nutzer erhalten. Außerdem halten sich auch Jour­na­lis­ten in sozialen Medien auf und nutzen Google zur Recherche – insofern be­ein­flusst das auch die Medien außerhalb des Internets. Aber gerade zur Google-Blase gibt es sehr wi­der­sprüch­li­che Meinungen: Zwar liefert Eli Pariser deutliche Belege für den Einfluss der Per­so­na­li­sie­rung auf die Such­ergeb­nis­se bei Google. Doch diese Be­ob­ach­tun­gen stammen bereits aus dem Jahr 2011, und Google nimmt be­kann­ter­ma­ßen re­gel­mä­ßi­ge Ver­än­de­run­gen an seiner Such­ma­schi­ne vor. Die In­itia­ti­ve Al­go­rith­m­Watch hat zur Bun­des­tags­wahl 2017 Such­ergeb­nis­se zu ver­schie­de­nen Parteien bei 4.000 un­ter­schied­li­chen Nutzern un­ter­sucht. Das Ergebnis: Die Google-Er­geb­nis­se un­ter­schei­den sich nur in wenigen Details. Diese hängen vor allem mit dem Standort der Nutzer zusammen; eine Selektion nach Kriterien der Per­so­na­li­sie­rung konnte nicht fest­ge­stellt werden. Al­ler­dings darf man nicht vergessen, dass es Fil­ter­bla­sen auch schon vor dem Internet gegeben hat: Weit vor der Ent­wick­lung des World Wide Webs haben sich zahl­rei­che Menschen in Vereinen, Freun­des­krei­sen und Stamm­ti­schen auch ganz ohne Google- oder Facebook-Bubbles in Echo­kam­mern ver­schanzt. Das Internet hat für deutlich mehr Mei­nungs­viel­falt gesorgt und somit zur Plu­ra­li­sie­rung bei­getra­gen. Um aber auch zukünftig ein freies Internet zu haben, in dem sich un­ter­schied­li­che Menschen mit ab­wei­chen­den Stand­punk­ten und An­schau­un­gen auf gleicher Ebene treffen, darf man die Gefahr von Fil­ter­bla­sen nicht un­ter­schät­zen.

Wege aus der Filter-Bubble

Wer sich aus seiner Fil­ter­bla­se befreien möchte, der hat mehrere Mög­lich­kei­ten: Der erste Schritt sollte sein, das eigene Surf­ver­hal­ten zu hin­ter­fra­gen. Wer sich bewusst mit konträren Meinungen be­schäf­tig­ten möchte, schafft dies auch trotz Facebook-Blase und (ver­meint­li­cher) Google-Per­so­na­li­sie­rung. So lassen sich die Al­go­rith­men der sozialen Medien bewusst be­ein­flus­sen und trai­nie­ren: Wer z. B. die Facebook-Seiten mehrere Parteien mit „Gefällt mir“ markiert, sollte künftig breiter ge­fä­cher­te In­for­ma­tio­nen aus dem po­li­ti­schen Spektrum erhalten. So kann sich jeder seine eigene Di­ver­si­tät erzeugen.

Darüber hinaus bietet das Netz Hilfs­mit­tel, die zumindest die Suche von per­so­na­li­sier­ten Er­geb­nis­sen befreien. So steht es jedem In­ter­net­nut­zer frei, seine Suche in anderen Such­ma­schi­nen durch­zu­füh­ren und eine Al­ter­na­ti­ve zu Google zu nutzen. Die deutsche Such­ma­schi­ne Unbubble bei­spiels­wei­se wirbt damit, dass keinerlei In­for­ma­tio­nen über das Verhalten der Suchenden gesammelt oder aus­ge­wer­tet werden. So findet auch keine per­so­na­li­sier­te Suche statt und es kann keine Fil­ter­bla­se entstehen.

Zu­sätz­lich gibt es für manche In­ter­net­brow­ser Add-ons, die dabei helfen, ein Tracking des Surf­ver­hal­tens zu ver­hin­dern. Was gut für den Da­ten­schutz ist, hilft auch dabei, Filter-Bubbles zu umgehen. Wenn Un­ter­neh­men keine per­sön­li­chen Daten sammeln können, ist es auch nicht möglich, eine Per­so­na­li­sie­rung durch­zu­füh­ren. Auch bei der Angabe von per­sön­li­chen In­for­ma­tio­nen in sozialen Medien sollte man Skepsis bewahren. Wer nicht auf Facebook ver­zich­ten möchte, kann zumindest bei der Preisgabe von In­for­ma­tio­nen re­strik­ti­ver sein.

Geht man davon aus, dass die Fil­ter­bla­se sich auch in die tra­di­tio­nel­len Medien ausweitet, ist es selbst­ver­ständ­lich sinnvoll, möglichst mehrere un­ter­schied­li­che Medien und Quellen her­an­zu­zie­hen, um sich zu in­for­mie­ren. Online geht das z. B. durch die Ver­wen­dung von aus­ge­wo­ge­nen News-Ag­gre­ga­to­ren wie Newstral oder Rivva. So ist es möglich, auch andere Blick­win­kel wahr­zu­neh­men und über den eigenen Tel­ler­rand zu blicken –trotz der drohenden Filter-Bubble.

Zum Hauptmenü