Zurück zur Übersicht
Filterblasen sind gefährlich, wenn man es zulässt
Frau mit Handy am Computer in Filterblase

Algorithmen entscheiden, welche Inhalte wir auf Facebook oder Google sehen. Gleichzeitig schaffen wir uns eine eigene Meinungsblase. Das eigene Weltbild in Frage zu stellen, ist aber wichtig.

Das Internet birgt einen großen Schatz. Theoretisch können wir uns mit Menschen auf der ganzen Welt verbinden und deren Meinungen hören. Im Alltag bleibt dieser Schatz aber meist verborgen. Die Stimmen, die unser Weltbild in Frage stellen könnten, sind da. Doch immer mehr von uns sehen sie nicht oder nur noch selten – wir sind in einer Blase gefangen.

Algorithmen sind an die Seite von traditionellen Gatekeepern, einflussreichen Journalisten und Medienhäusern, gerückt. Sie bestimmen, was wir in unserem Facebook-Feed sehen oder welche Ergebnisse bei einer Google-Suche angezeigt werden. Dabei spielen bei Google zum Beispiel der Wohnort, die Sprache und bisherige Suchen eine Rolle. Auch bei Facebook beeinflussen persönliche Interessen den Newsfeed – der Algorithmus lernt daraus, wenn wir auf den „Gefällt mir“-Button klicken oder einen Eintrag verbergen.

 

Algorithmen verzerren unsere Wahrnehmung

Das führt dazu, dass wir immer mehr von dem sehen, was unser Weltbild bestätigt – und dass weniger andere Meinungen in unser Informationsuniversum dringen. Der US-Amerikaner Eli Pariser hat den Begriff der „Filter Bubble“ geprägt. In einem TED-Talk von 2011 macht er in weniger als zehn Minuten deutlich, warum die Filterblase uns alle betrifft.

Er erzählt von einer folgenschweren Beobachtung in seinem eigenen Facebook-Feed: Der Algorithmus habe die Beiträge seiner konservativen Freunde aussortiert, weil er auf deren Links seltener geklickt habe. Und die Google-Suche nach dem gleichen Begriff habe bei zwei Freunden komplett unterschiedliche Ergebnisse ausgespuckt. „Das Internet zeigt uns, was es denkt, was wir sehen wollen“, sagt Pariser.

Das Problem dabei ist, dass wir nicht selbst entscheiden, welche Stimmen in unser Informationsuniversum dringen. Und vor allem, dass wir nicht wissen, welche Informationen draußen bleiben.

 

Filterblasen führen uns in Parallelwelten

SZ-Journalist Simon Hurtz hat sich in einem Selbstversuch in die rechte Filterblase auf Facebook begeben. In seinem Artikel von Juli 2017 beschreibt er, er habe mit dem Fake-Profil anfangs die AfD gelikt. Alle anderen Seiten schlug der Algorithmus vor. Die Beiträge, die daraufhin in der Timeline erschienen, könne man auf drei Narrative reduzieren: „Die Politiker führen uns hinters Licht, die Medien belügen uns, die Flüchtlinge nehmen uns zuerst die Arbeitsplätze und dann das ganze Land weg.“

In einem anderen Artikel betont Hurtz aber auch, dass wir der Filterblase nicht ausgeliefert sind. Man muss auf Facebook nicht den Seiten folgen, die der Algorithmus vorschlägt. Und man muss sich bei der Suche nach Informationen nicht auf Facebook oder Google verlassen. Die Filterblase kann also sehr gefährlich sein und uns in eine Parallelwelt führen – aber nur, wenn wir das zulassen.

 

Algorithmen schaffen die Filterblase – Menschen die Meinungsblase

Der Begriff der Filterblase bezieht sich allein auf das Filtern durch Algorithmen. Oft wird er aber auch weit reichender verwendet, um zu verdeutlichen, dass wir im Internet meist sehr einseitig Meinungen konsumieren. Dieses Phänomen möchte ich mit dem Begriff „Meinungsblase“ von der Filterblase abgrenzen.

Anders als bei der Filterblase, die wir selbst nicht beeinflussen können, zementieren wir unsere eigenen Meinungsblasen im Internet. Wir sind überwiegend mit Menschen befreundet, die unser Weltbild teilen. Wir folgen der Partei, der wir nahe stehen und den Nachrichtenseiten, die wir gerne lesen. Das Jugendformat FUNK zeigt hier beispielhaft News-Feeds aus vier politischen Richtungen. Dazu haben die Journalisten Medien, Parteien und politische Persönlichkeiten ausgewählt, die als politisch links bzw. rechts gelten. Hier wird deutlich, dass man sich selbst verschiedene Facebook-Weltbilder schaffen kann, je nachdem, welchen Seiten man folgt.

 

Die Gefahr von Filterblasen kann gebannt werden

Auf der anderen Seite gibt es Möglichkeiten, sowohl die Filter- als auch die Meinungsblase bewusst ein Stück weit aufzubrechen. Mit bestimmten Browser-Erweiterungen lässt sich die Personalisierung verhindern und wer bewusst Seiten mit abweichenden politischen Einstellungen folgt, wird deren Beiträge mit höherer Wahrscheinlichkeit in seinem News-Feed sehen.

Während meiner journalistischen Arbeit habe ich immer wieder schätzen gelernt, sich mit Meinungen zu beschäftigen, die nicht ins eigene Weltbild passen. So stößt man auf neue Argumente oder kann den eigenen Standpunkt in Abgrenzung dazu festigen. Das ist auch unser Grundverständnis bei The Buzzard, wo wir Menschen schnellen Zugang zu Positionen geben wollen, die nicht jedem in ihr Weltbild passen, aber wichtig sind, um ein differenziertes Bild der Wirklichkeit zu bekommen.

Melden Sie sich gerne kostenlos an oder lesen Sie hier im zweiten Teil dieser Beitragsreihe, welche Möglichkeiten es gibt, sich vor der verzerrenden Wirkung von Filter- und Meinungsblasen zu schützen.

Wer steckt dahinter?

Katharina Mau
Kommt aus:München
Politische Position:interessiert sich für nachhaltigeres Wirtschaften und den ökologischen Fußabdruck
Arbeitet für/als:Freie Journalistin
Was Sie noch wissen sollten:Katharina dachte lange, sie sei zu introvertiert, um Journalistin zu werden. Inzwischen lernt sie an der Deutschen Journalistenschule und schreibt unter anderem für Jetzt.de, die dpa und Orange, das Jugendformat des Handelsblatts. Sie verzichtet auf Plastiktüten und kauft Bio-Käse, isst aber manchmal Avocados aus Chile.
Lies The Buzzard ab sofort in deinem E-Mail Postfach. Nein danke

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.