Algorithmen und Filterblasen sind nicht an allem schuld

Das bisschen Facebook

Eine strengere Regulierung von Facebook hilft wenig im Umgang mit rechten Inhalten, Hassbotschaften und »fake news«. Die Ursachen für die gesellschaftlichen Verwerfungen sind nicht Algorithmen und Filterblasen, sie liegen tiefer.
Von

Die Geschichte von »Brexit«, Donald Trump und dem Erstarken rechtsextremer Parteien in Europa ist eine Geschichte von Facebook und Twitter. So jedenfalls lautet eine beliebte Antwort auf die Frage, wie das alles geschehen konnte. Die Rede ist von Filterblasen in sozialen Medien, in denen Menschen nur noch mitbekommen, was ihrer ­eigenen Weltsicht entspricht. Es ist eine Geschichte sinistrer US-Konzerne, die mittels massenhafter Datensammlung und ausgefeilter Instrumente die zur Rechten tendierenden Wähler punktgenau adressieren und damit skrupellos Geschäfte machen. Und es ist eine Geschichte von ominösen russischen Hackern, die im Auftrag ihrer Regierung die öffentliche Meinung in westlichen Ländern manipulieren. Das Problem ist nur: Diese Geschichte stimmt nicht ganz. Sie greift zumindest viel zu kurz.

Wir neigen dazu, uns in »Tribes« zusammenzuschließen. Das hat aber wenig Einfluss darauf, welche Inhalte wir angezeigt bekommen, sondern wie wir diese bewerten.

Ein Beispiel ist die Wahlkampagne Donald Trumps. Diese nutzte zweifellos erfundene Falschmeldungen, um Trump zu promoten und Hillary Clinton schlecht zu machen. Es ist angesichts des knappen Wahlausganges sogar gut möglich, dass diese Beeinflussung den Ausschlag gab. Übersehen wird dabei jedoch die Rolle der Massenmedien. Für sie war Trump mit seinen permanenten Grenzüberschreitungen ein ­Geschenk. Jahrelang hatten sie über Anzeigenschwund und sinkende Leserzahlen geklagt. Donald Trump, der Mann, der ständig den Hund beißt, hat ihnen größere Werbeerlöse, mehr Abonnements und höhere Einschaltquoten beschert – nicht nur Fox News und Breitbart News, sondern eben auch den linksliberalen Medien, die sich seither an Trump abarbeiten.

Das hat auch Alexander Dobrindt bewusst oder unbewusst verstanden, als er während der Sondierungsgespräche zur Großen Koalition eine »konservative Revolution« ausrief. Es ist die bayerische Version von »Make America great again« und zielt direkt auf die weniger urbane, sich »abgehängt« fühlende Bevölkerung. Dobrindts Aufruf ging über die klassischen Massenmedien. Anhänger jener Idee mussten sie nicht weiter verbreiten, das taten schon ihre Gegner, indem sie sich, in Leitartikeln genauso wie in den sozialen Netzwerken, darüber öffentlich aufregten.

Der Vorwurf, der Facebook-Algorithmus erzeuge besonders viel Aufmerksamkeit für fake news und Hassbotschaften, berücksichtigt nicht, dass der relevante Mechanismus in der Natur des Internet liegt. Klicks bekommt, wer die krasseste Botschaft verbreitet, und die Massenmedien konkurrieren – innerhalb wie außerhalb des Netzes – mit diesen »krassen Botschaften«. Ausgewogene Berichterstattung wird für Medien immer schwieriger, wenn sie keine Zeitung mehr verkaufen können, sondern mit jedem einzelnen Artikel im Konkurrenzkampf um einzublendende Online-Werbung stehen, egal ob mit Facebook oder ohne. Dabei können sie inhaltlich nur verlieren: Ignorieren sie bestimmte Inhalte, wird ihnen vorgeworfen, nicht umfassend zu berichten. Berichten sie doch, wird ihnen vorgeworfen, gefährliches Gedankengut zu transportieren. Und wenn sie Falschmeldungen aus den sozialen ­Medien richtigstellen, verbreiten sie damit diese Falschmeldungen zugleich an zahllose Menschen, die sie sonst gar nicht mitbekommen hätten.

Aber auch in den sozialen Medien funktioniert die Verbreitung anders als oft angenommen. Der Internetunternehmer Eli Pariser prägte 2011 den Begriff der »Filter Bubble«. Seiner Theorie zufolge liefern uns Algorithmen und die Wahl unserer Facebook-Freunde genau die Inhalte, die unserer Meinung entsprechen. Parisers alarmistische Fazit lautet: Wir verlieren den Kontakt zur Realität und zu Andersdenkenden, wir verschanzen uns in der Filterblase ­unserer komfortablen Privatwahrheit.

Aber stimmt das überhaupt? Dass wir auf Twitter meist nur denjenigen folgen, deren Meinung wir teilen, und dass Google personalisierte Suchergebnisse ausspuckt, schien die These zunächst zu stützen, bis Forscher wie der Datenjournalist Michael Kreil und der Kulturwissenschaftler Michael Seemann sich die Mühe machten, sie zu überprüfen. Die beiden untersuchten das Auftreten von Filterblasen auf Twitter und wie sich darin fake news verbreiten. Ihr Ergebnis: Wir neigen online wie ­offline dazu, uns in »Tribes« zusammenzuschließen. Das beeinflusst aber weniger, welche Inhalte wir angezeigt bekommen, als vielmehr, wie wir diese be­werten.

Die Entscheidung, einen bestimmten Inhalt auf Twitter weiterzuverbreiten, hängt stark damit zusammen, ob wir damit die Zugehörigkeit zur Gruppe signalisieren können. Ein solcherart passender Inhalt wird als »wahr« angenommen, auch wenn es sich um eine Falschmeldung handelt. Mit Richtigstellungen ist dem nicht beizukommen, denn das Richtigstellen ­genehmer Inhalte wird als Angriff auf die eigene Identität wahrgenommen. Entsprechend heftig sind die Streitereien, wenn Mitglieder verschiedener »Tribes« aneinandergeraten.