Filterblasen, Framing, Fake News
Fake news letters lying colorful keys on green wooden background
Getty Images/iStockphoto/clu
"Ihr müsst nicht auf den Algorithmus hören"
Nie waren – dank Internet – mehr Informationen für alle verfügbar als heutzutage. Doch nie war es schwieriger, glaubwürdige Nachrichten von gefälschten zu unterscheiden. Was kann man denn da machen? Ein Gespräch mit Felix Friedrich, der mit Kollegen TheBuzzard.org gegründet hat, eine Plattform, die kontroverse und vertrauenswürdige Kommentare zu aktuellen Streitthemen aus dem Internet zusammenstellt.
08.01.2018

Herr Friedrich, haben hauptsächlich diejenigen ein Problem mit dem digitalen Dschungel, die nicht mit dem Internet aufgewachsen sind?

Felix Friedrich: Nein, den digitalen Dschungel spüren alle: sowohl die netzerfahrenen „digitalen Nomaden“ als auch Menschen, die noch in der analogen Welt aufgewachsen sind.

Die Gefahr ist groß, dass man sich nur noch in digitalen Blasen bewegt, also nur noch gefilterte Berichte der immer gleichen Argumentationsrichtung liest. Aber mal ehrlich: Das tut doch keiner freiwillig!

Genau. Verantwortlich ist zu großen Teilen das Internet, obwohl mehr Wissen denn je abrufbar ist. Immer mehr Menschen informieren sich über Facebook und sehen in ihren Newsstreams oft nur noch die Beiträge, die ihre Meinung bestätigen und bekommen so ein verzerrtes Stimmungsbild der Gesellschaft vermittelt. Denn der Inhalt, der mir angezeigt wird, hängt davon ab, was ich selbst gelikt habe: „Gefällt mir“. Wenn Freunde ähnliche Beiträge teilen, werden die mir bevorzugt angezeigt. Nun ist es aber so, dass Freunde oft eine ähnliche Gesinnung haben. Das ist der Effekt der sogenannten Echokammer: Man hat mit der Zeit den Eindruck, dass die Realität so aussieht wie der eigene Newsstream, und man verliert die Akzeptanz für andere Positionen. Das Phänomen ist ja nicht neu. Menschen neigen seit jeher dazu, sich in begrenzten Meinungszirkeln zu bewegen. Früher waren das vor allem die Stammtische oder Akademikerkreise.

Da wusste man jedenfalls, wer welche Meinung äußert.

Ja, das Perfide ist, dass die Menschen im digitalen Raum nicht mitbekommen, wer darüber entscheidet, welche Informationen vermittelt werden. Während man im Analogen noch in der Lage war zu entscheiden, mit wem man sich trifft, ob das zum Beispiel eine Arbeiterkneipe ist, in der kein Jurist am Tisch sitzt. Aber im Internet machen das Algorithmen. Dadurch wird es immer komplexer, und man verliert aus dem Blick, dass man eigentlich subtil beeinflusst wird.

PR

Felix Friedrich

Felix Friedrich ist Journalist und Politikwissenschaftler und Mitbegründer der Onlineplattform "The Buzzard" (thebuzzard.org), die den Nutzern fundierte Beiträge zu aktuellen Diskussionen aus dem Netz filtert.

Bei der Suche nach Vielfalt ist Facebook verführerisch. Man denkt, man likt zehn verschiedene Medienunternehmen und hat dann einen Überblick. Ist das so?

Man kann sich Facebook schon so einrichten, dass es einen besseren Überblick verschafft. Aber die meisten tun das nicht. Dieses Problem kritisieren wir sehr: Journalismus ist dazu da, das Wichtige vom Unwichtigen zu trennen. Das wird aber immer weniger wahrgenommen. Wir wünschen uns, dass die Menschen die spannenden Reportagen und Enthüllungsgeschichten schnell finden können und einfach selbst entscheiden können, dass sie nicht nur von einem einzigen Medium informiert werden und nicht auf ihren Facebook-Algorithmus hören müssen.

Ist der Facebook-Algorithmus mit dem von Google zu vergleichen? Auch da wurde die Suche so umgestellt, dass durch Cookies und die Spuren der Nutzer im Internet vermeintlich relevantere Beiträge nach vorne gestellt werden.

Das ist auf jeden Fall vergleichbar. Es hat ja auch Vorteile. Dahinter steht die Idee, dass man mit höherer Wahrscheinlichkeit das findet, was man sucht. Das ist gerade bei doppeldeutigen Begriffen eine Hilfe. Zum Beispiel bei dem Wort „Bank“. Wenn ich als Banker auf die Suche gehe, bin ich in der Regel nicht an grünen Gartenbänken interessiert. Aber die große Gefahr ist auch, dass man dadurch fremdgesteuert wird durch Maschinen, die versuchen vorauszusagen, was man in Zukunft suchen möchte und die keinen Freiraum mehr lassen für Kreativität oder Änderungen auch in der eigenen Einstellung.

Können Sie erklären, wie ein Google-Algorithmus arbeitet?

Da muss ich passen. Jeder versucht ihn zu verstehen, aber das sind so komplexe Prozesse, dass sie von außen nicht mehr nachvollziehbar sind. Wenn man wüsste, was zu den Analysetools an Mechaniken dazukommt, wäre man der beste Berater für die Social-Media-Nutzung. Dazu gibt es unzählige Blogs. Der Facebook-Algorithmus ändert sich auch ständig. Verlage und Einzelpersonen, die ihre Beiträge daraufhin optimieren, verlieren durch diese Änderungen immer wieder an Reichweite. Das nervt alle.

Fake News, gefälschte Nachrichten, sind ein großes Problem. Was kann man dagegen tun?

Die einfachste Antwort ist: Journalisten müssen das tun, was schon immer ihr Job ist: Fakten checken. Dafür müssen sie Zeit haben. Vom Druck, immer Erster zu sein, sollten vertrauenswürdige Medienunternehmen ablassen - und das nach außen kommunizieren: Wir sind langsamer, dafür stimmen unsere Inhalte. Vertrauen und Glaubwürdigkeit sind die wichtigste Währung. Fake News sind so erfolgreich, weil immer mehr Menschen etablierten Medien nicht mehr vertrauen und auf andere Quellen zurückgreifen. Das haben sich die Unternehmen selbst zuzuschreiben: durch Clickbaiting, also reißerische Schlagzeilen, durch trendgetriebenen Journalismus und politische Einfärbung. Das trifft nicht nur die „Bild“. Auch die „FAZ“, die „Taz“ und die „Süddeutsche“ haben politische Leitlinien. Unsere Plattform TheBuzzard versucht diese Vogelperspektive zurückzugewinnen, indem wir zu aktuellen Streitthemen vertrauenswürdige, konträre Kommentare aus dem Netz filtern.

Wie machen Sie das?

Wir durchsuchen die gesamten Nachrichtenseiten, Blogs und relevante Seiten von Thinktanks als auch von Aktivisten und Wissenschaftlern abseits der Mainstreammedien im Netz und ordnen sie nach verschiedenen politischen Debatten und Themen. Auf unserer Seite fassen wir im Vorgang das Kernargument zusammen. Alle Seiten sammeln wir in einer Datenbank, die wir ständig aktualisieren. Täglich kontrollieren wir, welche neuen Artikel reinkommen und kategorisieren sie nach verschiedenen Stufen: Sind das Meinungsbeiträge – nur die sind für uns relevant. Welche Themenschwerpunkte haben sie? Und: Welche Stimmungslage hat der Text? Beispiel: Der Artikel ist ein Meinungsbeitrag zum Ende der Jamaikaverhandlungen, und er bewertet das positiv. Im Moment machen wir das noch manuell. Aber wir sind dabei, eine Maschine zu entwickeln, die davon viele Schritte übernimmt.

Wir glauben nicht, dass Fake News das Kernproblem unserer Zeit sind

Bestimmt sie den gesamten Auswahlprozess?

Nicht ganz. Da schauen auch ausgebildete Redakteure drauf und geben entscheidende Bewertungen ab. Aber die Maschine beschleunigt ihn erheblich. Neuartige Technologien leisten bereits Erstaunliches. Es gibt schon die Werkzeuge und wissenschaftlichen Methoden, mithilfe derer wir anhand der Sprache Meinungsbeiträge und Berichte unterscheiden und Themen rauslesen, und wir erahnen, wie wir politische Positionen herausfiltern können. Wir können schon aus Twitterposts herauslesen, ob der Schreiber gut oder schlecht drauf ist. Das alles versuchen wir gegenwärtig diesem Computer beizubringen, so dass er politische Pro- und Kontra-Meinungen in Bezug auf spezifische Themen zuordnen kann. Das ist extrem schwierig, es wurde weltweit noch nie gemacht.

Google fördert das Projekt mit 50 000 Euro.

Wir sind im Rahmen der Google Digital News Initiative ausgezeichnet worden. Auch der „Tagesspiegel“, die „Deutsche Welle“, die „Wirtschaftswoche“ und andere haben Förderungen erhalten, um nachhaltige Lösungen für das News-Ökosystem in Europa zu entwickeln. Unser System würde nicht nur unserem Unternehmen nutzen. Es könnte zu einem wichtigen Recherchetool auch für Redaktionen und Politikbüros, Bibliotheken und Schulen werden.

Wie wappnen Sie sich gegen Fake News?

Zunächst: Wir glauben nicht, dass Fake News das Kernproblem unserer Zeit sind, sondern das Framing: die Isolierungen und Stigmatisierung von Meinungen und Gruppen. Das geht dann so: Alle, die drüber nachgedacht haben, Trump zu wählen, sind angeblich Idioten; alle, die darüber nachgedacht haben, für den Brexit zu stimmen, ebenfalls; jeder Rechtspopulist ist ein „Idiot“. Ich teile nicht die Positionen von Trump-Anhängern, Brexit-Befürwortern oder Rechtspopulisten. Aber dass man sie ausgeschlossen hat, hat letztlich nicht das Problem gelöst, sondern sie erst stark gemacht. Diese Stigmatisierung ist ein Nährboden für Fake News. Deshalb konzentrieren wir uns zuallererst auf die Lösung dieses Problems. Die Chancen stehen gut, dass Fake News durch unseren Ansatz ebenfalls bekämpft werden können. Denn wenn man einfach auf viele Quellen mit verschiedenen Positionen zu einem Thema zugreifen kann, dann wird es leichter, bestimmte Sachverhalte zu verifizieren oder zu falsifizieren. Wir selbst überprüfen genau, wer der Autor ist und ob seine Argumente im Text gut belegt sind.

Wer sendet diese Fake News überhaupt aus?

Viele Forscher beschäftigen sich mit dieser Frage. In einem Vortrag auf der Digital Content Expo in Berlin hat Vasily Gatov gesagt, dass interessanterweise von den Millionen an Fake News, die produziert werden, nur ganz wenige bis an die Oberfläche durchdringen. Es sind nicht nur Organisationen, sondern auch Privatpersonen, die versuchen, einen großen Coup zu landen. Ein gutes Beispiel für eine bekannte Fake-News-Story ist der Fall von einem angeblich ermordeten FBI-Agenten im Denverguardian von Disinfomedia. Sie wurde auf Facebook eine halbe Million Mal geteilt. Der Erfinder der Story Jestin Coler hat dazu ein Interview gegeben. Mittlerweile behauptet er, dass er aufhört und zu den Guten gehören will. Erschreckenderweise spezialisieren sich Leute darauf, für 50 000 Euro eine Fake-News-Kampagne zu machen. Vor ein paar Jahren hätte man das für absurd gehalten.

Die italienische Regierung hat Unterricht zum Umgang mit Fake News eingeführt. Leitlinie ist eine Liste mit zehn Geboten, zum Beispiel „Teile nie ungeprüfte Quellen“ oder „Nutze deine Macht sorgsam“. Kann jeder sich doch besser dafür wappnen, was einem im Internet entgegenströmt?

Ja, kann man und sollte man. Ich finde jedes dieser zehn Gebote extrem wichtig. Die italienischen Regierungsvertreter sind da auf dem richtigen Weg. Jeder sollte Quellenkunde und Medienkompetenz von klein auf lernen. Überall wo man sich bewegt, wird getrackt, also die Spuren der Bewegungen im Netz aufgezeichnet. Egal wo man hinklickt, immer verdient jemand daran. Das Problem ist nur: Es ist unglaublich schwierig. Ich nehme mal das Gebot „Typen von gefälschten Nachrichten erkennen“. Dass es künftig Aufgabe von jedem Einzelnen sein soll, echte und Fake News zu unterscheiden, erscheint mir ein zu hoher Anspruch. Alleine und ohne Hilfsmittel schafft man es einfach nicht, das ist sehr aufwendig. Wenn das gesamte Ökosystem Journalismus hochwertiger und transparenter gestaltet, besser ausbalanciert und in der Bildung Medienkompetenz vermittelt wird, dann ist die Gesellschaft gegen Fake News schon ganz gut gerüstet.

Neuen Kommentar hinzufügen

Der Inhalt dieses Feldes wird nicht öffentlich zugänglich angezeigt.

Plain text

  • Keine HTML-Tags erlaubt.
  • Zeilenumbrüche und Absätze werden automatisch erzeugt.
Wählen Sie bitte aus den Symbolen die/den/das Auto aus.
Mit dieser Aufforderung versuchen wir sicherzustellen, dass kein Computer dieses Formular abschickt.