Gefahr für die Vielfalt?

Bei Facebook wurde vor einigen Wochen von einem Mitarbeiter anscheinend die Frage gestellt, welche Verantwortung das soziale Netzwerk habe, zu verhindern, dass Trump Präsident der Vereinigten Staaten werde.

Diese Frage illustriert die Bedeutung digitaler Plattformen für die Meinungsbildung. Durch kleine Änderungen an den Algorithmen können Soziale Netzwerke oder Suchmaschinen Nachrichten filtern und gezielt begünstigen. Auf diese Weise lassen sich politische Meinungen verstärken oder schwächen. Nehmen wir einmal Apple. Mit iOS 9 führte der Konzern eine News-App (also ein Nachrichten-Programm) ein, die basierend auf den Nutzerinteressen eine Übersicht aktueller Nachrichten zusammenstellt. Dieser scheinbare Service lässt sich wunderbar missbrauchen. Bei mir scheint es so, als würden Meldungen des Spiegel-Konzerns priorisiert (dabei kann ich auf den Spiegel gern mal verzichten). Bisher habe ich als Nutzer keine Möglichkeit, das Verhalten der News-App zu steuern.

Boris Paal und Moritz Hennemann haben in dem Artikel „Gefahr für die Vielfalt?“ (FAZ vom 25.05.2106, Nr 120, S. 6) auf die Macht der Dienstleister hingewiesen:

Facebooks Dementi beruhigte die Diskussion kaum – woraufhin das Unternehmen seine Leitlinien offenlegte. Die vorgebliche Neutralität schwand damit ins Reich der Illusion. Vielmehr belegen die Leitlinien, dass Facebook eine quasi-redaktionelle Endkontrolle der algorithmisch ermittelten Trend-Nachrichten vornimmt – so etwa bei der in den Leitlinien beispielhaft abgebildeten Meldung über Papst Franziskus’ Stellungnahme zu Trump („Ich sage nur, dieser Mann ist kein Christ, wenn er solche Dinge sagt.“). Die Möglichkeit zur Einflussnahme auf die Meinungsbildung resultiert aus der Konzentration von Daten und Nutzern bei bestimmten Anbietern. Denkt man unwillkürlich an Bevorzugung und Unterdrückung von Meinungen, ist zu bedenken: Technik und Medien sind schon im Ausgangspunkt nicht neutral – richtigerweise können und sollen Medien das mit Blick auf ihre rechtlich abgesicherte Tendenzfreiheit auch gar nicht sein.

Wie weit der Einfluss der Algorithmen reicht, illustrieren die Autoren am Beispiel des Wahlkampfs:

Suchmaschinen und Medienportale offerieren in Anbetracht der Informationsfülle eine populäre und oft hilfreiche Dienstleistung. Dabei gilt: Welche Inhalte und Meinungen – welche Welt – wir im Internet finden und wahrnehmen, bestimmt sich (auch diesseits von gezielten Eingriffen) vor allem anhand von Such- und Auswahlalgorithmen. Der „Herr“ über den Algorithmus ist zu einem guten Teil „Herrscher“ über die Meinungsbildung der Kunden: Wer den jeweiligen Algorithmus konfiguriert, trifft wesentliche Wertungsentscheidungen über die angezeigten Informationen. Das gilt zum Beispiel für die heikle Frage, was für Treffer bei Eingabe des Suchworts „Suizid“ aufgelistet werden. Die Such- und Auswahlalgorithmen orientieren sich vielfach vor allem an der von den Betreibern selbst definierten „Relevanz“. Soweit sich die Relevanz regelmäßig an Mehrheitspräferenzen ausrichtet, bedeutet dies eine sich selbst verstärkende Verzerrung zugunsten von beliebten Inhalten. Auf Wahlkämpfe übertragen folgt hieraus, dass ein entsprechender Algorithmus die zu Beginn des Wahlkampfs bestehende Mehrheitsmeinung begünstigt. Tendenziell positiv könnte sich das etwa für die Befürworter eines Verbleibs Großbritanniens in der EU auswirken: Denn zum Zeitpunkt der Ankündigung der Brexit-Abstimmung im Februar lagen die Befürworter in den Umfragen knapp vorne.

Also: Die Kanalisierung von Informationen durch private Konzerne und staatliche Institutionen gefährdet die Meinungsvielfalt und kann als Steuerungsinstrument missbraucht werden. Es lohnt sich, eigenständig zu denken!

Deine Meinung ist uns wichtig

*