re:publica: Facebooks Algorithmen führen in feudale Überwachungswelt

Forscher vom Share Lab haben rund 7000 Verhaltensmuster rund um Likes und Kommentare ausgemacht, mit denen Facebooks Algorithmus angefüttert werde. Sie sprechen sich dafür aus, die Schnittstellen für alle zu öffnen.

In Pocket speichern vorlesen Druckansicht 35 Kommentare lesen
Facebook

(Bild: dpa, Tobias Hase)

Lesezeit: 4 Min.

Vladan Joler und sein Team vom Share Lab haben rund anderthalb Jahre lang beobachtet, wie Facebook Daten sammelt. Dabei hätten sie gut 7000 Verhaltensmuster ausgemacht, mit denen der Betreiber des sozialen Netzwerks die Nutzer verfolge, erklärte der Professor für Neue Medien an der Universität Novi Sad am Montag auf der re:publica in Berlin. Diese Puzzleteile bildeten die Kernbausteine für das geheime "algorithmische Imperium" Facebooks. Die Wissenschaftler seien dabei wie moderne Kartografen vorgegangen und hätten versucht, die wichtigsten Bestandteile zusammenzusetzen und in Übersichten zu visualisieren.

Die Muster sollen Joler zufolge letztlich schier alle Aktionen umfassen, die Nutzer in dem sozialen Netzwerk ausführen. Am bekanntesten und häufigsten verwendet seien die Buttons zum Liken und Teilen von Inhalten sowie die Kommentarfunktion. Herausgearbeitet würden parallel möglichst die gesamten täglichen Routinen von Mitgliedern. Facebook verfolge etwa, wann jemand aufstehe und sich einlogge, wann die Mittagspause erfolge oder die Kinder von der Schule abgeholt würden bis hin zu Freizeitaktivitäten oder Schlafpausen.

Die Maschine werde so ständig von den Nutzern selbst gefüttert, der Algorithmus könne deswegen ständig verfeinert werden, führte Joler aus. Mit jeder Sekunde, in der sich jemand auf Facebook betätige, arbeite er für das Unternehmen und reichere dessen Datenschatz an. 20 Minuten pro Tag seien genug, um eine neue "feudale Beziehung" zwischen dem Netzwerk und seinen Nutzern am Leben zu erhalten, ergänzte Share-Lab-Mitglied Julia Powles, die derzeit an der Universität Cornell Tech in den USA forscht. Das große Problem dabei sei, dass "wir mit unseren Freunden auf einer Plattform des massiven Überwachungskapitalismus kommunizieren" und die vorgegebenen Regeln akzeptierten.

"Wir geben unsere öffentliche Sphäre einer privaten Partei", gab Powles im Anschluss an den Vortrag gegenüber heise online zu bedenken. "Wir sollten uns von der Vorstellung verabschieden, dass Facebook ein neutraler Vermittler ist." Es handle sich vielmehr um einen klassischen "Medienakteur", der sich auf allen Seiten öffnen müsse. Die Wissenschaftler plädierte dafür, dass Nutzer und andere Medienbetriebe etwa ihre eigenen Algorithmen auf der Plattform einsetzen können sollten und die Programmierschnittstellen (APIs) etwa für eigene News Feeds geöffnet werden sollten. Schon zuvor hatte es Stimmen gegeben, die Facebook aufforderten, die eigenen Mauern einzureißen. Sonst müssten die Wettbewerbshüter auf den Plan treten.

In seiner jetzigen Struktur sei Facebook "eine gigantische Shopping Mall" und die "größte Marketingagentur weltweit", konstatierte Joler. Die Kalifornier kontrollierten den Markt und definierten die Regeln, da sie die größte Menge an Verhaltensdaten hätten. Viele entscheidende Dinge spielten sich dabei hinter den sichtbaren Aktionen auf dem Bildschirm ab. So könnten über den Algorithmus etwa Leute diskriminiert werden, es drohten Menschenrechtsverletzungen und neue Ausbeutungsformen durch den Missbrauch der angehäuften Messwerte und der daraus zu ziehenden Erkenntnisse. "Völlig verrückt" sei es daher, Facebook zu einer Art Richter über Falschnachrichten ("Fake News") machen zu wollen. Dies gebe den Kaliforniern noch die Chance darüber zu entscheiden, "was wahr und falsch ist".

"Es geht um Macht", ergänzte Ben Wagner von der Stiftung Wissenschaft und Politik. "Wir können nicht sagen: die werden das nie machen." Dies sei eine große Herausforderung für Medienfreiheit. Powles kritisierte in diesem Zusammenhang, dass neben den Daten freizügig liefernden Nutzern auch viele klassische Medienhäuser Teil des Problems seien. So ließen sie sich etwa mit dem Programm "Instant Articles" die "volle Kontrolle" über ihre journalistischen Beiträge nehmen im Gegenzug dafür, dass diese etwas schneller auf der Plattform geladen und prominenter dargestellt würden. Die New York Times oder der Guardian hätten diese Gefahr erkannt und seien inzwischen ausgestiegen. (axk)