Aktuell: Flüchtlinge in Deutschland und Europa | Türkei | US-Wahl | FR-Serie: Fintechs
Möchten Sie zur mobilen Ansicht wechseln?
Ja Nein

Digital
Nachrichten aus dem WWW, Tipps zum Computer-Kauf; zu Facebook, iPhone, iPad & Co

27. November 2015

Facebook und Google: Die Tyrannei des Like

 Von Eva Wolfangel
Google und Facebook haben mit ihren "Gatekeeper-Algorithmen" eine ähnliche Verantwortung wie klassische analoge „Gatekeepers“ – beispielsweise Journalisten. Nur dass in einer Zeitung alle Leser das Gleiche zu sehen bekommen und wissen, dass es eine Auswahl ist.  Foto: imago/Sven Simon

Die Ranking-Algorithmen von Google und Facebook manipulieren Meinungen, laut Studien können sie sogar Wahlen entscheiden. Besonders brisant dabei: Experimente zeigen, dass der Facebook-Algorithmus Posts oft falsch interpretiert.

Drucken per Mail

Kann ein Computerprogramm Menschen so beeinflussen, dass sie ihr Wahlverhalten ändern? Was wie ein Szenario aus einem Sciencefictionfilm klingt, treibt immer mehr Forscher um: Sie warnen vor den Ranking-Verfahren von Google und Facebook, die unterschiedlichen Nutzern verschiedene Ergebnisse anzeigen, und die laut aktueller Studien in der Tat Wahlen manipulieren können. Die Präsidentschaftswahl in den USA im kommenden Jahr könnte die erste Wahl sein, in der das tatsächlich geschieht, so die Befürchtungen.

Rund 30 Prozent der Amerikaner informieren sich nach Aussage der US-Soziologin Zeynep Tufekci via Facebook über aktuelle Nachrichten. Facebook hat selbst in mehreren Studien gezeigt, dass nur winzige Veränderungen in diesem Algorithmus die Meinung der Nutzer zu den geteilten Inhalten anderer verändern.

Auch die Wahlbeteiligung kann der Konzern laut einer eigenen Studie beeinflussen: Während der Kongresswahlen 2010 schickte Facebook 61 Millionen Nutzern eine Nachricht, die sie an die Wahl erinnerte und anzeigte, wie viele ihrer Freunde schon wählen waren. Jene Nutzer gingen signifikant häufiger wählen als die Kontrollgruppe ohne entsprechende Nachricht.

Bei einem knappen Ausgang könne diese Manipulation wahlentscheidend sein, warnt Tufekci: „Facebook kann Wahlen beeinflussen – ohne dass wir das nachweisen können.“ Die Beeinflussung ist schließlich so subtil, dass sie weder für den Einzelnen noch für übergeordnete Stellen wie Gerichte oder Regulierungsbehörden nachvollziehbar ist.

Facebook ist nicht allein: Auch bei der Suchmaschine Google entscheidet eine komplexe Rechenvorschrift im Hintergrund, welcher Nutzer welche Ergebnisse angezeigt bekommt. Studien des US-Psychologen Robert Epstein zeigen, wie eine veränderte Auswahl an Suchergebnissen Wähler eher zugunsten des einen oder des anderen Kandidaten entscheiden ließen.

Entscheidung der Algorithmen nicht nachvollziehbar

Nachdem Epstein das zunächst in einer Laborstudie testete, nutzte er schließlich die Wahlen in Indien 2014 für ein Experiment. Er rekrutierte mehr als 2000 noch unentschlossene Wähler und teilte sie in Gruppen ein: eine Gruppe bekam bei ihrer Internet-Recherche mehr Suchergebnisse über den einen, eine zweite Gruppe mehr über den anderen Kandidaten präsentiert: Die Vorlieben verschoben sich um durchschnittlich 9,5 Prozent jeweils zugunsten des Kandidaten, der in den Suchergebnissen bevorzugt vorkam. Besonders brisant ist vor diesem Hintergrund, dass nur eine kleine Minderheit der Goolge- und Facebook-Nutzer weiß, dass ihre Ergebnisse individuell maschinell sortiert werden. Die meisten halten das schlicht für eine Abbildung der Realität.

Diese komplexen Rechenvorschriften, die Nachrichten und Suchergebnisse in Abhängigkeit vom jeweiligen Leser sortieren, nennt man „Gatekeeper-Algorithmen“, da sie entscheiden, welche Inhalte zum Nutzer durchdringen und welche nicht. Google und Facebook haben damit eine ähnliche Verantwortung wie die klassischen analogen „Gatekeepers“ – beispielsweise Journalisten, die auswählen, welche Nachrichten es in die Zeitung schaffen. Nur dass in einer Zeitung alle Leser das Gleiche zu sehen bekommen und wissen, dass es eine Auswahl ist.

Der Entscheidungsprozess von algorithmischen Gatekeepern hingegen ist für die Nutzer nicht nachvollziehbar – und das macht sie doppelt gefährlich, so Epstein: „Solche unsichtbaren Einflüsse überzeugen nicht nur, sie hinterlassen auch noch das Gefühl, man habe sich eine eigene Meinung gebildet, ohne äußere Beeinflussung.“ Welche Faktoren genau in den Programmcode des Facebook-Algorithmus einfließen und wie sie gewichtet sind, ist ein gut gehütetes Geheimnis des Konzerns. Bekannt ist allerdings der große Einfluss des „Like-Buttons“, mit dem Nutzer Nachrichten mit „Gefällt mir“ markieren können.

Verschiedene Experimente zeigen das: So entschied sich beispielsweise die Designerin Elan Morgan, zwei Wochen lang den Like-Button zu ignorieren – und war begeistert: „Das machte Facebook eindeutig besser!“ Sie habe viel weniger Dinge angezeigt bekommen, die sie nicht sehen wollte. Denn offenbar hatte der Algorithmus manches falsch verstanden: Wenn sie ein Foto süßer Katzenbabys mit „Gefällt mir“ markierte, bekam sie auch Fotos von Katzen, die von Tierquälern misshandelt worden waren.

„Der Algorithmus versteht die vielen politischen, philosophischen und emotionalen Schattierungen eines Themas nicht“, bilanziert Morgan ihr Experiment, das eigentlich nur zwei Wochen dauern sollte. Sie beschloss, das Prinzip auf ihr restliches Leben auszudehnen, so viel besser gefällt ihr Facebook ohne Like: „Es scheint, als ob ich mehr von dem bekomme, was ich mir wirklich wünsche, anstatt einfach mehr und extremere Versionen von dem vorgesetzt zu kriegen, was mir gefällt.“

Wie soll man die Flüchtlingskrise liken?

Bedenklicher ist ein anderes Experiment, mit dem der französische Informatiker Kave Salamatian zeigte, wie sehr der Algorithmus eine Radikalisierung junger Menschen fördert. Der Forscher legte 130 Fake-Accounts bei Facebook an und ließ studentische Mitarbeiter drei Tage lang verschiedene Nachrichten und Informationen auf Facebook mit „Gefällt mir“ markieren. „Wir haben dafür harmlose Themen ausgewählt, die junge Menschen interessieren“, so Salamatian – beispielsweise Tierschutz, aktuelle Kinohits oder auch eine Gruppe namens „I am fat and I hate that“ (Ich bin dick und hasse das).

Nach drei Tagen ließ er die Accounts automatisch allen Empfehlungen des Netzwerks folgen – sie akzeptierten jeden neuen Freund und klickten bei jedem Vorschlag auf „Like“. Sie taten das, von dem der Algorithmus dachte, dass es zu ihren Interessen passt. Nach weiteren drei Tagen hatten zehn der Profile direkten Kontakt zu Profilen des terroristischen IS, erste Recruiter meldeten sich bei den Schützlingen.

Facebook selbst weist ebenso wie Google in solchen Fällen jede Verantwortung von sich. Aufgabe des Algorithmus sei lediglich, jedem Nutzer passende Suchergebnisse in kurzer Zeit zu präsentieren, so die einmütige Antwort. Erst auf Nachfrage und unter Wahrung der Anonymität erfährt man, dass bei den großen US-Unternehmen durchaus eine gewisse Ratlosigkeit herrscht: „Larry Page hat mich gefragt: Wie können wir unseren Ranking-Algorithmus so verändern, dass er bessere ethische Entscheidungen trifft?“, berichtet ein Google-Mitarbeiter: „Der Wille ist da, aber die Lösung fehlt.“

Mehr dazu

Vielleicht hat sich Facebook unter diesen Vorzeichen nun doch gegen den angekündigten Dislike-Button entschieden. Dies sei ein Schritt in die falsche Richtung, hatte Tufekci gewarnt: „Facebook braucht andere Wege, um Wichtigkeit oder Unterstützung zu signalisieren.“ Natürlich müsse der Feed irgendwie sortiert werden. Aber angesichts der „Tyrannei des Like“ gerieten beispielsweise politische Posts schnell in den Hintergrund: Babys und Hochzeiten dominieren den eigenen Feed, die Flüchtlingsthematik findet auf Facebook fast nicht statt: Wie sollte man die auch liken? Ob sich das mit den nun angekündigten Emoticons ändert, muss sich zeigen.

Was sollten Google oder Facebook idealerweise an den Toppositionen zeigen? Welche Faktoren sollten in einen entsprechenden Algorithmus einfließen, damit die Demokratie gestärkt wird? „Darauf gibt es keine einfache, keine richtige Antwort“, sagt Soziologin Tufekci. Informatiker Salamatian betont, dass insbesondere jungen Menschen eine große Vielfalt angezeigt werden sollte – und eben nicht nur die Posts, von denen der Algorithmus glaubt, dass sie deren Ausrichtung gut finden. Also eine Abschwächung des Rankings, dessen Wert ja genau darin besteht, individuell auszuwählen. Doch selbst wenn man davon ausgeht, dass auch die großen US-Unternehmen ihre Verantwortung zumindest nicht bewusst missbrauchen, stimmt die dortige Ratlosigkeit eher misstrauisch. Wer Wahlen manipulieren kann, sollte auch eine Idee davon haben, wie er genau das vermeiden kann.

[ Hat Ihnen der Artikel gefallen? Dann bestellen Sie gleich hier 4 Wochen lang die neue digitale FR für nur 5,90€. ]

Zur Homepage

Anzeige

comments powered by Disqus

Anzeige

Ressort

Nachrichten aus dem WWW und Tipps zum Computer-Kauf; Wissenswertes über
iPhone, iPad und die Android-Alternativen.


Die FR auf Ihrem Smartphone

Unterwegs top informiert - holen Sie sich FR-Online.de aufs Handy. Neben News bekommen Sie Sport-Liveticker, die Verkehrslage, das Kinoprogramm samt Trailer, TV-Tipps und das lokale Wetter. Ganz ohne App: mobil.fr-online.de.

Spiele-Tipps

Anzeige

Spezial

Überwachung durch den Staat, Datenklau, Elena, Swift - Was passiert mit unseren Daten?

FR @ Handy

Ob Büro, Biergarten oder Badesee: Die "Frankfurter Rundschau" ist auf dem Handy immer dabei - mit vielen Sport-Livetickern.