Bin ich schlechter Stimmung, wenn meine Freunde es sind? Um das herauszufinden, hat Facebook den Nachrichtenstrom von mehr als 300.000 Nutzern manipuliert - ohne ihr Wissen. Jetzt entlädt sich die Kritik im Netz.
Facebook
Menlo Park. Weil es Nutzerrechte fraglich auslegt, ist das soziale Netzwerk Facebook immer wieder in den Schlagzeilen. Die jüngste Aufregung kommt allerdings mit vierwöchiger Verspätung: Facebook-Nutzer meldeten sich erst in diesen Tagen zu Wort, als es sich herumgesprochen hatte, dass die Plattform mit Sitz im kalifornischen Menlo Park ein psychologisches Experiment gebilligt - und dafür eine Woche lang 310.000 Startseiten von englischsprachigen Nutzern manipuliert hatte. Ohne deren Wissen.

Konkret geht es um den sogenannten Newsfeed, den Nachrichtenstrom, der Nutzern anzeigt, was ihre Freunde gerade tun oder denken. Bereits vor eineinhalb Jahren hatten Facebook-Programmierer den Algorithmus dahingehend verändert, dass bei der Hälfte der manipulierten Nachrichtenströme vor allem positive, bei der anderen Hälfte vor allem negative Posts der Freunde zu sehen waren.

Die Autoren der kürzlich veröffentlichten Studie kamen zu dem Schluss, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen - und umgekehrt. Insgesamt wurden im Januar 2013 für eine Woche die Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version manipuliert - doch nur ein wenig mehr als die Hälfte (die Kontrollgruppe) wusste Bescheid.

Es wurden laut Studie über drei Millionen Einträge von Software ausgewertet, die per Wortanalyse die Emotion zuordnete. Das brachte neben Kritik an der ethischen Seite des Experiments auch Zweifel an der Aussagekraft der Studie: So verwies das Psychologie-Blog „Psych Central“ auf Schwierigkeiten der verwendeten Software, die Stimmung eines Eintrags nur anhand einzelner Wörter zuzuordnen.

Die Studie war bereits am 2. Juni veröffentlicht worden, kam aber erst jetzt mit Medienberichten und Kritik im Internet in die Diskussion. In dem Papier wird darauf hingewiesen, dass die Datenverwendungsregeln von Facebook, denen die Nutzer zustimmen, ein solches Vorgehen zulassen. Die Newsfeeds der Mitglieder werden von Facebook ohnehin nach Algorithmen gefiltert, um sie nicht mit Informationen zu überfluten. Von Facebook gab es bislang keine Reaktion auf die Vorwürfe.

Doch hat sich die Empörung der Nutzer, ein weiteres Mal übergangen worden zu sein, in den vergangenen Tagen im Netz entladen. „Facebook hat den Nachrichtenstrom von Nutzern manipuliert, um deren 'emotionale Ansteckbarkeit' zu analysieren. Nicht cool. Fraglich, ob Nutzer über die eigene Zustimmung Bescheid wussten“, schreibt etwa Matthew Nichols auf Twitter. „Wenn ein Professor sowas machen würde, würde er wahrscheinlich gefeuert“, meint Steve Faulkner.

Manche äußern ihr Unbehagen noch deutlicher: „Angesichts der Dinge rund um Snowden und dem Twitter-Dienst, mit dem die USA Kuba destabilisieren wollten, ist das Facebook Experiment 'Wie sich Ärger überträgt' schreckenerregend.“, schreibt Clay Johnson. „Melden Sie sich von Facebook ab, melden Sie ihre Kinder von Facebook ab. Wenn Sie dort arbeiten, kündigen Sie. Die sind richtig schrecklich“, meint Twitter-Nutzerin Erin Kissane.

dpa