Wissenschaftler haben in einem Experiment soziale Roboter bei Facebook eingeschleust. Die Studie kam zu teils überraschenden Ergebnissen und erlaubt einen Einblick in das System von Cyberattacken.
facebook
© dpaNutzer sozialer Netzwerke wie Facebook kennen sich oft nicht persönlich und wissen gar nicht, mit wem sie kommunizieren.

Saarbrücken. Es gibt einen Cartoon, auf dem ein Hund vor dem Bildschirm hockt und einem Artgenossen erklärt: „Im Internet weiß niemand, dass ich ein Hund bin.“ Virtuelle Kommunikation läuft in der Regel nur über den Bildschirm. Dass sich Nutzer nicht persönlich kennen, ist zum Beispiel in sozialen Netzwerken oft der Fall. Sie haben ihr Gegenüber niemals gesehen oder seine Stimme gehört, wissen also genau genommen nur so ungefähr, mit wem sie sich austauschen. Zwar ist es mit Sicherheit kein des Schreibens mächtiger Vierbeiner, der da am anderen Ende Nachrichten in die Tastatur eintippt. Aber ein Roboter könnte es durchaus sein.

Wissenschaftler der Universität von British Columbia in Kanada schleusten Programme mit kommunikativen Fähigkeiten bei Facebook ein. Diese „sozialen Roboter“ (socialbots) waren mit einem Repertoire an Standardsätzen versehen und imitierten - mehr oder weniger gekonnt - menschliche Gespräche.

Die Forscher schufen ein ganzes Netzwerk von Robotern, die von einem Punkt aus kontrolliert werden können. Alles in allem wurden bei dem achtwöchigen Experiment 102 automatisierte Profile aktiviert. Diese hätten im Stundentakt Tausende von Freundschaftsanfragen abschicken können, allerdings war ein Limit von 25 Anfragen pro Tag einprogrammiert, sonst wäre die Unterwanderung zu auffällig gewesen. Am Ende kamen ansehnliche Zahlen zusammen: 8570 Kontakte wurden aufgebaut und 3055 Freunde aus Fleisch und Blut gewonnen. Waren die Programme erst einmal bei einem Mitglied als Freund akzeptiert, versuchten sie es natürlich auch bei den Freunden des Freundes. So konnten 250 Gigabyte persönlicher Daten gesammelt werden, vor allem Namen und E-Mail-Adressen von Nutzern.

Nach Angaben der Forscher wurden rund 80 Prozent der Plauder-Programme nicht erkannt. Das wäre eigentlich Aufgabe des „Facebook Immune Systems“ gewesen. Dieses Sicherheitssystem überprüft pro Sekunde 650 000 Aktionen im Facebook-Universum auf Spam und Missbrauch - auf den Tag umgerechnet 25 Milliarden Vorgänge. Und doch sollen hauptsächlich von anderen Nutzern gemeldete Roboter aufgeflogen sein - das jedenfalls gaben die Forscher bekannt. Facebook hielt dem entgegen, dass man die IP-Adresse von der Universität als sicher eingestuft habe, sonst hätte es Alarm gegeben. Aktionen dieser Art seien darüber hinaus ethisch bedenklich. Die Wissenschaftler sind da anderer Meinung: Realistische Experimente mit minimalem Risiko seien der einzige Weg, um verlässliche Aussagen über die Durchführbarkeit von Infiltrationen zu machen. Diese Experimente erlaubten einen tiefen Einblick in das System von Cyberattacken. Es werde damit klarer, an welchen Stellen soziale Netzwerke verletzlich sind und wie sie künftig besser verteidigt werden können.

Wenn es sich um wissenschaftliche Experimente handelt, kommt gewöhnlich niemand zu Schaden. Allerdings lassen sich mit netzwerkenden Robotern auch Menschen und Meinungen steuern. Von „social engineering“ ist zum Beispiel die Rede, wenn Angestellte die Produkte ihrer Firma anpreisen. Auch das Streuen übler politischer Propaganda ist so möglich. Solange Menschen vor dem Rechner sitzen, sind diesen Beeinflussungen gewisse Grenzen gesetzt. Stecken allerdings Programme dahinter, ergeben sich gleich viel mehr Möglichkeiten: Netzwerke können von einem einzigen Server aus infiltriert werden. Auch das massenhafte Einsammeln von persönlichen Daten wäre dann im Prinzip kinderleicht.

Immerhin können die Programme auch zu guten Zwecken eingesetzt werden. Das Web Ecology Project in Boston plant ein Experiment mit Robotern. Sie sollen diesmal helfen, demokratische Kräfte in nicht-demokratischen Ländern zusammenzubringen.