© Gemeinfrei
Symbolbild
Osnabrück (Deutschland) - In einer aktuellen Studie zeigen Osnabrücker Kognitionswissenschaftler, dass menschlich-ethische Entscheidungen in Maschinen implementiert werden können. Auf diese Weise sollen unter anderem autonome Fahrzeuge bald moralische Dilemmata im Straßenverkehr bewältigen.

Wie das Team um Leon Sütfeld und Prof. Dr. Gordon Pipa aktuell im Fachjournal Frontiers in Behavioral Neuroscience (DOI: 10.3389/fnbeh.2017.00122) berichtet, wurden die Untersuchungen der Wissenschaftler sowie die Debatte zur Modellierbarkeit von moralischen Entscheidungen durch eine Initiative des Bundesministeriums für Transport und Digitale Infrastruktur (BMVI) begleitet. Diese hat 20 ethische Prinzipien formuliert, zu denen die neue Studie nun erste empirische wissenschaftliche Daten geliefert hat.

Um Regeln oder Empfehlungen definieren zu können sind zwei Schritte notwendig. Als Erstes muss man menschliche moralische Entscheidungen in kritischen Situationen analysieren und verstehen. Als zweiten Schritt muss man das menschliche Verhalten statistisch beschreiben, um Regeln ableiten zu können, die dann in Maschinen genutzt werden können“, erklärt Prof Pipa.

Um die beiden Schritte zu realisieren, nutzten die Forscher vom Institut für Kognitionswissenschaft eine virtuelle Realität, um das Verhalten von Versuchspersonen in simulierten Verkehrssituationen zu beobachten:
„Die Teilnehmer der Studie fuhren dazu an einem nebeligen Tag durch die (virtuellen) Straßen eines typischen Vorortes. Im Verlauf der Experimente kam es dabei zu unvermeidlichen und unerwarteten Dilemma-Situationen, bei denen Menschen, Tiere oder Objekte als Hindernisse auf den Fahrspuren standen. Um den Hindernissen auf einer der beiden Spuren ausweichen zu können, war deshalb eine moralische Abwägung notwendig. Die beobachteten Entscheidungen wurden dann durch eine statistische Analyse ausgewertet und in Regeln übersetzt. Die Ergebnisse weisen darauf hin, dass im Rahmen dieser unvermeidbaren Unfälle moralisches Verhalten durch eine einfache Wertigkeit des Lebens erklärt werden kann, für jeden Menschen, jedes Tier und jedes Objekt.“
Für die Forscher um Sütfeld lässt sich das menschliche moralische Verhalten demnach durch „den Vergleich von einer Wertigkeit des Lebens, das mit jedem Menschen, jedem Tier oder jedem Objekt assoziiert ist, erklären bzw. mit beachtlicher Präzision vorhersagen.“ Dies zeige, so der Forscher weiter, „dass menschliche moralische Entscheidungen prinzipiell mit Regeln beschrieben werden können und dass diese Regeln als Konsequenz auch von Maschinen genutzt werden könnten.“

Damit stehen die neuen Erkenntnisse im Widerspruch zu dem achten Prinzip des BMVI-Berichtes, das auf der Annahme gründet, dass moralische Entscheidungen nicht modellierbar seien.

Die Antwort auf die Frage, wie dieser grundlegende Unterschied erklärt werden kann, sehen die Autoren der Studie in Algorithmen, die entweder durch Regeln beschrieben werden können oder durch statistische Modelle, die mehrere Faktoren miteinander in Bezug setzen können: „Gesetze, zum Beispiel, sind regelbasiert. Menschliches Verhalten und moderne künstliche intelligente Systeme nutzen dazu im Gegensatz eher komplexes statistisches Abwägen. Dieses Abwägen erlaubt es beiden - dem Menschen und den modernen künstlichen Intelligenzen - auch neue Situationen bewerten zu können, denen diese bisher nicht ausgesetzt waren.“

Die Studie nutzt nun genau diese, dem menschlichen Verhalten ähnliche Methodik zur Beschreibung der gwonnenen Daten: „Deshalb müssen die Regeln nicht abstrakt am Schreibtisch durch einen Menschen formuliert, sondern aus dem menschlichen Verhalten abgeleitet und gelernt werden. So stellt sich die Frage, ob man diese nun gelernten und konzeptualisierten Regeln nicht auch als moralischen Aspekt in Maschinen nutzen sollte“, so Sütfeld.

„Da wir jetzt wissen, wie wir moralische Entscheidungen in die Maschinen implementieren können, bleiben uns trotzdem noch zwei moralische Dilemmata“, gibt Prof. Dr. Peter König, ein weiterer Autor der Studie zu bedenken und führt dazu abschließend weiter aus: „Erstens müssen wir uns über den Einfluss von moralischen Werten auf die Richtlinien für maschinelles Verhalten entscheiden. Zweitens müssen wir uns überlegen, ob wir es wollen, dass Maschinen sich (nur) menschlich verhalten sollen.“