Wenn Maschinen über Menschenleben entscheiden Das Autonomie-Dilemma

Daimler Autonomes Fahren Foto: Daimler

Unsere Autos werden mit zunehmender Autonomie über Leben und Tod von Menschen entscheiden müssen. Doch nach welchen Regeln? Die Diskussion dazu hat gerade erst begonnen.

Das autonome Auto der Zukunft tötet nicht im Affekt, sondern planvoll. Während der Mensch in den Sekunden vor dem Aufprall kaum eine Chance zum bewussten Reagieren hat, kann das Roboterauto in dieser Zeit Millionen Berechnungen durchführen – und aus mehreren Handlungsoptionen wählen. Rast es lieber vor die Wand und tötet seine Insassen oder nimmt es den Weg in die Menschenmenge? Kollidiert es mit dem dicken SUV oder dem für ihn ungefährlicheren Kleinwagen? Rammt es eher den Radfahrer mit oder den ohne Helm aus dem Sattel? Um das zu entscheiden, braucht die Maschine eine Art moralischen Kodex. Und die muss der Mensch ihm einprogrammieren.

Die Ethik von Roboterautos beschäftigt daher zunehmend die Automobilindustrie: Wie soll das vollautomatisiert fahrende Auto der Zukunft in derartigen Dilemma-Situationen entscheiden? Wenn trotz mehrerer Handlungsalternativen immer Menschenleben oder zumindest Sachwerte auf dem Spiel stehen? Auch Daimler-Chef Dieter Zetsche forderte erst kürzlich eine ethische Debatte über Roboterautos und die branchenübergreifende Suche nach einem geeigneten Entscheidungs-Algorithmus.

Bis jetzt gibt es diesen Algorithmus nicht, allerdings auch keine komplett autonom fahrende Serienautos. Doch die Technik schreitet mit Riesenschritten voran. Bereits heute können Pkw ohne menschlichen Eingriff Bremsmanöver durchführen, die Fahrtrichtung ändern oder im Stau mitschwimmen. Bis zum Ende des Jahrzehnts soll der Computer dem menschlichen Fahrer einen immer größeren Teil seiner Aufgaben abnehmen. Selbst die ersten vollautomatisierten Fahrzeuge dürften in absehbarer Zeit auf der Straße sein.

Dem Fahrer fehlt das Lenkrad zum Eingreifen

Daimler etwa hat kürzlich auf der Technikmesse CES in Las Vegas mit der Studie F 015 wie eine künftige selbstfahrende S-Klasse auftreten würde – als Lounge auf Rädern, in denen sich der Fahrer entspannt zurücklehnt und dem Computer dem Großteil der Fahrtzeit das Steuer überlässt. Noch autonomer agiert das Robotermobil des Internetgiganten Google: Es hat weder Lenkrad noch Pedalerie – ein korrigierender menschlicher Eingriff ist dort gar nicht mehr vorgesehen. Und nach Meinung vieler Befürworter auch gar nicht nötig: Das Auto reagiere schneller und angemessener als der Mensch, zu Unfällen würden es gar nicht mehr kommen. Erst recht nicht zu Situationen, bei denen das Auto über Leben und Tod entscheiden müsste.

Auch Anders Eugensson, Director Government Affairs bei Volvo, ist optimistisch: "Wir glauben, dass autonome Fahrzeuge vorsichtiger und höflicher sein werden als menschliche Fahrer und so ernsthafte Dilemma-Situationen vermeiden." Die Schweden setzen traditionell auf Sicherheit und wollen dies auch beim autonomen Fahren beibehalten. Ganz so einfach ist die Sache für Eberhard Zeeb, Leiter der Abteilung Fahrautomatisierung bei Daimler, allerdings nicht: "Wir werden autonomes Fahren zunächst auf der Autobahn ermöglichen, wo durch eine vorausschauende Fahrweise kritische Entscheidungen nahezu vermieden werden können. In komplexeren Verkehrssituationen sind mittelfristig aber Situationen denkbar, in denen das nicht mehr ausreicht." Heißt: Dann könnte das Auto gezwungen sein, zwischen mehreren Handlungen mit unerwünschten Folgen abzuwägen.

Entscheidungsfindung durch Regelkatalog

Dass es solche Situationen in einem vollautomatisierten Straßenverkehr geben würde, ist für Professor Oliver Bendel klar. Der Philosoph und Wirtschaftsinformatiker beschäftigt sich seit Jahren mit der relativ neuen Disziplin der Maschinenethik. Für die Entscheidungsfindung autonomer Autos schlägt er einen eindeutigen Regelkatalog vor, kombiniert mit einer Folgeeinschätzung durch das Fahrzeug selbst. Letztlich hätte aber auch solch ein "Moralkodex" seine Grenzen – vor allem, wenn es um die Entscheidung gehen sollte, welcher von mehreren unbeteiligten Passanten überfahren werden soll. Bendel rät generell davon ab, Maschinen in solch komplexe Situationen zu verwickeln. "Sie sollten nicht entscheiden, ob zwei Menschen weniger wert sind als vier oder jüngere Menschen mehr wert sind als ältere." In solchen Fällen müsse der Mensch eingreifen, auch wenn das im Einzelfall in einer Katastrophe ende.

Eine Entscheidung über Leben und Tod in die Maschine auszulagern, hätte aber laut Bendel noch drastischere Folgen. "Ich denke, dass vielen Menschen sehr unwohl dabei sein wird, wenn ihr Partner oder Kind durch eine Maschine – und zwar absichtsvoll – getötet wird. Die Menschen werden auf die Barrikaden gehen." Selbst dann, wenn die Maschine eindrucksvoll darlegen könne, dass sie alle Alternativen abgewogen habe und zum bestmöglichen Ergebnis gekommen sei. "Viele werden das nicht wollen, selbst wenn der Computer richtig entschieden hat. Andere werden das autonome Auto aber aus politischen, ökonomischen, wissenschaftlichen Gründen durchsetzen wollen. Es wird die Maschinenstürmer geben und die Gegner der Maschinenstürmer. Und hier sehe ich erhebliches Konfliktpotenzial." Der Maschinenethiker plädiert daher dafür, den automatisierten Verkehr auf bestimmte Bereiche und Zeiten zu beschränken, um Konflikte möglichst zu vermeiden. So werde man die Zahl der Verkehrstoten gegenüber heute immerhin halbieren können. "Das hört sich vielleicht zynisch an, aber diese Lösung wäre mir lieber, als die Verkehrstoten ganz abzuschaffen."

Verantwortung liegt beim Autohersteller

Die Vision der Autoindustrie ist aber eine andere. Aktuell zumindest sieht sie den autonomen Verkehr als potenziell universell. An einer Art "Moral" für Autos führt daher kein Weg vorbei. Daimler-Mann Zeeb spricht sich bei der Aufstellung der Verhaltensregeln für einen breiten gesellschaftlichen Konsens aus. Bei Volvo hingegen sieht man in erster Linie den Autohersteller in der Pflicht, da die Verantwortlichkeit für das Produkt bei ihm liegt. Auch Maschinenethiker Bendel glaubt, dass zunächst der Hersteller in Zusammenarbeit mit Experten der Künstlichen Intelligenz sowie Philosophen die Regeln festlegt, der Kunde aber durch sein Kaufverhalten Einfluss nehmen wird. Denkbar sei auch, dass der Kunde die Einstellungen der Maschine in einem abgesteckten Rahmen selbst verändern kann.

Wie immer es auch weitergeht: Klar ist, dass Autos schon heute moralische Entscheidungen treffen könnten. Man denke zum Beispiel an Volvos Kamerasysteme mit Bilderkennung, die bereits heute zwischen Menschen und Tieren unterscheiden. Noch machen sie ihre Fahrstrategie nicht davon abhängig, wer vor der Motorhaube auftaucht – technisch wäre es ohne weiteres möglich, für das eine Lebewesen auszuweichen, für das andere aber nicht. Bevor wir Kaffee trinkend und Nachrichten lesend dem Auto möglicherweise alle Entscheidungen überlassen, sind also noch ein paar wichtige Fragen zu klären.