Braucht autonomes Fahren eine Ethik?

Es ist ein altes Spiel. Man konstruiert eine extrem unwahrscheinliche Situation und stellt dann mit großem Pathos eine falsche Frage. Zum Beispiel: Wie soll das autonom fahrende Auto entscheiden, wenn ein Unfall mit einer Gruppe von Menschen unvermeidlich ist – warum auch immer – und ein theoretisch mögliches Ausweichmanöver sehr wahrscheinlich eine andere Gruppe oder Person verletzen oder töten könnte? O Drama, wie können wir Algorithmen finden, die in Sekundenbruchteilen die richtige, moralisch-ethische Entscheidung treffen?!

Die Antwort ist einfach: Wir können es nicht, es ist ein Scheinproblem. Dazu müsste es zuallererst ein objektives System von Wertigkeiten gebe; doch wer so etwas auch nur versuchte einzuführen, würde zwangsläufig totalitär argumentieren. Dieser oder jener Mensch wäre zwangsläufig mehr wert, schlimmer noch, weniger wert als ein anderer. Es ist ein Paradox: Man behauptet ethische Normen zu suchen, aber produziert unethisches Denken. In einem Staat, der die Menschenwürde achtet, dürfte es noch nicht einmal den Versuch geben bestimmen zu wollen, wer mehr wert ist, wer weniger. Ethik gilt immer oder sie ist subjektiv und damit unverbindlich. Eine Ethik für dieses oder jenes ist unsinnig. Die anerkannten Regeln, die allgemein für den Verkehr gelten, gelten auch für das autonome Fahren. Es ändert sich nichts.

Möchten Sie sich nicht lieber an Tatsachen halten? Computergesteuerte Hilfssysteme führen bereits jetzt zu mehr Sicherheit im Straßenverkehr. Sie vermeiden Unfälle, retten indirekt Leben. Wenn dieser Effekt gesteigert werden kann, dann hat das autonome Fahren an sich einen hohen ethischen Wert. Die entscheidende Frage ist, ob es sicherer ist? Wenn ja, dann ist es ethisch, moralisch, menschlich gerechtfertigt, ja sogar gefordert, selbst wenn es nicht perfekt ist und nicht perfekt sein kann.

Hard cases make bad laws, lautet ein englisches Sprichwort. Extremfälle bewirken schlechte Gesetze. Das bedeutet, dass sie nicht als Richtlinien taugen für gute Gesetze oder Regeln. Leider ist dieses Sprichwort in Deutschland wenig bekannt und viele meinen, wenn sie einen außerordentlich unwahrscheinlichen Sonderfall gefunden oder konstruiert haben, müssten sie Grundsatzfragen aufwerfen und dem Sonderfall entsprechend beantworten. Dies führt aber ganz in die falsche Richtung, genau wie das Sprichwort sagt. Sonderfälle taugen nicht, um daraus gute Regeln abzuleiten. Aus vermeintlich ethischer Gesinnung entstünde hier ein gefährliches Menschenwert-Beurteilungssystem, das obendrein praktisch unanwendbar ist, weil auch das autonom gesteuerte Fahrzeug nicht wissen kann, wie andere Verkehrsteilnehmer, wie Fußgänger oder Fahrradfahrer, reagieren werden. Bitte akzeptieren Sie es: Weder Menschen noch Computerprogramme können alle Folgen einer Entscheidung absehen oder berechnen. Daher nützen keine Werteskalen, sie würden nur den Menschen auf subtile, ja tückische Weise entwerten. Wehret den Anfängen, das ist nun ein deutsches Sprichwort und ich meine ebenso wahr wie das englische.

Beim autonomen Fahren stellt sich ein anderes Problem und das ist ein rechtliches. Wer hat Schuld, wenn ein Unfall durch das autonom fahrende Auto verursacht wird? Der Autohersteller, der Softwareentwickler oder der Fahrer? Fehler passieren immer, sonst würden ja Computer nicht abstürzen. Je komplexer ein System, umso fehleranfälliger. Wer trägt letztlich die Verantwortung? Darüber kann man sinnvoll diskutieren. Horrorszenarien helfen gar nicht.

Ob Menschen wirklich von Systemen, die sie geschaffen haben, mit Leib und Leben ohne die Möglichkeit einzugreifen abhängen wollen, das bleibt erst einmal abzuwarten. Doch dies ist eher ein psychologisches Problem.

Fazit:

Das autonome Fahren ist sicher nicht problemlos, aber eine besondere Ethik braucht es dafür nicht.

comments powered by Disqus