Wenn Du einem Algorithmus Dein Leben anvertraust

Autonomes Fahren – Ethisch vertretbar?

In Zukunft sollen die Autos autonom fahren, die Fahrer werden beim autonomen Fahren zu Passagieren. Da fragst Du Dich sicherlich auch: Wie viel Macht darf eine Maschine haben? Wie werden ethische Entscheidungen für den Notfall programmiert? Und wer haftet eigentlich bei einem Unfall?

    0
  • Veröffentlicht am 10/24/2019, 12:08 PM
Auf einem Testgeländefährt der autonome Kleinbus Cube von Continental auf einen Mann zu.
Quelle: Christophe Gateau / picture alliance/Christophe Gateau/dpa Auf einem Testgeländefährt der autonome Kleinbus Cube von Continental auf einen Mann zu. Das autonome Fahrzeug erkennt den Mann und bremst

Ein selbstfahrendes Auto mit drei Passagieren – Kind, Mutter und Vater – rast auf einen Zebrastreifen zu. Die Bremsen versagen. Das Auto hat nun zwei Möglichkeiten: Entweder es hält den Kurs und fährt geradeaus – dann sterben allerdings drei Passanten, eine Athletin, eine Ärztin, eine männliche Führungskraft. Oder es weicht aus und kracht gegen eine Betonwand, alle drei Insassen sterben. Jetzt entscheidest Du: Was soll das Auto tun?

Natürlich willst Du diese Entscheidung nicht treffen. Würdest Du selbst hinter dem Steuer sitzen, wäre es auch in der Praxis unmöglich, das Richtige zu tun. Denn Du befindest Dich in einem klassischen ethischen Dilemma: Egal, wofür Du Dich entscheidest, Deine Entscheidung verstößt gegen jede Moral. Das Richtige tun – das gibt es in diesem Szenario nicht.

Ein Fußgänger geht über eine Straße. Ein autonomes Fahrzeug muss in der Lage sein, auf solche Situationen zu reagieren.
Quelle: Marijan Murat / picture alliance/Marijan Murat/dpa Ein Fußgänger geht über eine Straße. Ein autonomes Fahrzeug muss in der Lage sein, auf solche Situationen zu reagieren

Autonomes Fahren: Keine richtige Lösung fürs ethische Dilemma

Wer überlebt, wer stirbt? Das oben genannte Beispiel ist eines von vielen aus einem Experiment des Media Lab vom Massachusetts Institute of Technology (MIT). Auf der daraus entstandenen Plattform „Moral Machine“ können Teilnehmer des Experiments weltweit verschiedene Szenarien durchspielen – und finden sich bei jeder Situation in diesem ethischen Dilemma wieder. Während Du in der Praxis aber vermutlich im Affekt entscheiden würdest, hast Du bei der „Moral Machine“ Zeit, dir die Antworten zu überlegen. Und mit jeder Sekunde, die verstreicht, wird die Situation unbehaglicher. Es gibt keine richtige Antwort – und es gibt auch keine moralisch vertretbare, denn in jedem Szenario sterben Menschen.

Die Brisanz der Fragen liegt indes nicht nur in der Tatsache, dass mit jeder Entscheidung Menschenleben zum Opfer fallen würden. Zudem gibt die „Moral Machine“ weitere Hinweise, wer sterben soll: Ein Arzt oder ein Obdachloser? Ein Kind oder eine Rentnerin? Ein Dieb oder eine Mutter?

Ziel des Experiments war es nicht, für das autonome Fahren weltweit gültige Regeln festzulegen. Ziel war es, herauszufinden, ob es überhaupt moralische Grundsätze gibt, die weltweit gültig sind. Eine Ethik-Debatte rund ums autonome Fahren sollte entstehen. Und sie entstand, rund 40 Millionen Entscheidungen wurden mit der „Moral Machine“ bislang erfasst. Das Ergebnis: Oft haben die Testpersonen zwar ähnlich entschieden, aber es gab auch regionale Unterschiede. Während in einigen Teilen der Welt häufiger die Kinder gerettet wurden, waren es in anderen Regionen die älteren Menschen. Menschen, deren Verhalten den Regeln entspricht, werden öfter gerettet als Menschen, die beispielsweise über Rot gehen. Auch die soziale Stellung nahm bei den Testpersonen Einfluss auf die Entscheidung. So wurde etwa eine Ärztin häufiger gerettet als ein Dieb.

Es sind eben solche ethischen Fragen, die gestellt werden, wenn es darum geht, der Technologie mehr Macht zu geben. Was darf Künstliche Intelligenz (KI) – und was nicht? Bereits heute steht vielleicht ein Sprachassistent in Deinem Wohnzimmer. Und bereits heute wird KI in Unternehmen eingesetzt und entscheidet beispielsweise bei Versicherungen, ob Kunden Anspruch auf Schadensersatz haben oder nicht.

Die Prognose für die Zukunft ist klar: Algorithmen und Künstliche Intelligenzen werden immer mehr Einzug in unser Leben erhalten, immer mehr Entscheidungen treffen und immer mehr Aufgaben übernehmen, die bisher von menschlicher Hand ausgeführt wurden. Auch das Autofahren gehört dazu, Experten prognostizieren, dass bereits 2050 bereits 70 Prozent aller Autos autonom oder vollautomatisiert fahren. Bis dahin sollten solche Fragen geklärt sein.

Während der Fahrt in einem autonomen Fahrzeug kannst Du die Hände vom Lenkrad nehmen.
Quelle: Britta Pedersen / picture alliance / dpa Während der Fahrt in einem autonomen Fahrzeug kannst Du die Hände vom Lenkrad nehmen

Persönliche Merkmale dürfen keinen Einfluss nehmen

Die Ethik-Kommission des Bundesministeriums für Verkehr und digitale Infrastruktur hat bereits 2017 einen Bericht zum Thema „Automatisiertes und vernetztes Fahren“ herausgebracht und 20 ethische Regeln für den Einsatz autonomer Systeme festgelegt. Dilemma-Situationen wie in der „Moral Machine“ wurden dabei geklärt: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt“, heißt es dort. Auch wenn die KI in Zukunft etwa per Gesichtserkennung in Echtzeit in der Lage wäre, in einer solchen Situation Informationen über den gesellschaftlichen Status, das Alter oder die Gesundheit eines potenziellen Unfallopfers einzuholen – sie wird es nicht dürfen. „Echte dilemmatische Entscheidungen, wie die Entscheidung Leben gegen Leben“, so heißt es dort weiter, „sind nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar.“ Wie entscheiden die Autos dann aber in diesen Situationen, wenn eine ethische Programmierung nicht möglich ist? 

Die beste Antwort: Gar nicht, denn zu einer solchen Situation wird es im Verkehr mit autonomen Fahrzeugen nicht mehr kommen. 90 Prozent aller Unfälle geschehen aufgrund menschlichen Versagens. Würde der Mensch also nicht mehr hinter dem Steuer sitzen, würde es kaum mehr Verkehrsunfälle geben. Bereits 2007 hat sich der Deutsche Verkehrssicherheitsrat das Motto „Vision Zero“ zur Grundlage seiner Arbeit gemacht. Ziel dieser Arbeit ist eine Zukunft ohne Verkehrstote oder Verkehrsverletzte. Zahlreiche Unternehmen schlossen sich an, Automobilhersteller wie Zulieferer forschen seitdem an Systemen und Technologien, die zu der Vision beitragen. Und die Experten gehen davon aus, dass das autonome Fahren maßgeblichen Anteil daran haben wird. 

Autonome Autos machen Straßen sicherer

Das autonome Auto sieht nicht nur mittels Sensoren, Kameras und Radar- und Lidarsystemen mehr als das menschliche Auge. Es ist auch vernetzt. Es steht in Kontakt mit allen in der Umgebung aktiven Fahrzeugen und mit der Infrastruktur. So speist ein Auto Informationen in die Cloud, etwa das auf einem bestimmten Streckenabschnitt heftiger Starkregen eingetreten ist, und alle folgenden Autos können ihr Fahrverhalten anpassen. Denn gerade bei plötzlich auftretendem Starkregen ist die Gefahr des Aquaplanings hoch. Sind die Autos frühzeitig gewarnt, können sie ihre Geschwindigkeit reduzieren. Baustellen können Informationen über ihren Standort weiterleiten, Ampeln Informationen über grüne Wellen. Und wenn sich hinter der nächsten Kurve ein Stauende bildet, weiß das selbstfahrende Auto ebenfalls Bescheid und läuft nicht Gefahr, von der Verkehrssituation überrascht zu werden.

Mit dem Einsatz autonom fahrender Fahrzeuge wird Verkehr in Zukunft also sicherer. Bereits heute Sorgen automatisierte Systeme wie der Notbrems- oder der Spurhalteassistent für eine höhere Sicherheit im Straßenverkehr. Die Unfallzahlen werden sich drastisch reduzieren. Dennoch kannst Du nicht davon ausgehen, dass es auf einen Schlag keine Unfälle mehr geben wird. Gerade in den ersten Jahrzehnten, in denen uns ein gemischter Verkehr mit selbstfahrenden Autos und menschlichen Fahrern bevorsteht, werden Unfälle zwar seltener, können aber vorkommen. Hier entsteht das nächste Ethik-Problem: Wenn es zu einem Unfall mit einem autonomen Auto kommt, bei dem etwa ein Sachschaden entsteht – wer haftet?

Auch Hersteller können haftbar gemacht werden

Hier ist es wichtig zwischen automatisierten und autonomen Systemen zu unterscheiden. Bei den bisher zugelassenen teilautomatisierten Systemen auf Level 2 muss der Fahrer stets bereit sein, die Kontrolle über das Auto wieder zu übernehmen. Auch für hoch- und vollautomatisierte Systeme, die von Herstellern bereits im Realbetrieb erprobt werden und voraussichtlich im nächsten Jahrzehnt auf die Straße kommen, gilt das. Für solche Fälle gibt es in Deutschland bereits klare Regelungen, die für Autos bis zu Level 3 greifen und bei denen der Halter, der Hersteller oder Du als Fahrer haftbar gemacht werden können.

Sitzt Du hinter dem Steuer eines automatisiert fahrenden Autos auf der Autobahn und kommst Deiner Pflicht, das automatisch fahrende Auto zu überwachen, nicht nach und es kommt zum Unfall, musst Du für den Schaden aufkommen. Deswegen solltest Du Dir in solchen Fällen bewusst sein: Das Risiko ist hoch, sich zu sehr auf das Auto zu verlassen. Jedoch ist das System darauf ausgelegt, dass Du jederzeit bereit bist, zu übernehmen. Resultiert der Unfall aber aus einem Systemfehler, haftet der Hersteller. Für teil-, hoch- und vollautomatisierte Fahrzeuge der Zukunft ist dies ein Modell, auf dem aufgebaut werden kann. In einem komplett autonom fahrenden Auto sitzt allerdings kein Fahrer, sondern nur noch Passagiere. Wer haftet dann? Dafür gibt es bisher noch keine klaren Regelungen, aber es kann davon ausgegangen werden, dass die Passagiere in solchen Fällen keine Schuld mehr trifft.

Insgesamt bietet das autonome Fahrzeug also die Chance, den Verkehr sicherer, flüssiger und komfortabler zu machen. Bevor diese Autos allerdings auf die Straße kommen, müssen nicht nur noch einige Millionen Testkilometer mit Versuchsfahrzeugen absolviert werden. Es müssen auch Antworten auf die ethischen Fragen gefunden werden. Mit der Ethik-Kommission wurde ein erster Schritt in Richtung „Vision Zero“ unternommen; mit der „Moral Machine“ die öffentliche Ethik-Debatte angeregt. Als Nächstes geht es um die Frage der gesellschaftlichen Akzeptanz. Neue Technologien bergen neue Herausforderungen – ob Smartphone, Roboter-Rasenmäher oder Auto. Und deshalb solltest auch Du als Autofahrer Dir die Frage stellen: Wie viel Macht willst Du einer Maschine geben, die das Potenzial hat, die Welt sicherer zu machen? 

Autonomes Fahren: Das Wichtigste in Kürze

  • Fahrer werden beim autonomen Fahren zu Passagieren.
  • Das MIT führt Ethik-Untersuchungen durch, in denen sich Menschen in einem ethischen Dilemma entscheiden müssen. 
  • Algorithmen und KI werden einen immer größeren Einfluss auf unser Leben haben – auch im Straßenverkehr.
  • Experten zufolge fahren 2050 rund 70 Prozent aller Autos autonom oder vollautomatisiert.
  • Die Ethik-Kommission des Bundesministeriums für Verkehr und digitale Infrastruktur hat 2017 festgelegt: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.
  • Autonome Autos sehen mehr als ein Mensch. Dafür nutzen sie Sensoren, Kameras sowie Radar- und Lidarsysteme. 
  • Autonome Fahrzeuge sind untereinander und mit der Infrastruktur vernetzt.
  • Vorreiter des autonomen Fahrens sind Notbrems- oder Spurhalteassistenten.
  • Bei teilautomatisierten Systemen (Level 1, Level 2) muss der Fahrer jederzeit die Kontrolle über das Fahrzeug übernehmen können.
  • In automatisiert fahrenden Fahrzeugen haftet der Hersteller, falls die Ursache für einen Unfall auf einen Systemfehler zurückzuführen ist.



Technologie und InnovationVerkehr