Tesla1

Der Tesla Autopilot verunsichert durch Unfälle © cc cdorobek

Der umstrittene «Autopilot» von Tesla

Heinz Moser /  Nach Unfällen selbstfahrender Autos von Tesla wachsen die Zweifel, ob Autopilot-Systeme bereits genügend sicher sind.

Die selbstfahrenden Autos sind ins Gerede gekommen, seit ein Tesla ungebremst in einen Lastwagenanhänger raste. Der eingebaute Autopilot hatte das querende Fahrzeug nicht erkannt. Auch in der Schweiz ist ein Unfall mit aktiviertem Autopilot dokumentiert. Der Tesla übersah auf einer Autobahn einen stehenden Kleinlaster, der eine Panne hatte. Dagegen jubilierten die Anhänger der neuen Technik, als nach einem weiteren Unfall im amerikanischen Bundesstaat Pennsylvania bekannt wurde, dass das System ausgeschaltet war. Laut Tesla-Chef Elon Musk hätte sich dieser Crash nicht ereignet, wenn es eingeschaltet gewesen wäre.

Der «Autopilot» in der Diskussion

Wie umstritten das neue System ist, das zeigen die Reaktionen: Anhänger des autonomen Fahrens betonen, dass ein Autopilot trotz einzelner Unfälle immer noch sicherer sei als menschliche Fahrerinnen und Fahrer. Das amerikanische Magazin «Consumer Reports» dagegen fordert Tesla auf, das neue System abzuschalten. Der «Autopilot» gebe ein falsches Gefühl der Sicherheit. Fahrerinnen und Fahrer seien bei der Benutzung dieses Systems nicht genügend aufmerksam im Strassenenverkehr unterwegs, um in Notsituationen schnell zu reagieren. Zwar geht auch Tesla davon aus, dass die Fahrerinnen und Fahrer nach wie vor für ihr Fahrzeug verantwortlich sind und ihre Hand am Steuerrad haben müssen. Aber es ist ein Widerspruch, wenn der Autopilot gerade nicht das tut, was er verspricht, nämlich autonomes Fahren zu ermöglichen.

Kritisiert wird auch das Verhalten der Firma Tesla selbst. Denn erst einige Wochen nach dem Unfall mit dem Lastwagen hatte die Firma die Öffentlichkeit darüber informiert, dass dabei der Autopilot eingeschaltet war – zeitgleich mit der Mitteilung der amerikanischen Verkehrsbehörde NHTSA, dass sie den Fall untersuche und eingehend prüfen werde.

Die Schuld liegt nach wie vor beim Halter

Solche Unfälle stellen die Frage nach der Schuld: Liegt diese bei den Fahrerinnen und Fahrern, denen es an der notwendigen Aufmerksamkeit mangelte? Oder ist es die Firma Tesla, die bei einem Crash mit dem Autopiloten haftet – oder vielleicht gar ein Zulieferer, dessen Software nicht funktionierte?

Rechtlich ist diese Frage allerdings nach dem heutigen Stand des Strassenverkehrsgesetzes (SVG) klar geregelt. Danach haftet der Halter eines Fahrzeuges für Schäden, welche aufgrund des Betriebs seines Fahrzeuges entstehen – und dies gilt unabhängig vom Automatisierungsgrad.

Dennoch wird die Entwicklung der selbstfahrenden Autos auch zu Anpassungen der Gesetze führen. So hat vor einem Jahr das das Departement für Umwelt, Verkehr, Energie und Kommunikation (UVEK) der Swisscom eine Ausnahmebewilligung für Tests mit einem autonomen Fahrzeug auf öffentlichen Strassen erteilt. Für ein Pilotprojekt war eine Ausnahmebewilligung nötig, weil man im normalen Verkehr das Lenkrad nicht loslassen darf. Genau das muss aber möglich sein, wenn das autonome Fahren zum normalen Alltag gehören soll. Im Hinblick auf diese automobile Zukunft ist zudem zu fragen, was Halter und Fahrer noch dafür können, wenn ihr PKW einen Unfall baut. Die automatisierten Entscheidungsprozesse der Technik funktionieren ja so schnell, dass die Fahrerinnen und Fahrer kaum mehr Zeit haben werden, sich dazwischenzuschalten.

Das «Trolley-Problem»

Doch auch wenn die Unfälle dank technologischer Entwicklungen weiter reduziert werden können, bleiben grundsätzliche Probleme ungelöst. So stellt sich die Frage, wie solche Systeme reagieren sollen, wenn ein Crash unvermeidlich ist. Die britische Philosophin Philippa Foot hatte schon 1967 das sogenannte «Trolley Problem» beschrieben – ohne dass sie ahnen konnte, wie aktuell dieses einmal werden könnte.

Beim «Trolley Problem» fährt eine Strassenbahn auf fünf Menschen zu, die sich auf den Gleisen aufhalten. Es gibt aber die Möglichkeit, die Bahn durch Betätigung einer Weiche auf ein anderes Gleis zu lenken, auf dem nur ein Mensch liegt. Dadurch kommt es statt zu fünf Toten nur zu einem. Ist es in einem solchen Fall gerechtfertigt, die Weiche zu betätigen, weil mehr Leute gerettet werden können?

In Deutschland hat sich 2005 das Deutsche Bundesverfassungsgericht zu einem ähnlichen Fall geäussert. Dabei ging es um die Frage, ob man z.B. ein von Terroristen entführtes Passagierflugzeug abschiessen darf, um zu verhindern, dass es in ein vollbesetztes Fussballstadion gelenkt wird. Das Gericht befand eine Gesetzesvorlage, die das ermöglichen wollte, als verfassungswidrig. Man dürfe Menschenleben nicht gegeneinander aufrechnen, da man sie damit ihrer unantastbaren Menschenwürde beraube.

Der Schriftsteller Ferdinand von Schirach nahm dieses Beispiel für ein Theaterstück auf: Er lässt den Major Lars Koch das Flugzeug mit seinem Kampfjet abschiessen, um ein Attentat auf die vollbesetzte Münchner Allianz Arena zu verhindern. Im Theaterstück «Terror» soll das Publikum darüber abstimmen, ob Koch für diese Tat schuldig zu sprechen sei, wobei im Internet über die Resultate Buch geführt wird: Mit Datum vom 21. Juli 2016 hätten 124’983 oder 59,4 Prozent der Besucher den Major freigesprochen. Trotz dem Grundsatz der Menschenwürde scheint hier ein Grundsatz der grösseren Zahl von Opfern eine Rolle zu spielen.

Selbstfahrende Autos und die Moral

Das Trolley-Problem gilt aber auch für selbstfahrende Autos: Das «Massachusetts Institute of Technology» (MIT) hat dazu im Internet eine «Moral Machine» veröffentlicht, wo man dazu eigene Eckwerte eintragen kann:

Das obige Beispiel zeigt, dass eine Fahrbahn abgesperrt ist. Das selbstfahrende Auto kann nun direkt in die Absperrung lenken, wobei die fünf Personen im Wagen umkommen. Es kann aber auch auf die Gegenfahrbahn ausweichen, wobei zwei Kinder sterben.

Solche Beispiele sind Ausfluss einer utilitaristischen Ethik, wo man versucht, den geringsten Schaden als gerechtfertigt auszugeben. Man muss hier also auf Fragen antworten, ob Kinder «wertvoller» als Erwachsene sind, ob man eher fünf als zwei Personen retten sollte, oder ob die Passagiere des eigenen Fahrzeugs Vorrang haben. Letzteres könnte zum Beispiel beim Kauf eines Wagens eine Rolle spielen: Denn soll ich einen Wagen kaufen, der mich im Notfall vielleicht nicht schützen wird, weil die Programmierung andere Entscheidungskriterien aufweist. Mit diesem Aufrechnen hat man aber generell jenen Boden der Menschenwürde verlassen, welchen in Deutschland das Grundgesetz festhält.

Fazit

Die schlechteste Lösung wäre es sicher, die Entscheidung über Leben oder Tod einfach den Programmierern zu überlassen. Denn solche Regeln brauchen eine öffentliche Akzeptanz. Es müssen also akzeptable Lösungen gefunden werden, die vor den Gesetzen und Verfassungsnormen standhalten und als moralische Standards von der öffentlichen Meinung akzeptiert werden.

Dies ist umso wichtiger, weil selbstfahrende Autos an sich eine gute Sache sind. Sie reduzieren die Unfälle von unachtsamen Fahrern auf den Strassen. Und sie ermöglichen einen besseren Verkehrsfluss, der Staus reduziert und das bestehende Strassensystem effizienter nutzt. Doch trotz all dieser Vorteile gibt es Entscheidungen, die wir nicht einfach an eine Maschine delegieren können.

Weiterführende Informationen


Themenbezogene Interessenbindung der Autorin/des Autors

keine

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

6 Meinungen

  • am 26.07.2016 um 11:54 Uhr
    Permalink

    Primär sind die unbeteiligten Dritten zu schützen und nicht die Fahrenden im Auto. Diese Regelung führt dazu, dass die Fahrenden erstens vorsichtiger fahren und zweitens für sie selber besonders sicher konstruierte Fahrzeuge kaufen.

  • am 26.07.2016 um 16:20 Uhr
    Permalink

    Die Behauptung, das «Trolley Problem» sei aktuell geworden, ist masslos übertrieben. Es geht nach wie vor um schlichte Fehler der Autopiloten, wo die Alternativen «Opfer wegen fehlerhafter Funktion» auf der einen und «Keine Opfer bei einwandfreier Funktion» auf der anderen Seite heissen.
    All diese moralischen Dilemmata wirken reichlich konstruiert. Wenn die Situation so übersichtlich und klar wäre, und wenn noch so viel Zeit zur Verfügung stehen würde, dass überhaupt eine sorgfältige Abwägung zwischen Variante A (zwei Tote) und Variante B (drei Tote) möglich wäre, dann wären in der Realität immer noch weitere Varianten (z.B. Bremsen statt ausweichen) möglich.
    Aus der Sicht der Tesla-Hersteller ist es natürlich gut, wenn nun Diskussionen um das «Trolley Problem» entbrennen, denn diese lenken vom schlichten Versagen der Technik ab.

  • am 26.07.2016 um 17:20 Uhr
    Permalink

    Lieber Herr Heierli

    Es geht darum, dass der Autocomputer im Notfall in einer hundertsel-Sekunde den «besten» vorprogrammierten Bremsweg mit der kleinsten Kollision wählt. Am besten steuert er das Auto in eine Wiese anstatt unter einen LKW. Die vorprogrammierten Bewertungen sind gruselig aber oft besser als gar nix. Der Computer soll und kann zwischen wahrscheinlichen Opferzahlen wählen. Dabei kann er auch einen Rollstuhl von einem Kinderwagen unterscheiden. Uns ist es überlassen, ob wir Autos fahren ohne Airbags vor der Stossstange. Wir begrenzen die km/h, die Alkoholprozente und die Sportlichkeit unserer Vehikel. Entsprechend muss Tesla so programmieren, dass der Fahrer als Kapitän andern Opfern vorangeht. Irgendwann müssen die Autos das als Warnung in der Werbung offenlegen. Die Hersteller von Velos und Schuhwerk werden frohlocken.
    Such is life and it becomes sucher and sucher.

  • am 26.07.2016 um 17:30 Uhr
    Permalink

    Lieber Herr Keller

    Zur Zeit ist es aber noch so, dass der Autocomputer nicht Rollstuhl von Kinderwagen unterscheiden kann, sondern einen grossen Lastwagen schlicht übersieht.
    Also finden die ganzen Abwägungen immer noch in der Science Fiction statt.
    Man kann ja durchaus schon jetzt solche Diskussionen führen, aber man sollte sich bewusst sein, dass sie in der Realität noch unerheblich sind.

    Konkret von Interesse wäre eher: Kann man einen Autohersteller haftbar machen, wenn er etwas vorgaukelt, was er nicht einhalten kann?
    Was ist von einer Empfehlung zu halten, die Hände auch bei eingeschaltetem Autopiloten am Steuerrad zu belassen? Ist es nicht offensichtlich, dass die ganze Funktion nutzlos wird, wenn man sich an diese Empfehlung hält?

  • am 28.07.2016 um 12:20 Uhr
    Permalink

    Bereits viele Hersteller nutzen automatisierte Helfersysteme, wobei dasjenige von Tesla, gemäss Vergleichstests in den USA weitaus am Besten abgeschnitten hat. Jedoch sind alle diese Systeme keine Autopiloten, denn dann dürfte kein Mensch mehr eingreifen. Die Frage, die sich hier stellt ist nicht die, ob die Helfersysteme Unfälle verursachen, sondern die, ob sie signifikant mehr Unfälle verhindern als sie verursachen. Die Wahrscheinlichkeit dafür ist recht hoch. Die Helfersysteme selbst entwickeln sich rasant, weil sie sich bei etlichen Herstellern via Mobilfunk melden, wenn sie eingreifen müssen. Damit erhöhen sie die Sicherheit und sie lernen ständig dazu. Die ethischen Fragen sind zwar interessant und müssen eingehend diskutiert werden, doch soweit sind wir noch nicht, denn den Autopiloten wird es noch länger nicht geben.

  • am 1.08.2016 um 15:07 Uhr
    Permalink

    Es feht um FAHRHILFEN.
    Nicht Pilotersatz.
    Der Fahrer hat volle Aufmerksamkeit zu gewährleisten,wir ein Lokführer,der ja bekannlich nicht Steuern muss,hat er trotzdem voll bei der Sache zu sein.
    Tesla hat nie behauptet das Auto fährt von alleine.Der Mensch ist der Unfallverursacher.Nie der Computer.

Comments are closed.

Ihre Meinung

Lade Eingabefeld...