Herr Bendel, zum ersten Mal ist es zu einem tödlichen Unfall mit einem selbstfahrenden Auto gekommen. Ein Tesla war mit Autopilot unterwegs und ist in einen Lastwagen gefahren. Sind Sie überrascht?

Oliver Bendel: Ich bin gar nicht überrascht. Zu diesem Unfall musste es kommen. Ich halte den Tesla S zwar für ein hochwertiges Auto. Dennoch ist die Technologie noch nicht so weit, dass man sie im öffentlichen Verkehr den Kunden zur Verfügung stellen darf.

Wie kam es zum Unfall?

Eine Schwachstelle ist die Kamera. Diese lässt sich leicht täuschen. In diesem Fall hat die Kamera an einer Kreuzung auf einem Highway die weisse Fläche eines LKW-Anhängers mit der in diesem Moment sehr hellen Fläche des Himmels verwechselt. So ist es zum Zusammenstoss gekommen.

Trotz Autopilot nicht zur Nachahmung empfohlen: Dieses junge Pärchen geniesst die Selbstfahr-Funktion ihres Teslas offensichtlich sehr.

Man kann sich nicht nur auf die Kamera verlassen.

Deshalb hat Tesla auch weitere Sensorik wie Radar und Ultrasonic verbaut. Aber offensichtlich haben die anderen Systeme die Ergebnisse der Kamera nicht gegengeprüft.

Ein technisches Versagen also.

Offenbar. Die Automobilhersteller haben bei der Automatisierung ein zu hohes Tempo angeschlagen. Es gibt noch nicht genug Erfahrungswerte, welche die Systeme sicher für den Verkehr machen würden. Wir sind gerade die Versuchskaninchen auf der Strasse. Auch in der Schweiz, wo der Tesla-Autopilot seit Ende letzten Jahres erlaubt ist.

Warum dieses hohe Tempo?

Aus wirtschaftlichen Gründen. Tesla, Google und andere Firmen aus dem Silicon Valley greifen die Automobilindustrie frontal an. Die europäischen Autobauer ziehen mit, weil sie fürchten, sonst überrollt zu werden.

Mitte Mai 2016 ist ein Tesla-Fahrer mit aktiviertem Assistenzsystem auf der Autobahn bei Winterthur in einen stehenden Van geprallt.

Wird der Unfall daran was ändern?

Ich glaube, man macht erst einmal weiter wie bisher. Einzelfälle können schon einen Einfluss auf die Akzeptanz der autonomen Fahrzeuge haben. Dieser Unfall ist aber wohl nicht spektakulär genug. Wenn aber in Städten Unfälle mit Kindern passieren, wird die Diskussion richtig losbrechen und die Wirtschaft und die Politik werden das Tempo der Automatisierung im Strassenverkehr vielleicht etwas drosseln.

Wer ist schuld – Tesla, der Autopilot oder der Fahrer?

Interessante Frage! Bei diesem Unfall würde ich sagen, dass Tesla relativ viel Schuld trifft. Denn die Automatik hat eindeutig versagt.

Derzeit muss der Fahrer im Autopilot-Modus stets eingreifen können.

Das stimmt. Es kann eben zu solchen Situationen kommen. Und genau deshalb baut Tesla auch Vorsichtsmassnahmen ein. So muss man etwa ab und zu das Steuer berühren. So versichert sich der Hersteller, dass tatsächlich jemand vor dem Steuer sitzt.

Tesla sagt, dass die Wagen bereits 130 Millionen Meilen mit Autopilot gefahren sind, es im Durchschnitt aber auf den Strassen in den USA alle 94 Millionen Meilen zu einem tödlichen Unfall komme. Ist der Autopilot also immer noch sicherer als der menschliche Fahrer?

Statistisch könnte man das sagen. Doch in diesem Fall hätte ein aufmerksamer Fahrer den Unfall mit Sicherheit vermieden. Er hätte die weisse Fläche des Lastwagens nicht mit dem Himmel verwechselt. Das muss sich Tesla leider sagen lassen. Man kann hier nicht einfach statistisch argumentieren.

Tesla-Fahrer erlebt eine Schrecksekunde nach der Aktivierung der Autopilot-Funktion

Es ist eine Frage der Zeit, bis es zu einem weiteren Unfall kommt. Sollte man selbstfahrende Autos gar nicht zulassen?

Ich bin nicht grundsätzlich gegen autonome Autos, im Gegenteil. Die Technik ist aber noch nicht so weit. Auf die Dauer kann man mit selbstfahrenden Autos mehr Sicherheit erzeugen – Computersysteme schlafen nicht ein und haben schnellere Reaktionszeiten als Menschen. Ich plädiere aber dafür, dass man autonome Autos nur auf Autobahnen ohne Kreuzungen und nicht in den Städten zulässt.

Wie kann man zusätzliche Sicherheit schaffen?

Indem man separate Fahrbahnen für autonome Autos baut. Zudem müssten die Sensoren und die Algorithmen genauer geprüft werden. Das wird derzeit nur unzureichend gemacht. Tesla kann über Nacht per Fernzugriff ein völlig neues Fahrzeug bereitstellen, indem ein Software-Update installiert wird. Eigentlich müsste ein Auto bei diesem Prinzip jedes Mal die Zulassung verlieren, weil es unter Umständen grundlegend verändert wurde.

Ein Tesla-Fahrer hat Schwierigkeiten mit der Autopilot-Funktion: Das Auto versucht trotz doppelter Sicherheitslinie in ein entgegenkommendes Fahrzeug zu fahren.

Was ist, wenn autonome Autos erwiesenermassen sicherer sind als menschliche Fahrer? Sollte man sie dann auch in die Städte lassen und hinnehmen, dass es doch ab und zu einen Unfall gibt?

Ich halte es grundsätzlich für ein grosses Problem, dass Maschinen Entscheidungen über Leben und Tod treffen. Wenn die Unfallzahlen sehr, sehr niedrig sind, kann man das machen. Wenn man also die derzeit eine Million an Verkehrstoten pro Jahr massiv reduzieren kann. Die Frage ist aber, wie viele von Maschinen totgefahrene Menschen akzeptiert die Gesellschaft, wenn dadurch das Gesamtwohl zunimmt, wenn also insgesamt weniger Menschen im Verkehr umkommen?

Es kommt auf die moralischen Normen einer Gesellschaft an.

Länder wie England sind eher utilitaristisch geprägt, das heisst die Maximierung des Gesamtinteresses steht im Vordergrund. Im kontinentalen Europa ist eher der absolute Wert jedes menschlichen Lebens im Fokus. Wir sehen vor allem, dass jedes Todesopfer eines zu viel ist. Es kann aber sein, dass wir durch die Praxis der autonomen Autos allmählich utilitaristische Argumentationen besser akzeptieren.

Auf YouTube finden sich zahlreiche Videos, die zeigen, dass der Autopilot noch nicht ganz ausgereift ist – was Tesla auch nicht abstreitet.

Was denken Sie, wird Tesla den Autopiloten nun deaktivieren?

Von sich aus wird Tesla kaum etwas machen. Der Autopilot gehört zum Herzstück des Model S. Das Feature ist ein Verkaufsargument. Und die Firma steht derzeit wirtschaftlich trotz der Vorbestellungen nicht besonders gut da. Das kann sie sich nicht leisten.

Und aus moralischer Sicht?

Der Autopilot sollte deaktiviert werden. Es braucht mehr Tests. Die Millionen gefahrener Kilometer reichen nicht aus.

So kam es zum tödlichen Unfall

Es ist der erste bekanntgewordene Todesfall in einem Auto, das sich selbst steuerte. Das System des Elektroautoherstellers Tesla konnte in hellem Licht einen weissen Lastwagen-Anhänger nicht rechtzeitig erkennen. Der tödliche Unfall mit dem automatisierten Fahrsystem des Elektroautoherstellers Tesla ruft die amerikanische Verkehrsaufsicht auf den Plan. Die Behörde NHTSA prüft, wie Teslas «Autopilot» bei dem Crash funktioniert hat.

Das Tesla-System kann beschleunigen, bremsen, die Spur halten, und Objekten ausweichen, um einen Zusammenstoss zu verhindern. In diesem Fall stiess die Limousine «Model S» jedoch mit einem Lastwagen-Anhänger zusammen, der die Fahrbahn überquerte. 

«Weder ‹Autopilot› noch der Fahrer erkannten die weisse Seite des Anhängers vor dem Hintergrund eines hellen Himmels und die Bremse wurde nicht betätigt», schrieb Tesla in einem Blogeintrag. Der Unfall ereignete sich am 7. Mai auf einem Highway in Florida, wurde aber erst jetzt durch die Mitteilung von Tesla bekannt. (SDA)