Autonomes Fahren
Je mehr klügere Autos herumfahren, desto mehr Risiko nehmen die menschlichen Lenker

Forscher der Columbia University haben untersucht, was passiert, wenn autonom fahrende Autos mit menschlichen Lenkern interagieren. Dabei gibt es überraschende Resultate.

christoph bopp
Drucken
Ein autonom fahrendes Auto auf den Strassen von Moskau.

Ein autonom fahrendes Auto auf den Strassen von Moskau.

Bloomberg

Kommt das automatische Fahren? Und wenn ja, wann? Wer so fragt, trifft das Problem nicht. Denn im Hinterkopf steckt die Antwort: Erst, wenn es sicher genug ist. Dies ist eine problematische Annahme. Denn vielleicht kommt es auf diese Weise gar nie. Über eines muss man sich im Klaren sein: Auch autonom fahrende Autos produzieren Un­fälle. Vielleicht weniger als solche mit Menschen hinter dem Steuer. Aber «sicher» im absoluten Sinn werden auch die Automaten nie sein.

Weil es auf den Strassen immer Unfälle geben wird, sollte man sich überlegen, wie solche Dinge künftig geregelt werden. Unser Strafrecht kennt bis jetzt nur Menschen als Täter. Im Strassenverkehr geht es darum, bei einem Unfall die Verantwortlichkeit (oder «Schuld») festzustellen. In der Regel redet man von «Fahrlässigkeit», denn man geht davon aus, dass Verkehrsteilnehmer die nötigen Vorsichtsmassnahmen treffen.

Ein neuer Akteur mit einem anderen Interesse

Gibt es einen Unfall, wird nach dem Grad der Fahrlässigkeiten bei Verursacher und ­Opfer gefragt. Die «Schuld» wird in der Regel aufgeteilt. Beiden Seiten wird der Wille und das primäre Interesse zugebilligt, Unfälle zu vermeiden. Beim autonomen Fahren gibt es aber einen neuen Akteur mit einem anderen Primärinteresse: den Produzenten des Fahrzeugs. Und sein primäres Interesse ist nicht das Vermeiden von Unfällen, sondern der Profit.

Wir haben also eine neue Aufgabe für den Gesetzgeber: Er muss eine neue Regel definieren, wie die Fahrlässigkeit verteilt werden soll. Und wir müssen verstehen, wie der Auto­produzent ins Bild passt. Er beschäftigt sich natürlich auch mit Unfallvermeidung. Aber er kleidet sie in Technologie und versteht sie als ein Investment.

Der Gesetzgeber auf der obersten Ebene gibt die Regeln vor. Auf der zweiten Ebene definiert der Produzent der autonomen Autos die Spezifikation seiner Produkte. Denen müssen (oder können) auf der dritten Ebene sich dann die menschlichen Lenker anpassen. Die Interaktionen zwischen den Playern können spieltheoretisch modelliert werden. In allen Konstellationen rechnet man mit Gleichgewichten: Wenn keiner der Akteure seinen Nutzen verbessern der seine Kosten verringern kann (Payoff) von seiner Handlungsweise abweicht.

Der Gesetzgeber auf der obersten Ebene gibt die Regeln vor. Auf der zweiten Ebene definiert der Produzent der autonomen Autos die Spezifikation seiner Produkte. Denen müssen (oder können) auf der dritten Ebene sich dann die menschlichen Lenker anpassen. Die Interaktionen zwischen den Playern können spieltheoretisch modelliert werden. In allen Konstellationen rechnet man mit Gleichgewichten: Wenn keiner der Akteure seinen Nutzen verbessern der seine Kosten verringern kann (Payoff) von seiner Handlungsweise abweicht.

CH Media

Situationen mit strate­gischer Interdependenz

Diese Situation mit drei Playern auf drei Ebenen und verschiedenen Parametern (zum Beispiel die allmähliche Durchdringung des Verkehrs mit autonomen Fahrzeugen) haben Forscher der Columbia University (Ingenieur- und Juristische Abteilung) spieltheoretisch modelliert (siehe Grafik). Die Spieltheorie erlaubt es, Situationen zu modellieren, in denen verschiedene Strategien und Interessen miteinander agieren

Wir haben es im Strassenverkehr mit drei Konstellationen zu tun:

  1. Menschlicher Lenker (HV = Human Vehicle) crasht mit menschlichem Lenker (HV - HV)
  2. Menschlicher Lenker und autonom fahrendes Auto (AV = Autonomous Vehicle) kollidieren (HV - AV)
  3. Autonom fahrendes Auto kollidiert mit autonom fahrendem Auto (AV - AV).

Drei Hierarchien: Leader und Followers

Der Gesetzgeber agiert auf dem obersten Level. Er kann die Parameter definieren und anpassen und so die Spielregeln auf der «Strasse» ver­ändern. Er legt die Haftungsregeln fest für menschliche Lenker und legt dem Produzenten eine Pro­dukte­haftpflicht auf. Die beiden anderen Player «folgen» ihm. Sein Ziel ist die Minimierung der sozialen Kosten (Total der Unfallfolgen und die Kosten der Vorsicht beim Fahrstil).

Auch das autonom fahrende Auto agiert auf einem höheren Level als die menschlichen Lenker. Sein Verhalten ist durch das Programm festgelegt. Der menschliche Lenker ist auch hier ein Follower. Menschen untereinander interagieren als gleichwertige Player.

Einige Ergebnisse: Mensch­liche Lenker (HV), aber auch Fussgänger, gehen desto mehr Risiken ein, je mehr autonome Fahrzeuge (AVs) verkehren (moral hazard). Will der Gesetz­geber die Verkehrs­sicherheit verbessern, muss er dann den Autoproduzenten helfen (z.B. mit Steuererleichterungen für Halter von AVs). Je homogener der Markt wird (gegen 100 Prozent AVs), desto stärker müssen die Produzenten aber reguliert werden. Denn Vorsichtsmassnahmen kosten, und das schmälert den Profit.

Auch wenn es mit einigen vereinfachenden Annahmen operiert, erweist sich das Modell als geeignetes Tool, um eine optimale Verteilung der Fahrlässigkeit im Rahmen von Verkehrssicherheit und sozialen Kosten (Unfallfolgen, aber auch flüssiger Verkehr) zu errechnen.