Die Post-Drohne, das selbstfahrende Auto oder der smarte Kühlschrank: Die Grenzen zwischen Mensch und Maschine weichen sich auch in unserem Alltag auf. Doch was bedeutet es, wenn Roboter in immer mehr Bereichen das Steuer übernehmen? Was, wenn etwas schiefgeht? Solche Fragen beschäftigen auch das EU-Parlament. Dessen Abgeordnete forderten kürzlich, den Status «elektronische Person» für komplexe Roboter und auf Künstliche Intelligenz (KI) basierende Systeme zu prüfen. Das Ziel: Einen rechtlichen Rahmen schaffen, in dem intelligente Maschinen für Schäden haftbar gemacht werden können.

Oliver Bendel, ein KI-Experte und Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz, findet die Idee gar nicht so abwegig. «Aus zivilrechtlicher Perspektive kann man durchaus eine solche Person kreieren. Man kann Roboter, Drohnen und selbstfahrende Autos mit einem Budget oder Fonds ausstatten und bei Unfällen das Opfer entschädigen», sagt Bendel.

Das Problem ist alles andere als realitätsfern: Im März kam es in den USA zum ersten tödlichen Unfall mit einem selbstfahrenden Auto. Im Falle der zu Tode gekommenen Elaine Herzberg übernahm das für den Betrieb des Autos verantwortliche US-Unternehmen Uber die Schuld. Zwischen dem Fahrvermittlungsdienst und der Familie kam es zu einer aussergerichtlichen Einigung. Damit vermied Uber einen langwierigen, komplizierten und teuren Gerichtsprozess. Doch mit dem Aufkommen autonom agierender Maschinen dürften derartige Unfälle keine Seltenheit bleiben. Die Frage, wer am Ende für Personen- und Sachschäden haften muss, dürfte Gerichte in Zukunft mehr und mehr Kopfzerbrechen bereiten.

«Die Verantwortungsfrage ist schwer zu entscheiden, gerade bei intelligenten, vernetzten und selbstlernenden Systemen», sagt Bendel. Als Beispiel nennt er den Chatbot Tay, der 2016 von Microsoft ins Internet entlassen wurde, um mit Twitter-Nutzern zu plaudern. Dabei übernahm das Chatprogramm mit weiblichem Avatar in kürzester Zeit die Vorurteile seiner Gesprächspartner. «Tay war in schlechte Gesellschaft geraten und wurde nach einigen Stunden zur Rassistin. Aber wer ist verantwortlich und wer haftet: Die Manager, die Programmierer oder die Benutzer?»

Offener Brief kritisiert Idee

Nur stösst der Vorschlag der EU-Abgeordneten nicht überall auf Gegenliebe. Letzte Woche hat sich eine internationale Gruppe aus mehr als 150 KI-Forschern, Rechtsprofessoren und Unternehmern gegen die Schaffung des Status einer elektronischen Person gewandt. Sie unterzeichneten einen offenen Brief an die EU-Kommission und deren Präsidenten Jean-Claude Juncker.

Im Vorschlag sehen sie ein rechtliches Konstrukt, mit dem sich Hersteller, Besitzer und Nutzer intelligenter und autonom agierender Systeme davonstehlen könnten, indem sie die Verantwortung einer nicht näher definierten rechtlichen Instanz übertragen.

Für die Unterzeichnenden des Briefes sind die Ursachen für das Fehlverhalten solcher Systeme zumindest heute noch rekonstruierbar und die Haftungsfrage dadurch zweifelsfrei beantwortbar. Die gegenteilige Annahme sei einer von Science-Fiction und reisserischen Pressemeldungen geprägten Vorstellung von Künstlicher Intelligenz geschuldet.

Menschenrechte im Fokus

Die Kritiker argumentieren jedoch nicht nur rechtlich, sondern auch ethisch gegen das Konstrukt einer elektronischen Person. Sie fürchten, dass man intelligente Maschinen als natürliche Personen definieren könnte. Dadurch müssten ihnen Menschenrechte zugestanden werden.

In diesem Punkt stimmt Bendel mit der Gruppe überein: «Man sollte davon absehen, Roboter als echte Personen zu begreifen. Roboter haben keine Empfindungs- und Leidensfähigkeit, kein Bewusstsein, keinen Lebenswillen.» Dies werde im Gesetzesvorstoss allerdings auch nicht gefordert, sagt der KI-Experte.

Was die Schaffung neuer Gesetze betrifft, so sollte der Schutz der Bürger im Vordergrund stehen, meint Bendel. Die Forschung solle zwar nicht eingeschränkt werden, bei konkreten Anwendungsszenarien müsse man aber genauer hinsehen und sie entsprechend regulieren. «Ich bin beispielsweise gegen selbstfahrende Autos, die sich frei durch Ballungsgebiete bewegen dürfen, wie das in manchen kalifornischen Städten der Fall ist.»

Bendel sorgt sich vielmehr hinsichtlich KI-gestützter Überwachung: «Nehmen wir beispielsweise den Überwachungsroboter K5, der im Silicon Valley im Einsatz ist und jeden und alles in seiner Umgebung aufnimmt und analysiert. Ich möchte einen solchen Roboter nicht in Zürich sehen», sagt er. «Wir brauchen Bereiche, in denen wir uns anonym und sicher bewegen können, ohne uns verfolgende Roboter und ohne uns beobachtende und einschätzende Systeme», betont Bendel.