Künstliche Intelligenz
Horror-Szenario «Slaughterbots» – wenn die Welt wegen autonomen Kampfrobotern aus den Fugen gerät

Schwärme von autonomen Mini-Drohnen gegen Soldaten – wird so der Krieg der Zukunft aussehen? In Genf berät derzeit ein Gremium der Vereinten Nationen über ein Verbot von «tödlichen autonomen Waffensystemen». Aktivisten warnen mit einem schockierenden Science-Fiction-Clip vor tödlichen Kampfrobotern mit künstlicher Intelligenz.

Elia Diehl
Drucken
Teilen

Tödliche autonome Waffensysteme sind seit einigen Jahren immer wieder ein Thema. Mehrfach haben Experten für künstliche Intelligenz und Forscher wie Astrophysiker Stephen Hawking oder Apple-Co-Gründer Steve Wozniak schon Kritik geäussert (auch die GsoA).

Die Kritiker fordern von den Vereinten Nationen schon länger ein Verbot solcher Kampfroboter. Darüber hat diese Woche an der fünftägigen UN-Abrüstungskonferenz in Genf ein Gremium von Experten und Landesvertretern erstmals auf formeller Ebene beraten.

Zeitgleich haben die vereinte Kritiker von autonomen WaffenBan Lethal Autonomous Weapons») einen Albtraum-Kurzfilm veröffentlicht, der ein Horror-Szenario durchspielt: In knapp acht Minuten zeigt der Science-Fiction-Clip, welch verheerende Folgen solch eine Technologie hätte, würde sie ausser Kontrolle geraten.

Zu Beginn des von Elon Musk mitfinanzierten Films «Slaughterbots» (Deutsch: Schlachtroboter) präsentiert ein Vertreter einer Rüstungsfirma stolz und im Stile einer Apple-Keynote von Steve Jobs eine Minidrohne – kaum grösser als ein Fünffränkler. Speziell daran: Das Gerät ist bewaffnet und kann dank Gesichtserkennung und künstlicher Intelligenz selbstständig und gezielt einen Menschen töten, indem sie auf der Stirn des Zieles eine kleine Sprengladung zündet.

In gekonnter Hollywood-Manier entwickelt sich der Kurzfilm zu einem regelrechten Apokalypse-Streifen: Denn bald schon sorgen ganze Schwärme solcher autonomer Drohnen für Unruhe, Schrecken und Tod – ohne dass jemand weiss, wer dahinter steckt.

Zum Schluss spricht der Informatiker Stuart Russel von der Berkley-Universität, wie Tesla-Milliardär Ellon Musk einer von über 20'000 Unterstützern der internationalen Kampagne zum Stopp von Killerrobotern. Er ist einer der wichtigsten Forscher im Bereich der künstlichen Intelligenz und warnt: «Wir können die Zukunft, die sie gerade gesehen haben, verhindern. Aber unser Zeitfenster schliesst sich schnell.»

Wenn Maschinen über Leben und Tod entscheiden

Das Video hat natürlich nicht viel mit sachlicher Diskussion zu tun – und dies wohl ganz bewusst, da Sachlichkeit Debatten durchaus verschleppen kann. Die Initianten setzen also gezielt auf Emotionen, ob sie die Debatte voranbringt, wird sich zeigen.

Sieht man den Kurzfilm an, da fragt man sich dennoch: Warum gibt's kein Verbot, wo liegt das Problem?

Nun, die Antwort sind weitere Fragen: Was genau soll eigentlich verboten werden? So etwas wie im Kurzfilm gibt es heute noch nicht, auch wenn verschiedene Staaten bereits an vollautonomen Waffensystemen forschen.

Und dennoch: Im Gegensatz zu beispielsweise einer Landmine oder zu Streumunition ist heute noch nicht klar, was eigentlich alles als ein «tödliches autonomes Waffensystem» zu definieren ist. Und schon heute gibt es Waffen mit einer gewissen Selbstständigkeit. Ab wann ist sie autonom? Wo wird also die Grenze gezogen (wenn überhaupt)?

Das Problem mit der «künstlichen Intelligenz»

Das Thema wirft allerlei ethische, sicherheitspolitische und rechtliche Fragen auf: Kann künstliche Intelligenz menschliches Urteilsvermögen ersetzen? Kann der Roboter zwischen Zivilisten und Soldaten, zwischen Verletztem und Angreifer, zwischen Gut und Böse unterscheiden? Kann ein Computer, dem das menschliche Einfühlungsvermögen fehlt, Menschen- und Völkerrecht wahren? Befürworter von Kampfrobotern führen ins Feld, dass die autonomen Waffensysteme auch Vorteile hätten, da sie keine Fehlentscheidungen aufgrund menschlicher Emotionen wie Angst, Wut oder Rachegelüsten treffen würden.

Aktuelle Nachrichten