Interview

«Wir können Roboter programmieren, schlechte Laune auszudrücken, aber wir sollten es nicht tun»

Ein Roboter transportiert medizinische Dokumente im Mongkutwattana General Hospital in Bangkok, Thailand.

Ein Roboter transportiert medizinische Dokumente im Mongkutwattana General Hospital in Bangkok, Thailand.

Die Psychologin und Philosophin Meia Chita-Tegmark erforscht, wie sich Technologie und künstliche Intelligenz auf die Menschheit und ihren Alltag auswirken.

Am Worldwebforum 2019 in Zürich fragte Meia Chita-Tegmark in die volle Stage-One-Halle:

  • Sind Sie noch relevant oder werden Sie bald ersetzt?
  • Gewinnen oder verlieren Sie Fähigkeiten?
  • Wer kennt Sie am besten: Sie oder andere?

 Selber gibt sich die Psychologin und Philosophin offen. Sie sei mit ihrem Mann, Max Tegmark, hier, sagt sie. Der Physiker und Autor ist Präsident des Future of Life Institutes. Dieses beschäftigt sich mit existenziellen Risiken künstlicher Intelligenz. Zum Beirat gehören Oxford-Professor Nick Bostrom, Technologie- Unternehmer Elon Musk, in irgendeiner Energieform vielleicht nach wie vor der verstorbene Astrophysiker Stephen Hawking. Wir treffen Meia Chita-Tegmark nach dem Referat. Beim Reden singt die Forscherin fast. Hoffentlich lernen die Roboter, an denen sie im Labor tüftelt, die Eigenschaft nicht auch bald.

Der Begriff Glück in Bezug zu künstlicher Intelligenz (KI) klingt ausserirdisch. Was verstehen Sie darunter?

Meia Chita-Tegmark: Wenn wir Technologien entwickeln, sollten sie uns Effizienz, Fortschritt und Wohlbefinden bringen. Selber habe ich viele Ideen, wie mein Glück aussehen soll.

Nämlich?

Ich bin dankbar, dass ich als Forscherin wichtige Fragen stellen und Antworten suchen kann. Nebenbei geniesse ich die Natur, das Wandern, meine Familie. Ich bin in einer Diktatur, in Rumänien, aufgewachsen. Ich weiss, was es bedeutet, wenn jemand seinen Willen auf dich projiziert. Wohl gibt es eine universelle Vorstellung von Glück: Fast alle wünschen sich gute Gesundheit. Dort sehe ich sinnvolle Anwendungen für künstliche Intelligenz.

Von Boston über Luzern bis Kigali?

An meinem Ort kann ich alles tun, während ich den Rest der Welt vergesse? Das funktioniert nicht mehr in einer vernetzten Zeit. Zusätzlich zur medizinischen Grundversorgung können wir mit künstlicher Intelligenz an die Heilung von Krankheiten oder die Verlängerung des Lebens denken.

Einige fürchten eine Verselbstständigung der künstlichen Intelligenz.

Jede Technologie, die unsere Power erhöht, macht Dinge nicht automatisch gut oder schlecht. Sie fordert uns auf, über die Nutzung zu entscheiden. Was mich verunsichert: Beim Entwickeln von KI, etwa durch maschinelles Lernen, werden neuronale Netze genutzt. Wie diese arbeiten, verstehen wir aber nicht genau. Grosse Datenmengen werden in ein neuronales Netz geleitet, dieses dealt dann mit verschiedensten Zahlen – bis eine Diagnose erscheint. Maschinendiagnosen sind inzwischen oft präziser als Menschendiagnosen.

Es funktioniert, aber Wissenschafter wissen nicht genau, wie?

Wir haben es mit einem mächtigen Agenten, dem KI-Agenten, zu tun.

Über welchen KI-Agenten staunen Sie am meisten?!

Über die Software AlphaZero, die KI-Gigant DeepMind veröffentlichte. Zuvor hatte AlphaGo grosse Tradition: Go (komplexes, asiatisches Brettspiel, Anm. d. R.) faszinierte Zivilisationen. Dann kam AlphaZero, trainierte sich Tausende und Abertausende Jahre menschlicher Kreativität innert weniger Stunden an und zeigte danach übermenschliches Niveau bei Go, später bei Schach und Shogi (japanische Schachvariante).

Ist es mehr als nur ein Gegenspieler?

Es ist übermenschlich. Zumindest auf seinem Gebiet. Doch das Computerspiel weist noch auf anderes hin: Unser Leben kann als Spiel gedacht werden. Bald wird es nicht mehr nur ein Spielbrett sein, unsere Strasse könnte zu einer 3D-Zone werden, in der Roboter interagieren.

Eher Science-Fiction oder Realität?

Vielleicht ist Science-Fiction bald nur noch Science.

Sie leben in Boston. Dort trainiert Boston Dynamics autonome Laufroboter wie Big Dog. Ist Ihnen schon jemand aus der Familie über den Weg gelaufen?

Nein, aber das Robotikunternehmen leistet beeindruckende Arbeit.

Können Sie weitere physische KI-Beispiele nennen?

KI muss nicht verkörpert werden. Nicht die mechanischen Körper lassen Roboter intelligent handeln. Es ist die oft körperlose Software.

Was lösen autonome Systeme bei Ihnen aus?

Ehrfurcht! Sie können eine fantastische Kraft für Gutes in der Welt sein, gleichzeitig für Böses. Alles, was mächtig ist, hat Anziehungskraft. Man will ihr näherkommen, auch wenn man sich der Gefahr bewusst ist. Auch beim Bergsteigen steigt das Risiko mit der Höhe. In meinem Labor entwickeln wir Roboter, die Menschen mit Parkinson und anderen Krankheiten helfen. Ich bin ständig unter Robotern, sehe sie interagieren, Dinge tun. Hoffentlich wird das fürs Gute genutzt.

Was wäre das Gegenteil?

Humanoide Roboter sind Militärrobotern im Grunde ähnlich. Nur haben diese eventuell das Ziel, Menschen zu verletzen.

Wie geht ihr im Human Robots Interaction Lab an der Tufts-Universität vor?

Wir arbeiten mit Robotertypen wie PR2 und Nao. Meine Kollegen entwickeln Roboterfähigkeiten, ich teste sie in Mensch-Roboter-Interaktionsszenarien. Derzeit konzentrieren wir uns auf diese Idee: Wie erschafft man Roboter, die ethisch handeln und Normen in einem menschlichen Umfeld respektieren.

Wie emotional sollen Roboter sein?

Unser Sinn für soziale Interaktionen ist unglaublich entwickelt. Bereits als Baby lernen wir, um Aufmerksamkeit zu bitten. So ist es wohl richtig, KI als künstliche Sozialagenten zu bilden. Das macht den Umgang einfacher: Statt Befehle einzutippen, spricht man sie aus. Doch: Was ist zu sozial in einem Roboter? Wir wollen nicht von Robotern manipuliert werden. Wir wollen sicher sein, dass sie sich von Menschen unterscheiden, dass sie keine Gefühle haben, dass sie nicht meine Gefühle haben. Zumindest im Moment hat KI kein Bewusstsein. Das ist wichtig. Unser Labor gibt bald ein neues Papier heraus: Ein Roboter interagiert mit Menschen in einem Arbeitsszenario – und zeigt ein paar Emotionen.

Welche?

Macht jemand einen Fehler, motiviert der Roboter: «Schade, aber es ist okay. Du kannst es erneut probieren.» (Singt fast) Er reagiert also nicht mit: «Wie konntest du das tun!» (Herablassend) Wir untersuchen auch Tonlagen, männliche und weibliche Stimmen. Ja, was bedeutet es, wenn Roboter ein Geschlecht haben?

Gibt es Erfahrungen?

Menschen projizieren oft ihre Gefühle, Einstellungen und Vorurteile auf Roboter. Von einem Roboter mit weiblicher Stimme erwarten sie mehr emotionale Intelligenz als von einem Roboter mit männlicher Stimme – obwohl beide identisch sind und gleiche Fähigkeiten haben.

Wie wichtig ist emotionale Intelligenz in Zukunft? Ist es wichtig, das Umfeld gut zu behandeln, oder reicht es, zu tun als ob?

Im Vergleich zu anderen Arten haben Menschen wahrscheinlich das höchstentwickelte Gefühlsleben. Und unsere Gefühle treiben mehr Entscheidungen voran, als wir zugeben. Deshalb wollen wir Maschinen, die psychologische Prozesse verstehen.

Wirklich?

Angenommen, ein Patient wacht verärgert auf, und sein künstlicher Sozialagent hat ein Modell von ihm und dieser Emotion. Dann macht er klar, dass es wichtig ist, das Medikament zu nehmen und die Behandlung fortzusetzen.

Und wenn ein Roboter einmal keine Lust hat, zu dienen?

Es gibt einen Unterschied zwischen Gefühl von Wut und Ausdruck von Wut. Im Moment fühlen Roboter nichts, aber wir können sie dazu bringen, eine Reaktion wie Lachen auszudrücken. Wir wollen, dass Menschen mit Robotern positive Erfahrungen machen.

Humanoide Roboter werden auf Selbstlernen und Emotionalität trainiert. Nicht alle Programmierer sind Softies. Ist es möglich, dass Maschinen schlechte Laune kriegen?

Wir können Roboter programmieren, schlechte Laune auszudrücken, aber wir sollten es nicht tun. Wir müssen definitiv darauf achten, auf welche Art von Daten wir KI trainieren. Sonst entstehen negative Auswirkungen wie beim Tay-Bot. Die KI von Microsoft beleidigte via Twitter und musste wieder vom Netz gehen.

Wer sollte internationale Regeln machen?

Es gibt einige Bemühungen, nützliche KI sicherzustellen. Sie sind auf der Future-of-Life-Institute-Website.

Automatismus und Roboterisierung sind in Gang. Was sind die Jobs der Zukunft?

Die Tech-Welt braucht immer Kreativität. Im Campus von Google oder Facebook gehört Spielerisches zur Arbeit. Kochkurse am Abend, sich um Vögel kümmern etc.: Je mehr die Kreativität stimuliert wird, desto innovativer wird das, was man tut.

Als Nutzer «arbeiten» wir bereits für Google und Co. Geht es auch konkreter?

Wir könnten mehr studieren, was glücklich macht, was Wohlbefinden in die Welt bringt, und die Wellness- und Glücksstudien in den Alltag übertragen. In meinem Fachgebiet, der Psychologie, konzentrierte sich die Forschung Jahrzehnte auf Probleme wie Depression oder Autismus. Nun richtet sich der Fokus mehr auf positive Psychologie. Mehr denn je müssen wir auch positive Zukunftsperspektiven mit Technologie visualisieren. Wir brauchen inspirierende Ziele.

Wo stellen Sie sich in 20 Jahren vor?

Keinesfalls möchte ich mich in einem nuklearen oder biotechnischen Chaos sehen, angeheizt durch eine Klimakatastrophe. Ich möchte in einer Welt mit besseren Optionen für Menschen leben, auch durch technologischen Fortschritt. Meine Arbeit, und was dazu heute relevant erscheint, wird sich durch KI extrem verändern. Vielleicht wird sie gar nicht mehr erkannt.

Was geben Sie als Psychologin auf den Weg?

Nutzen Sie Technologie, um Meister Ihres Schicksals zu bleiben – und Kapitän Ihrer Seele.

Meistgesehen

Artboard 1