Die «Uhr des Jüngsten Gerichts» des «Bulletin of the Atomic Scientists» steht jetzt auf 2 vor 12. Und das Weltende verkauft sich prima. Man denke nur an den Apokalypse-Schwulst und Katastrophen-Porno aus dem einschlägigen Filmgenre, mit dem ganzen Bestiarium der Aliens, Mutanten, Zombies, Vampire, Chimären, Cyborgs, superintelligenten Roboter. Aber auch an Bestseller wie «The Late Great Planet Earth» (deutsch: Alter Planet wohin?), geschrieben im Jahre 1970 vom Evangelisten Hal Lindsey. Die Kernbotschaft: Bereite dich auf das Ende vor. Lindsey ist Verfasser anderer erbaulicher Ratgeberliteratur für den jüngsten Tag, zum Beispiel «Countdown to Armageddon» (1981) oder «The Apocalyptic Code» (1997), alle mit hohen Verkaufszahlen.

Das rezente Endzeittrompeten setzte in Europa vor über drei Jahrzehnten mit einem Buch ein, das nachgerade zum apokalyptischen Schlager wurde: «Das Untier» von Ulrich Horstmann. In eher satirischem Modus spielte der Autor mit der Idee eines menschenleeren Planeten, und er reihte sich damit ein in die Tradition der philosophischen «Menschheitsflüchter», von Nietzsche über Klages und Spengler bis Cioran. Neuerdings wird das Weltende im nüchternen Ton der Wissenschaften abgehandelt – man könnte von einer neuen Art von Futurologie sprechen: der Apokalypsologie.

Die ersten beiden Dekaden des 21. Jahrhunderts blicken auf eine Proliferation von Worst-Case-Szenarien – oft hat man fast den Eindruck: mit einer gewissen kalkulatorischen Lust an der Probabilisierung des Weltendes. Sie hatte gleich zu Beginn des neuen Jahrtausends begonnen, mit einem Artikel des damaligen Chefprogrammierers von Sun-Microsystems, Bill Joy, betitelt «Why the Future doesn’t need us». Im Jahre 2006 sorgte der Ökonom Nicholas Stern mit seinen Prognosen über die wirtschaftlichen Folgen des Klimawandels für Aufsehen: Er sah mit einer Wahrscheinlichkeit von 9,5 Prozent die Auslöschung der Menschheit in diesem Jahrhundert voraus; eine andere Studie, jene des Future of Humanity Institute in Oxford, kam 2008 bereits auf 19 Prozent. Nick Bostrom, Mitverfasser der Studie und gegenwärtig hoch gehandelter planetarischer Risikophilosoph, schrieb schon 2002, dass eine Wahrscheinlichkeit kleiner als 25 Prozent «irreführend» sei; die «besten Schätzungen können deutlich höher sein». Der britische Astrophysiker Martin Rees verkündet in seinem Buch «Our Final Century» (2004) die unfrohe Botschaft, dass unsere Spezies eine Chance von 50 Prozent habe, das Jahrhundert zu überstehen. Dann, so liesse sich immerhin erleichtert schliessen, kann man auf die ganze Wahrscheinlichkeitshuberei verzichten und gleich eine Münze werfen.

Nicht, dass ich als «Denialist» auftreten möchte. Die erwähnte Studie des Future of Humanity Institute listet die acht grössten existenziellen Risiken auf, das heisst, die Auslöschwahrscheinlichkeit der menschlichen Spezies, falls bestimmte, als riskant erachtete Ereignisse einträfen. Experten wurden nach ihrer Einschätzung der Risikofolgen bis zum Jahr 2100 gefragt. Zuoberst rangiert Nanotech-Terrorismus, darunter künstliche Superintelligenz, Kriege (generell), künstliche Pandemien, nukleare Konflikte, Unfälle in der Nanotechnologie, natürliche Pandemien, nuklearer Terrorismus.

In der Befragung der Experten wurde das existenzielle Risiko von der globalen Katastrophe unterschieden. Diese bemisst sich an der Wahrscheinlichkeit, dass das riskante Ereignis mindestens eine Million Tote verursachen würde (andere Szenarien rechnen auch mit einer Milliarde). Die Rangierung fällt dann anders aus: zuoberst Kriege (generell), dann natürliche Pandemien, künstliche Pandemien, nukleare Konflikte, Nanotech-Terror, nuklearer Terror, Superintelligenz, Unfälle in der Nanotechnologie.

Wie man sieht, sind existenzielles Risiko und globale Katastrophe nicht identisch. Machtübernahme durch Superintelligenz muss keine globale Katastrophe sein, könnte sich aber langfristig als verheerendes existenzielles Risiko herausstellen. Klimawandel dagegen ist eine globale Katastrophe, aber nicht zwingend ein existenzielles Risiko für die ganze Spezies: ein «privilegierter» Teil würde wahrscheinlich überleben. Zyniker – es gibt sie durchaus – fühlen sich hier womöglich zum Argument verleitet, die Erhaltung der Spezies verlange schon den Preis von ein paar globalen Katastrophen.

Was man davon auch halten mag, wir sehen uns unweigerlich in die höchst unbehagliche Zwickmühle des Prioritätensetzens geworfen. Wissenschafter wie Stephen Hawking, Unternehmer wie Elon Musk und Bill Gates, Philosophen wie Nick Bostrom, Politiker wie Barack Obama legten grosses Gewicht auf die zukünftige Entwicklung der künstlichen Intelligenz. Und dementsprechend plädieren sie auch für die Förderung einer «freundlichen» künstlichen Intelligenz. Theoretisch ist es möglich, dass sich eine solche Intelligenz selbst verbessert, und man kann immer Hoffnung in die Freundlichkeit der Maschinen setzen. Aber deren Algorithmen werden sich wahrscheinlich einem vollständigen menschlichen Verständnis entziehen und sie könnten sich als entsprechend unkontrollierbar herausstellen. Vor kurzem hat der Programmierer James Somers vor einer «kommenden Software-Apokalypse» gewarnt, in der uns die Programme über den Kopf wachsen würden, und wir nicht mehr feststellen könnten, ob sie richtig funktionieren.

Eine Endzeit solcher Art malt auch der Publizist Franklin Foer in seinem Buch «World without Mind» (2017) aus: Das grosse Beben – «the Big One» –, den ultimativen Zusammenbruch der ganzen Finanzinfrastruktur, der Riesenvermögen und Pensionsgelder innerhalb von Sekundenbruchteilen löscht – den «unvermeidbaren Mega-Hack, der die Gesellschaft in ihren Fundamenten erschüttern wird.» Die Grossunternehmen seien auf diese Erschütterung gefasst, sie würden sich dagegen mit einer Garde von Anwälten wappnen, Lehren aus dem Kollaps von 2008 ziehen und Ressourcen sichern. Für all jene dagegen, deren Vermögen und Pensionen verschwunden, deren Daten missbraucht worden sind und deren Gesundheit und Seelen Schaden genommen haben, wäre die Welt untergegangen.

Endzeitszenarien sind von der Logik des Verlustes motiviert: Wir werden uns des Werts von etwas in dem Moment inne, in dem wir es verlieren oder zu verlieren drohen. Wenn man aber sagt, «wir» seien bedroht, dann lohnt sich allemal ein genauerer Blick auf dieses «wir». Für wen steht eigentlich was auf dem Spiel? Es sind die Errungenschaften der Moderne, hört man, Wissenschaft, Technik, freier Markt, staatliche Institutionen, Gesetze, Demokratie. – Sicher. Aber diese Moderne erweist sich als brüchig und ganz und gar nicht universell. Viele Teile des Planeten, ganze Kontinente wie Afrika gehören nicht dazu. Ausgerechnet Technik und Wirtschaft sorgen dafür, dass Modernität hier gar nicht stattgefunden hat – es gibt auch Leute, die unverblümt daran interessiert sind, dass sie nicht stattfindet. Und genau da passiert Endzeit. Endzeit nämlich für eine Existenzform, welche die Weltbevölkerung wie nie zuvor spaltet. Das Spaltprodukt ist gefährlicher als der ganze Nuklearbombenpark.

Vielleicht regt sich im Faszinosum des apokalyptischen Genres auch unser schlechtes Gewissen, das heisst das Wissen um den prekären Zustand «unserer» Lebensweise in der technisch avancierten westlichen Gesellschaft. Wenn alles, was «uns» definiert, auf einer ausgrenzenden, abservierenden, ausbeutenden Existenzweise beruht, dann ist schon jede Infragestellung einer solchen Menschheit per definitionem ein «Ende» der Menschheit.

Man landet hier fast zwangsläufig bei Günther Anders’ Diagnose der «Apokalypse-Blindheit» vor einem halben Jahrhundert. Wir sind nach wie vor befallen von ihr. Stell dir vor, der Weltuntergang findet statt, und niemand kümmert sich darum! Die Banalität der Apokalypse – das ist die Apokalypse.