Umweltethik: Offene Fragen zum Ende der Menschheit

Vor rund acht Jahrzehnten gab es einen Bruch in der Menschheitsgeschichte: Wir haben die Fähigkeit erlangt, uns selber auszulöschen. Mit der Entwicklung der Atomkraft haben wir diese Schwelle überschritten. Mittlerweile scheinen wir diese Gefahr weniger ernst zu nehmen als noch zu Zeiten des kalten Krieges.

(Lesezeit: 9 Minuten)

Zurzeit stehen eher andere Risiken im Zentrum der öffentlichen Aufmerksamkeit: Katastrophenrisiken statt Auslöschungsrisiken. Der Klimawandel ist ein klares Beispiel für ein Katastrophenrisiko: Er kann enormes Leid und Millionen von Toten bewirken, aber er wird die Menschheit kaum ausrotten. 

Auch wenn er viel schlimmer als erwartet ausfallen würde, so könnten sich doch zumindest ein paar Reiche das Überleben sichern. Das wäre eine Ungerechtigkeit historischen Ausmasses, aber es wäre etwas anderes als eine vollkommene Auslöschung. Ein Comeback für die Menschheit wäre in diesem Fall noch möglich.

(Bild: Gerd Altmann auf Pixabay)

Lichter aus – ein realistisches Szenario?

Wie hoch ist denn die Wahrscheinlichkeit, dass die Lichter ganz ausgehen? In einer kürzlichen Studie1 wurden Menschen befragt, die in der Vergangenheit eine besonders gute Erfolgsbilanz beim Erkennen von zukünftigen Trends bewiesen haben. Sie schätzten die Wahrscheinlichkeit einer Auslöschung der Menschheit bis 2100 auf ein Prozent. In derselben Studie schätzten die Fachleute im Bereich der Grossrisiken diese Wahrscheinlichkeit sogar auf sechs Prozent. Toby Ord hat eines der wichtigsten Bücher2 zu diesem Thema geschrieben, er schätzt das Risiko gar auf rund 17 Prozent. Man könnte vermuten, diese hohe Schätzung könne nur der Panik eines von Verschwörungen geblendeten Wirrkopfs entspringen, aber in Ords Zeilen trifft man eher auf die ernste Sorge eines nüchternen Wissenschafters.

 

Wie könnte es denn so weit kommen?

Was sind denn plausible Szenarien für ein baldiges Ende der Menschheit? Die Treiber von Auslöschungsrisiken sehen anders aus als die Treiber von «blossen» Katastrophen. Während beispielsweise eine natürlich entstandene Pandemie ein Katastrophenrisiko ist, ist eine künstlich ausgelöste Pandemie, die durch menschlich kreierte Krankheitserreger verursacht wurde, ein viel grösseres Auslöschungsrisiko für die Menschheit. Ein zweites zentrales Auslöschungsrisiko ist der Atomkrieg; dies weniger wegen seiner direkten Auswirkungen, sondern mehr wegen eines darauffolgenden «atomaren Winters». Als ein drittes – und mit Abstand grösstes – Auslöschungsrisiko wird oft die künstliche Intelligenz (KI) angesehen.

 

Künstliche Intelligenz als grosses Risiko

Es ist nicht auf Anhieb ersichtlich, weshalb KI derart gefährlich sein soll. Andere ethische Probleme der KI sind uns vertrauter: Diskriminierung, Privatsphärenverletzung, Arbeitslosigkeit usw. Demgegenüber werden die Auslöschungsrisiken oft als Science-Fiction-Hype abgetan.

Das scheint mir aus zwei Gründen ein Fehler. Erstens haben die «falschen» Leute Angst vor den Extremszenarien: nämlich einerseits Leute, die sich gut auskennen und andererseits Leute, die etwas zu verlieren haben. In einer kürzlichen Umfrage3 unter Autorinnen und Autoren in den besten wissenschaftlichen Zeitschriften zu KI schätzte über ein Drittel die Gefahr einer Auslöschung der Menschheit (oder eines ähnlich schlimmen Ausgangs) auf mindestens zehn Prozent! Zudem gehören Vertreter der grossen KI-Firmen zu den Warnern4. Im Klimabereich wäre es unvorstellbar, dass gerade Vertreter der Erdölfirmen prominent auf die Risiken hinweisen. Mit anderen Worten: Existenzielle Ängste aus dieser Ecke sollten uns Sorgen machen. Jedenfalls mehr Sorgen, als wenn sie von unserem schrulligen, technologiefeindlichen Nachbarn kämen.

Zweitens sind die Argumente für Extremrisiken schlicht plausibel. Wer sie mit einem müden Lächeln abtut, hat oft noch nicht richtig verinnerlicht, was es bedeutet, wenn Maschinen tatsächlich alles besser können als wir Menschen. Solche Maschinen gibt es noch nicht. Aber viele machen den Fehler, den heutigen Fähigkeiten der KI mehr Aufmerksamkeit zu schenken als den gegenwärtigen Trends. Die heutigen Fähigkeiten sind beschränkt, aber die Trends zeigen steil nach oben. Eine enorm fähige KI könnte die Menschheit auslöschen, ohne dass ihr dieses Ziel vorgegeben wurde.

In einem klassischen Beispiel: Wenn man eine KI beauftragt, so viele Büroklammern wie möglich herzustellen, ohne ihr bezüglich der Mittel Grenzen zu setzen, könnte die KI «so viele wie möglich» wörtlich verstehen. Das könnte sie dazu führen, alle Menschen zu töten, damit sie auch ja niemand an ihrer Zielerreichung hindert (und bevor sie alle Menschen tötet, könnte sie zuerst sicherstellen, dass sie nicht abgestellt werden kann). Dieses Beispiel setzt weder voraus, dass jemand die KI mit bösen Absichten missbraucht noch dass die KI in irgendeinem echten Sinn bewusst oder intelligent ist. Das Beispiel ist natürlich extrem holzschnittartig konstruiert. Aber es erfasst den Kern des Problems, denn nicht einmal die Erschaffer der KI verstehen wirklich, was «im Innern» der KI vor sich geht. Und somit könnte es erstaunlich schwierig werden, diesen mächtigen Maschinen die richtigen Ziele und Leitplanken vorzugeben.

 

Ein Rätsel für die Christenheit

Wäre eine Auslöschung der Menschheit im Jahr 2083 überhaupt ein Problem – mal abgesehen vom Leid, das in den Monaten des Aussterbens über die Welt kommen würde? Wenn Sie als Stiftungsratspräsidentin über 10 Millionen verfügen könnten, würden Sie damit lieber tausend Menschen aus der Armut befreien oder das Auslöschungsrisiko für die Menschheit um 0.01% senken?

Aus säkularer Perspektive mag man bei einem baldigen Ende der Menschheit bedauern, dass damit der grösste Teil aller möglichen Menschen nie geboren werden könnten. Man mag auch bedauern, dass die Menschheit womöglich den besten Teil ihrer Geschichte verpassen würde. Vielleicht wäre uns ja noch eine grosse Zukunft bevorgestanden, in der wir alles Unvollkommene – wie Armut, Trostlosigkeit und Unwissen – durch Gerechtigkeit, Schönheit und Wahrheit ersetzt hätten. Weil so viel auf dem Spiel steht, haben manche Weltverbesserer aufgehört, sich gegen «kleine» Probleme wie die gegenwärtige soziale Ungleichheit einzusetzen und sich stattdessen ganz auf den Kampf gegen die Auslöschung der Menschheit konzentriert.

Aus christlicher Perspektive ist das alles viel weniger klar. Man könnte Jesus mit seiner Feststellung zum Ende der Welt zitieren: «Ihr wisst weder Tag noch Stunde» – und auf eine Arbeitsteilung schliessen: Gott kümmert sich darum, wie lange genau die Menschheit fortbesteht, und wir kümmern uns während dieses Fortbestehens um das Wohlergehen der Menschheit. Unsere Aufgabe wäre es, Leid, Katastrophen und Ungerechtigkeit – nicht aber das Auslöschungsrisiko – zu verringern.

Aber ist das nicht zu einfach? Wir kennen zwar weder den Tag noch die Stunde des Endes dieser Zeiten, aber sollte die neuartige Möglichkeit, das Risiko unseres eigenen Aussterbens zu beeinflussen, nicht auch unsere Prioritäten mitbestimmen5? Wenn wir unseren Nächsten nicht töten sollen, dann sollten wir doch sicherlich auch nicht alle unsere Nächsten töten – vor allem nicht mittels Technologien, die man nur aufgrund von Überheblichkeit für kontrollierbar halten kann?

Wenn uns die Bibel den Auftrag gibt, die Erde zu füllen, hätte unsere Generation dann nicht schamvoll versagt, wenn sie diese Erde komplett leeren und somit den Menschen in seiner Gottesebenbildlichkeit von der Erdoberfläche verschwinden lassen würde? 

Als die Juden in alttestamentlicher Zeit einem Auslöschungsrisiko ausgesetzt waren, da sagte Mordechai (sinngemäss) zu Esther: Gott wird eine Auslöschung des jüdischen Volks auf jeden Fall verhindern, aber dieses Verhindern sollte durch Esthers Handeln geschehen6

Mit anderen Worten: Gott hat den Lauf der Geschichte zwar in der Hand, aber das heisst nicht, dass Menschen wie Esther, die Einflussmöglichkeiten haben, sich wie passive Zuschauer verhalten sollen. Könnte das für uns bedeuten, dass Gott zwar ein vorzeitiges Ende der Menschheit verhindern wird, dieses Verhindern aber auch durch unseren Einsatz geschehen sollte?

 

1 https://forecastingresearch.org/s/XPT.pdf 

2 Toby Ord (2020), The Precipice (London: Bloomsbury)

3 https://aiimpacts.org/wp-content/uploads/2023/04/Thousands_of_AI_authors_on_the_future_of_AI.pdf

4 Siehe z.B.: https://www.safe.ai/statement-on-ai-risk

5 Siehe auch Riedener, Stefan (2022), «Human Extinction from a Thomist Perspective», in Roser, Dominic, Riedener, Stefan und Huppenbauer, Markus, Effective Altruism and Religion: Synergies, Tensions, Dialogue (Baden-Baden: Nomos).

6 Esther 4,14

Schreiben Sie einen Kommentar