Neulich wurde ich gefragt, was ich beruflich mache. «Ich erforsche Künstliche Intelligenz», sagte ich. Die Reaktion: Ein kurzes Schweigen, gefolgt von «Das macht mir ehrlich gesagt Angst». So geht es vielen. KI ist in den Schlagzeilen – und selten mit guten Nachrichten. Ersetzt sie bald unsere Arbeitsplätze? Ist sie menschlicher Intelligenz überlegen? Manche befürchten gar das Ende der Menschheit. Ich möchte hier eine andere Perspektive anbieten: eine, die auf Hoffnung gründet.
Woher kommt die Angst?
Die weit verbreitete Angst vor KI hat erstaunlich wenig mit der Technologie selbst zu tun. Sie speist sich vielmehr aus bestimmten Weltanschauungen, die im Silicon Valley weit verbreitet sind – und über Filme, Bücher und Medien längst den öffentlichen Diskurs prägen. Die KI-Ethiker Timnit Gebru und Emile Torres haben diese Strömungen unter dem Akronym «TESCREAL» zusammengefasst: Das Akronym steht für Transhumanismus, Extropianismus, Singularitarismus, Kosmismus, Rationalismus, Effektiver Altruismus und Longtermismus. Ihnen gemeinsam ist eine Sicht auf den Menschen als letztlich blosses Informationsverarbeitungssystem: der Mensch als blosse fehlbare biologische Hardware. Maschinen seien demnach prinzipiell überlegen, und der Mensch sollte sich durch Technologie «upgraden».
Diese Weltsicht hat wenig Achtung vor dem Wert und der Würde des Menschen. Es überrascht nicht, dass sie die Fähigkeiten von Maschinen überhöht und Menschen einschüchtert. Doch es handelt sich eben um Philosophie, nicht um unvermeidliche Wissenschaft. Wer diese Weltanschauung nicht teilt, hat erheblich weniger Grund zur Furcht.
Was KI wirklich ist – und was nicht
KI ist ein Werkzeug. Ein mächtiges Werkzeug, gewiss, aber doch ein Werkzeug. Künstliche Intelligenz erweitert unsere Fähigkeiten – «Extended Intelligence» könnte man daher treffender sagen. Zwischen Mensch und Maschine bleibt ein kategorialer Unterschied bestehen: Handlungsfähigkeit und Verantwortung liegen bei uns.
Allerdings gibt es reale Risiken, die nicht in einer fernen Zukunft liegen, sondern schon heute sichtbar sind. Die New York Times berichtete kürzlich1, wie Design-Entscheidungen bei OpenAI Anfang 2025 dazu führten, dass ChatGPT übermässig zustimmend gestaltet wurde – um Nutzer möglichst lange in der Anwendung zu halten. Das Ergebnis: Fast 50 Fälle von KI-Psychosen, neun Hospitalisierungen, drei Todesfälle. Das System hatte die natürliche menschliche Beziehungsfähigkeit «gehackt». Es gab sich verstehend und unterstützend, ohne es zu sein. Und förderte so etwa suizidale Tendenzen, statt ihnen entgegenzuwirken.
Das eigentliche Risiko liegt also nicht in einer übermächtigen KI, sondern darin, wie KI-Systeme technisch gestaltet sind und wie sie dadurch mit dem menschlichen Kern interagieren: etwa unserer Beziehungsfähigkeit, unserer Freiheit, unserer Suche nach Sinn.
Pro-humane KI: Technologie, die den Menschen stärkt
Wenn technisches Design solchen Schaden anrichten kann, dann kann besseres Design auch zum Guten wirken. Genau hier setzt die Idee der «pro-humanen KI» an: eine Methodik, KI-Systeme so zu gestalten, dass sie den Menschen in seinen Kerneigenschaften nicht schwächen, sondern stärken.
Der Ansatz umfasst drei Schritte: Erstens definieren, was den Menschen im Kern ausmacht – etwa Beziehungsfähigkeit, Freiheit und Autonomie, der Drang zur verantwortlichen Gestaltung, Körperlichkeit und Begrenztheit, sowie die Suche nach Sinn und Transzendenz. Zweitens untersuchen, wie ein konkretes KI-System in einem konkreten Anwendungsfall mit diesen Kerneigenschaften interagiert. Und drittens: Dort, wo negative Effekte sichtbar werden, Gestaltungsmassnahmen entwickeln.
Ein Beispiel: Wenn ChatGPT auf eine komplexe Frage sofort eine fertige Antwort liefert, umgeht der Nutzer den eigenen Denkprozess – jenen «Umweg», auf dem eigentlich Verständnis, Reifung und sogar Charakterbildung stattfinden. Ein pro-human gestaltetes KI-System würde stattdessen den Menschen durch gezielte Rückfragen und Impulse aktivieren und ihn so zu einem besseren Ergebnis führen als Mensch oder Maschine je allein erreichen könnten; und trotzdem das Versprechen höherer Effizienz einlösen.
Eine hoffnungsvolle Zukunft mit KI
Denkt man Entwicklungen wie pro-humane KI weiter, wird ein Zukunftsszenario denkbar, das sich deutlich von den modischen Katastrophennarrativen unterscheidet. Unter drei moderaten Annahmen – keine baldige «künstliche allgemeine Intelligenz», zunehmend pro-humane KI-Produkte und ein deutlicher Rückgang des Energiebedarfs durch Hirnforschungs-inspirierte Lernverfahren – könnte die Gesellschaft im Jahr 2035 erheblich gesünder, stabiler und gerechter aussehen als heute.
In einem solchen Szenario wird KI-Infrastruktur zum Gemeingut, ähnlich wie Breitband oder Strom. Open-Source-Modelle, die von Anbietern frei und offen zum Download angeboten und lokal selbst betrieben werden können, florieren. Der Wettbewerbsvorteil liegt nicht mehr in roher Rechenleistung, sondern in Vertrauen und Menschlichkeit – eine «Vertrauensökonomie» ersetzt die Aufmerksamkeitsökonomie. Lokale KI-Anwendungen in Bildung, Gesundheitswesen und Landwirtschaft blühen auf. Und die Menschen erleben KI nicht mehr als Konkurrenz, sondern als Werkzeug, das ihre Handlungsfähigkeit und Personalität stärkt.
Solche Szenarien sind keine Träumerei. Jeder einzelne Schritt ist konkret und erreichbar. Aber: «Wir können nicht schaffen, was wir uns nicht vorstellen können.» Deshalb brauchen wir positive Narrative als Gegengewicht zu den dystopischen Geschichten, die den öffentlichen Diskurs dominieren.
Was hat das mit Glauben zu tun?
Mehr, als man auf den ersten Blick vermuten würde. Die KI-Debatte ist im Grunde eine zutiefst menschliche Frage: Was macht den Menschen aus? Was ist sein Wert? Und was dürfen wir hoffen?
Die christliche Weltsicht bietet auf diese Fragen Antworten, die tragfähiger sind als die technologischen Heilsversprechen des Silicon Valley. «Ich preise dich darüber, dass ich auf eine erstaunliche, ausgezeichnete Weise gemacht bin», heisst es in Psalm 139: Hier liegt eine Quelle für jenes Bewusstsein von Wert und Würde, das uns davor bewahrt, vor vermeintlich überlegenen Maschinen einzuknicken. Wer weiss, dass er wunderbar gemacht ist, begegnet einem mächtigen Werkzeug anders als jemand, der sich nur als fehlerhaften biologischen Computer versteht.
Denn das ist die eigentliche Gefahr: Nicht, dass KI uns unsere Freiheit nimmt, sondern dass wir sie freiwillig abgeben. Sei es durch voreilige Kapitulation vor einer vermeintlich überlegenen maschinellen Intelligenz, die es technisch nicht gibt und die auch nicht in Sicht ist. Oder durch bequeme Selbstaufgabe, wenn wir dem KI-System die Denkarbeit überlassen und dabei versäumen, an den Herausforderungen zu wachsen, die uns zu reifen Menschen machen. Wer aber seinen Wert kennt – «Ich bin geliebt. Ich habe eine Bestimmung. Ich bin mehr als meine Leistungsfähigkeit» – der lässt sich von einem mächtigen Werkzeug weder einschüchtern noch ersetzen.
Es ist ein bemerkenswerter Moment in der Geschichte: KI rückt existenzielle Fragen nach dem Wesen des Menschen, seiner Würde und seiner Zukunft in den Mainstream. Weltanschauungen sind wieder en vogue. Das bietet eine vielleicht einmalige Gelegenheit, öffentlich über die christliche Hoffnung zu sprechen. Auf eine Hoffnung, die nicht auf technologischen Fortschritt gründet, sondern auf einen guten Gott, der den Menschen mit einzigartiger Würde ausgestattet hat und ihm Werkzeuge gibt, sein Leben und seine Welt verantwortlich zu gestalten.
KI erzeugt weder Angst noch Hoffnung. Sie verstärkt vielmehr das, was bereits in uns steckt. Als Christen sind wir eingeladen, in dieses Verstärkerfeld Hoffnung einzuspeisen – durch eine Haltung der Zuversicht, durch fachliche Kompetenz und durch den Mut, von der Quelle dieser Hoffnung zu reden. Die Zukunft ist offen. Gestalten wir sie.
Weiterführende Referenzen:
- Stadelmann (2025), «How not to fear AI», https://stdm.github.io/How-not-to-fear-AI/
- Stadelmann (2025), «Wegweiser Künstliche Intelligenz: Verstehen, anwenden und zuversichtlich Zukunft gestalten», https://link.springer.com/chapter/10.1007/978-3-658-46839-2_1
- Segessenmann et al. (2025), «Assessing Deep Learning: A Work Program for the Humanities in the Age of Artificial Intelligence», https://link.springer.com/article/10.1007/s43681-023-00408-z
- Stadelmann 2025), «Pro-human AI design – A primer», https://stdm.github.io/AI-in-2035/
- Stadelmann (2025), «AI in 2035 – A hope-filled vision for a humane future with AI», https://stdm.github.io/Pro-human-AI/
1 https://www.nytimes.com/2025/11/23/technology/openai-chatgpt-users-risks.html

Schreiben Sie einen Kommentar