Informationstechnologie: KI – Zeit, Hoffnung zu verbreiten

Künstliche Intelligenz (KI) macht vielen Menschen Angst. Doch diese Angst basiert letztlich weniger auf Technologie als auf Weltanschauung. Was, wenn eine hoffnungsvollere Sicht möglich wäre, eine, die den Wert des Menschen ins Zentrum stellt und die Zukunft mit KI bewusst menschlich gestaltet? Ein Plädoyer für pro-humane KI und die Hoffnung, die in einer christlichen Weltsicht gründet.

(Lesezeit: 10 Minuten)

Neulich wurde ich gefragt, was ich beruflich mache. «Ich erforsche Künstliche Intelligenz», sagte ich. Die Reaktion: Ein kurzes Schweigen, gefolgt von «Das macht mir ehrlich gesagt Angst». So geht es vielen. KI ist in den Schlagzeilen – und selten mit guten Nachrichten. Ersetzt sie bald unsere Arbeitsplätze? Ist sie menschlicher Intelligenz überlegen? Manche befürchten gar das Ende der Menschheit. Ich möchte hier eine andere Perspektive anbieten: eine, die auf Hoffnung gründet.

(Bild von Gerd Altmann auf Pixabay)

Woher kommt die Angst?

Die weit verbreitete Angst vor KI hat erstaunlich wenig mit der Technologie selbst zu tun. Sie speist sich vielmehr aus bestimmten Weltanschauungen, die im Silicon Valley weit verbreitet sind – und über Filme, Bücher und Medien längst den öffentlichen Diskurs prägen. Die KI-Ethiker Timnit Gebru und Emile Torres haben diese Strömungen unter dem Akronym «TESCREAL» zusammengefasst: Das Akronym steht für Transhumanismus, Extropianismus, Singularitarismus, Kosmismus, Rationalismus, Effektiver Altruismus und Longtermismus. Ihnen gemeinsam ist eine Sicht auf den Menschen als letztlich blosses Informationsverarbeitungssystem: der Mensch als blosse fehlbare biologische Hardware. Maschinen seien demnach prinzipiell überlegen, und der Mensch sollte sich durch Technologie «upgraden».

Diese Weltsicht hat wenig Achtung vor dem Wert und der Würde des Menschen. Es überrascht nicht, dass sie die Fähigkeiten von Maschinen überhöht und Menschen einschüchtert. Doch es handelt sich eben um Philosophie, nicht um unvermeidliche Wissenschaft. Wer diese Weltanschauung nicht teilt, hat erheblich weniger Grund zur Furcht.

 

Was KI wirklich ist – und was nicht

KI ist ein Werkzeug. Ein mächtiges Werkzeug, gewiss, aber doch ein Werkzeug. Künstliche Intelligenz erweitert unsere Fähigkeiten – «Extended Intelligence» könnte man daher treffender sagen. Zwischen Mensch und Maschine bleibt ein kategorialer Unterschied bestehen: Handlungsfähigkeit und Verantwortung liegen bei uns.

Allerdings gibt es reale Risiken, die nicht in einer fernen Zukunft liegen, sondern schon heute sichtbar sind. Die New York Times berichtete kürzlich1, wie Design-Entscheidungen bei OpenAI Anfang 2025 dazu führten, dass ChatGPT übermässig zustimmend gestaltet wurde – um Nutzer möglichst lange in der Anwendung zu halten. Das Ergebnis: Fast 50 Fälle von KI-Psychosen, neun Hospitalisierungen, drei Todesfälle. Das System hatte die natürliche menschliche Beziehungsfähigkeit «gehackt». Es gab sich verstehend und unterstützend, ohne es zu sein. Und förderte so etwa suizidale Tendenzen, statt ihnen entgegenzuwirken.

Das eigentliche Risiko liegt also nicht in einer übermächtigen KI, sondern darin, wie KI-Systeme technisch gestaltet sind und wie sie dadurch mit dem menschlichen Kern interagieren: etwa unserer Beziehungsfähigkeit, unserer Freiheit, unserer Suche nach Sinn.

 

Pro-humane KI: Technologie, die den Menschen stärkt

Wenn technisches Design solchen Schaden anrichten kann, dann kann besseres Design auch zum Guten wirken. Genau hier setzt die Idee der «pro-humanen KI» an: eine Methodik, KI-Systeme so zu gestalten, dass sie den Menschen in seinen Kerneigenschaften nicht schwächen, sondern stärken.

Der Ansatz umfasst drei Schritte: Erstens definieren, was den Menschen im Kern ausmacht – etwa Beziehungsfähigkeit, Freiheit und Autonomie, der Drang zur verantwortlichen Gestaltung, Körperlichkeit und Begrenztheit, sowie die Suche nach Sinn und Transzendenz. Zweitens untersuchen, wie ein konkretes KI-System in einem konkreten Anwendungsfall mit diesen Kerneigenschaften interagiert. Und drittens: Dort, wo negative Effekte sichtbar werden, Gestaltungsmassnahmen entwickeln.

Ein Beispiel: Wenn ChatGPT auf eine komplexe Frage sofort eine fertige Antwort liefert, umgeht der Nutzer den eigenen Denkprozess – jenen «Umweg», auf dem eigentlich Verständnis, Reifung und sogar Charakterbildung stattfinden. Ein pro-human gestaltetes KI-System würde stattdessen den Menschen durch gezielte Rückfragen und Impulse aktivieren und ihn so zu einem besseren Ergebnis führen als Mensch oder Maschine je allein erreichen könnten; und trotzdem das Versprechen höherer Effizienz einlösen.

Eine hoffnungsvolle Zukunft mit KI

Denkt man Entwicklungen wie pro-humane KI weiter, wird ein Zukunftsszenario denkbar, das sich deutlich von den modischen Katastrophennarrativen unterscheidet. Unter drei moderaten Annahmen – keine baldige «künstliche allgemeine Intelligenz», zunehmend pro-humane KI-Produkte und ein deutlicher Rückgang des Energiebedarfs durch Hirnforschungs-inspirierte Lernverfahren – könnte die Gesellschaft im Jahr 2035 erheblich gesünder, stabiler und gerechter aussehen als heute.

In einem solchen Szenario wird KI-Infrastruktur zum Gemeingut, ähnlich wie Breitband oder Strom. Open-Source-Modelle, die von Anbietern frei und offen zum Download angeboten und lokal selbst betrieben werden können, florieren. Der Wettbewerbsvorteil liegt nicht mehr in roher Rechenleistung, sondern in Vertrauen und Menschlichkeit – eine «Vertrauensökonomie» ersetzt die Aufmerksamkeitsökonomie. Lokale KI-Anwendungen in Bildung, Gesundheitswesen und Landwirtschaft blühen auf. Und die Menschen erleben KI nicht mehr als Konkurrenz, sondern als Werkzeug, das ihre Handlungsfähigkeit und Personalität stärkt.

Solche Szenarien sind keine Träumerei. Jeder einzelne Schritt ist konkret und erreichbar. Aber: «Wir können nicht schaffen, was wir uns nicht vorstellen können.» Deshalb brauchen wir positive Narrative als Gegengewicht zu den dystopischen Geschichten, die den öffentlichen Diskurs dominieren.

 

Was hat das mit Glauben zu tun?

Mehr, als man auf den ersten Blick vermuten würde. Die KI-Debatte ist im Grunde eine zutiefst menschliche Frage: Was macht den Menschen aus? Was ist sein Wert? Und was dürfen wir hoffen?

Die christliche Weltsicht bietet auf diese Fragen Antworten, die tragfähiger sind als die technologischen Heilsversprechen des Silicon Valley. «Ich preise dich darüber, dass ich auf eine erstaunliche, ausgezeichnete Weise gemacht bin», heisst es in Psalm 139: Hier liegt eine Quelle für jenes Bewusstsein von Wert und Würde, das uns davor bewahrt, vor vermeintlich überlegenen Maschinen einzuknicken. Wer weiss, dass er wunderbar gemacht ist, begegnet einem mächtigen Werkzeug anders als jemand, der sich nur als fehlerhaften biologischen Computer versteht.

Denn das ist die eigentliche Gefahr: Nicht, dass KI uns unsere Freiheit nimmt, sondern dass wir sie freiwillig abgeben. Sei es durch voreilige Kapitulation vor einer vermeintlich überlegenen maschinellen Intelligenz, die es technisch nicht gibt und die auch nicht in Sicht ist. Oder durch bequeme Selbstaufgabe, wenn wir dem KI-System die Denkarbeit überlassen und dabei versäumen, an den Herausforderungen zu wachsen, die uns zu reifen Menschen machen. Wer aber seinen Wert kennt – «Ich bin geliebt. Ich habe eine Bestimmung. Ich bin mehr als meine Leistungsfähigkeit» – der lässt sich von einem mächtigen Werkzeug weder einschüchtern noch ersetzen.

Es ist ein bemerkenswerter Moment in der Geschichte: KI rückt existenzielle Fragen nach dem Wesen des Menschen, seiner Würde und seiner Zukunft in den Mainstream. Weltanschauungen sind wieder en vogue. Das bietet eine vielleicht einmalige Gelegenheit, öffentlich über die christliche Hoffnung zu sprechen. Auf eine Hoffnung, die nicht auf technologischen Fortschritt gründet, sondern auf einen guten Gott, der den Menschen mit einzigartiger Würde ausgestattet hat und ihm Werkzeuge gibt, sein Leben und seine Welt verantwortlich zu gestalten.

KI erzeugt weder Angst noch Hoffnung. Sie verstärkt vielmehr das, was bereits in uns steckt. Als Christen sind wir eingeladen, in dieses Verstärkerfeld Hoffnung einzuspeisen – durch eine Haltung der Zuversicht, durch fachliche Kompetenz und durch den Mut, von der Quelle dieser Hoffnung zu reden. Die Zukunft ist offen. Gestalten wir sie.

 

Weiterführende Referenzen:

Stadelmann (2025), How not to fear AI, https://stdm.github.io/How-not-to-fear-AI/

Stadelmann (2025), Wegweiser Künstliche Intelligenz: Verstehen, anwenden und zuversichtlich Zukunft gestalten, https://link.springer.com/chapter/10.1007/978-3-658-46839-2_1

Segessenmann et al. (2025), Assessing Deep Learning: A Work Program for the Humanities in the Age of Artificial Intelligence, https://link.springer.com/article/10.1007/s43681-023-00408-z

Stadelmann 2025), Pro-human AI design – A primer, https://stdm.github.io/AI-in-2035/

Stadelmann (2025), AI in 2035 – A hope-filled vision for a humane future with AI, https://stdm.github.io/Pro-human-AI/

 

1 https://www.nytimes.com/2025/11/23/technology/openai-chatgpt-users-risks.html

Schreiben Sie einen Kommentar

Kommentare

Dominic Roser schreibt
am 2. April 2026
Danke für diesen starken, reichhaltigen Text!

Auch wenn ich eine stark andere Meinung habe, möchte ich zuerst betonen, wo ich einverstanden bin: KI hat enorm viel positives Potenzial! (Und ich bin auch einverstanden: es besteht ein kategorialer Unterschied zwischen Mensch und Maschine).

Zuerst einmal möchte ich betonen: Man kann gleichzeitig glauben, dass es mit der KI sowohl extrem gut wie auch extrem schlecht kommen könnte. Das ist kein logischer Widerspruch. Nur weil es Grund zur Hoffnung gibt, heisst das nicht, dass es nicht *auch* begründeten Anlass zur Angst geben könnte. Angst, die uns Gott nehmen kann, weil er stärker ist als die Mächte dieser Welt -- aber trotzdem sehr begründeten Anlass zur Angst.

Im Text präsentieren Sie aber ein Argument, warum die KI-Katastrophenszenarien uns keine Angst machen sollten. Nämlich: diese Katastrophenszenarien wurzeln in einer bestimmten Weltanschauung (TESCREAL / Mensch = Maschine). Meines Erachtens gibt es zwei Probleme mit diesem Argument:

(1) Es ist ein Fehlschluss: Nur weil manche an X glauben und das auf der Basis der falschen Annahme Y tun, heisst das noch nicht, dass X falsch ist. Mit anderen Worten: Nur weil manche aus einem TESCREAL-Mindset heraus an Katastrophenszenarien glauben, heisst das noch nicht, dass die Katastrophenszenarien unbegründet sind. Es könnte ja schliesslich neben schlechten Gründen gleichzeitig auch *gute* Gründe geben, an die Katastrophenszenarien zu glauben. (Analogie: nur weil manche Leute aus Wunschdenken heraus an Gott glauben, heisst das noch nicht, dass es Gott nicht gibt. Nur weil es schlechte Gründe gibt, an Gott zu glauben, heisst das nicht, dass es nicht daneben auch gute Gründe geben kann).

(2) Das Argument zielt auf einen Strohmann ab. Die Argumente für KI-Katastrophenszenarien werden ja eben genau *nicht* nur von TESCREAL-Bubbles vertreten. Beispielsweise hat auch der ehemalige amerikanische Notenbankchef hat Yukowkskys Buch gepriesen (was ja ein bisschen der Oberprophet der KI-Katastrophe ist). Zwei der drei KI-“Godfathers” (Nobelpreisträger Hinton und der meistzitierte lebende Wissenschaftler der Welt Bengio) – ebenso wie ein erstaunlich hoher Anteil der KI-Forschenden – nehmen die Katastrophenszenarien sehr ernst.
Dazu kommt: das Kernargument, weshalb KI die Menschheit auslöschen könnte, ist 100% kompatibel mit der Annahme, dass zwischen Mensch und Maschine ein kategorialer Unterschied besteht. Das Argument basiert *nur* darauf, dass (1) KI sehr, sehr fähig ist und (2) dass es schwierig ist, der KI geeignete Ziele & Leitplanken vorzugeben (oder dass es sehr schwierig ist, zu verhindern, dass die sehr, sehr fähige KI von bösartigen Akteuren missbraucht wird).

Und noch ein PS: Es tut mir schon etwas weh, wenn bei TESCREAL der effektive Altruismus miteingerechnet wird. Gerade diese Woche erschien zB dieser Kommentar (von christlichen effektiven Altruist:innen: https://christandcounterfactuals.substack.com/p/leave-ea-out-of-tescreal). Dazu kommt: dieses Kürzel ist ein Kampfbegriff von einem forschenden Menschen, welche:n ich ganz ehrlich als einer der problematischsten Diskussionsteilnehmer erlebt habe (Émile Torres). Ich glaube wirklich nicht, dass der Begriff eine hilfreiche Grundlage für eine gute Debatte ist. Er verzerrt viel mehr als er erhellt.