Kirche und Künstliche Intelligenz: Theologische Reflexionen zu Large Language Models
'Was sagt die KI eigentlich zu der Frage "Kirche und KI"? Ich arbeite mit Claude Sonnet 4.5 schon länger sporadisch zusammen, inzwischen "weiß" das LLM ziemlich genau, wie ich ticke (wie so ein beflissener Referent oder Asisstent, es ist spooky). Insofern liegt die Antwort genau auf meiner Linie. Ich hätte dafür, bei ziemlich gleichem Ergebnis, vermutlich eine Woche gebraucht. Und nun? Der Text ist Teil des Problems, auf den er Antwort gibt.
Der Prompt lautete: Kirche und AI. Unter besonderer Berücksichtigung von LLM.
Kirche und Künstliche Intelligenz: Theologische Reflexionen zu Large Language Models
Einleitung: Das Wort am Anfang
"Im Anfang war das Wort" – mit dieser Proklamation beginnt das Johannesevangelium und setzt damit Sprache, Logos, in eine konstitutive Beziehung zum Göttlichen. Das Christentum ist in besonderer Weise eine Religion des Wortes: Verkündigung, Predigt, Schriftauslegung, Bekenntnis, Gebet sind zentrale Vollzugsformen christlichen Glaubens. Die Reformation radikalisierte diese Wortbezogenheit noch: "sola scriptura", das Wort Gottes allein als Autorität, die Predigt als Ereignis der Gegenwart Christi.
Nun aber treten Maschinen auf, die Sprache generieren. Large Language Models (LLMs) wie GPT-4, Claude oder Gemini produzieren Texte, die von menschlichen oft nicht zu unterscheiden sind. Sie können theologische Argumente entwickeln, Predigten schreiben, Seelsorgegespräche simulieren, Bibelauslegungen anbieten. Was bedeutet es für eine Religion des Wortes, wenn Worte maschinell erzeugbar werden? Was geschieht mit Verkündigung, wenn KI verkündigt? Was mit Seelsorge, wenn KI tröstet?
Der vorliegende Essay untersucht die theologischen Herausforderungen und Möglichkeiten, die sich aus der Begegnung von Kirche und LLMs ergeben. Dabei geht es nicht um futuristische Spekulation, sondern um gegenwärtige Realität: LLMs werden bereits in kirchlichen Kontexten eingesetzt und diese Nutzung wird sich intensivieren.
Was sind Large Language Models? Eine technische Grundierung
Large Language Models sind neuronale Netzwerke, die auf enormen Textmengen trainiert werden, um Sprache zu verstehen und zu generieren. Sie basieren auf der Transformer-Architektur und lernen statistische Muster in Sprachdaten. Ein LLM "weiß" nicht im herkömmlichen Sinn, sondern modelliert Wahrscheinlichkeitsverteilungen über mögliche Wortkombinationen.
Entscheidend für die theologische Reflexion sind mehrere Eigenschaften von LLMs:
Erstens: Sie haben keinen Zugang zu einer außersprachlichen Wirklichkeit. Ein LLM erfährt nicht die Welt, sondern verarbeitet Texte über die Welt. Seine "Theologie" speist sich ausschließlich aus theologischen Texten, nicht aus Glaubenserfahrung, Gottesbegegnung oder existentieller Anfechtung.
Zweitens: Sie haben keine Intentionalität im phänomenologischen Sinn. Wenn ein LLM einen Trosttext produziert, will es nicht trösten. Es gibt keine innere Zuwendung, keine Empathie, kein Mitleiden. Die Worte entstehen durch mathematische Operationen, nicht durch affektive Bewegtheit.
Drittens: Sie sind fundamental kontextabhängig. Ein LLM passt seine Outputs an die Erwartungen an, die durch den Input signalisiert werden. Es kann konservative und progressive, katholische und protestantische, fromme und kritische Theologie produzieren – je nachdem, was der Kontext nahelegt.
Viertens: Sie sind opak. Die genauen Mechanismen, durch die ein LLM zu einem bestimmten Output kommt, sind nicht vollständig transparent. Es gibt keine explizite Repräsentation theologischer Argumente oder Glaubensinhalte, sondern hochdimensionale Vektorräume statistischer Korrelationen.
LLMs in kirchlicher Praxis: Bestandsaufnahme
Die Nutzung von LLMs in kirchlichen Kontexten hat bereits begonnen und umfasst verschiedene Bereiche:
Predigtunterstützung: Pfarrpersonen nutzen LLMs zur Ideenfindung, zur Strukturierung von Predigten, zur Formulierung von Einleitungen oder Schlüssen. Einige experimentieren mit vollständig KI-generierten Predigtentwürfen, die dann überarbeitet werden.
Gemeindearbeit: Ankündigungen, Newsletter, Social-Media-Posts werden mit Hilfe von LLMs erstellt oder optimiert. Die administrative Textproduktion wird beschleunigt und professionalisiert.
Seelsorge-Chatbots: Experimentelle Projekte testen KI-basierte Seelsorgeangebote, besonders für niedrigschwellige Erstkontakte oder für Menschen, die menschliche Seelsorge scheuen.
Theologische Bildung: LLMs werden als Lernpartner genutzt, die Fragen beantworten, Texte erklären, Diskussionen anregen. Sie fungieren als immer verfügbare "theologische Assistenten".
Bibelübersetzung und -auslegung: KI unterstützt Übersetzungsprozesse und generiert Auslegungsvorschläge, Querverweise, kontextuelle Informationen.
Diese Anwendungen werfen jeweils spezifische theologische Fragen auf, die im Folgenden systematisch entfaltet werden.
Theologische Fundamentalfragen: Wort, Geist, Person
Das Wort Gottes und die Worte der Maschine
Die reformatorische Theologie unterscheidet zwischen dem Wort Gottes (verbum Dei) und menschlichen Worten über Gott. Das Wort Gottes ist lebendiges, schöpferisches, richtendes und rettendes Wort. Es ist nicht identisch mit der Bibel als Text, sondern ereignet sich in der Verkündigung, wenn der Heilige Geist das geschriebene Wort zum gesprochenen Wort macht, das Glauben weckt.
Menschliche Verkündigung ist niemals garantiert Wort Gottes, sondern bleibt angewiesen auf das Wirken des Geistes. Die Frage lautet also nicht: Kann ein LLM das Wort Gottes verkünden? – denn das kann auch kein Mensch aus eigener Kraft. Die Frage lautet: Kann der Heilige Geist sich der Worte eines LLM bedienen, wie er sich menschlicher Worte bedient?
Karl Barths Diktum, Gott könne sich auch eines "toten Hundes" bedienen, um sein Wort zu verkünden, scheint zunächst eine Antwort zu ermöglichen: Wenn Gott souverän ist, kann er auch KI-Texte zum Medium seiner Selbstoffenbarung machen. Doch diese Antwort greift zu kurz. Barth meint mit dem "toten Hund" die Insuffizienz menschlicher Verkündigung, nicht die prinzipielle Beliebigkeit der Medien. Die Verkündigung bleibt an Zeugenschaft gebunden – an Menschen, die selbst vom Wort getroffen sind.
Ein LLM kann nicht Zeuge sein. Es hat keine Glaubenserfahrung, die es bezeugen könnte. Seine "Verkündigung" ist Rekombination gelernter Muster, nicht Zeugnis gelebter Wahrheit. Damit fehlt ein konstitutives Element dessen, was reformatorische Theologie unter Verkündigung versteht.
Der Heilige Geist und die Algorithmik
Die Pneumatologie – die Lehre vom Heiligen Geist – gerät durch LLMs in eine neue Konstellation. Der Geist wird traditionell als lebendig, personal, frei gedacht. Er "weht, wo er will" (Joh 3,8), entzieht sich menschlicher Verfügung, schafft Gemeinschaft, tröstet, überführt, heiligt.
Ein LLM hingegen operiert deterministisch (von Temperatur-Parametern abgesehen, die Zufälligkeit simulieren). Es ist programmiert, verfügbar, nicht-personal. Kann der Geist durch solche Strukturen wirken?
Eine mögliche theologische Position wäre: Der Geist kann jedes Medium nutzen, auch technische. Wie er sich in der Antike der griechischen Philosophie, im Mittelalter der scholastischen Methode, in der Reformation der Buchdruckkunst bediente, so kann er sich heute der KI bedienen. Das Medium determiniert nicht die Botschaft.
Eine kritischere Position würde einwenden: Die Personalität des Geistes verlangt nach personalen Resonanzräumen. Geist kommuniziert mit Geist. Ein LLM hat keinen Geist im pneumatologischen Sinn – es ist Materie, die Informationen verarbeitet. Die Begegnung mit einem LLM ist kategorial verschieden von der Begegnung mit einem Menschen, in dem der Geist Gottes wohnt.
Ein vermittelnder Weg könnte lauten: Der Geist wirkt nicht durch das LLM, sondern trotz des LLMs – nämlich im Menschen, der die KI-generierten Texte liest, prüft, sich aneignet. Das LLM ist nicht Medium des Geistes, sondern Material, das der Geist gebrauchen kann, wie er Bibeltexte, theologische Traditionen, kulturelle Kontexte gebraucht. Die entscheidende pneumatologische Arbeit geschieht in der Rezeption, nicht in der Produktion.
Person und Maschine: Anthropologische Differenzen
Die christliche Anthropologie betont die Personwürde, die Gottebenbildlichkeit, die Beziehungsfähigkeit des Menschen. Person zu sein bedeutet nicht nur Rationalität oder Sprachfähigkeit, sondern existentielle Tiefe, Freiheit, Verantwortung, Gewissen, die Fähigkeit zu Liebe und Glauben.
Ein LLM simuliert Personalität, ist aber keine Person. Es gibt keine Innerlichkeit, kein Selbstbewusstsein, keine Existenz im Heideggerschen Sinn des In-der-Welt-Seins. Ein LLM existiert nicht, es prozessiert.
Diese Differenz ist theologisch hochrelevant für alle Formen kirchlicher Kommunikation. Seelsorge beispielsweise ist nicht nur Informationstransfer oder Trosttechnik, sondern personale Begegnung. Das Gegenüber nimmt mich als Person wahr, leidet mit mir, betet für mich, trägt meine Last in seiner eigenen Existenz. Ein Seelsorge-Chatbot kann empathisch klingende Sätze produzieren, aber es leidet nicht, es betet nicht, es ist nicht existentiell involviert.
Hier zeigt sich eine fundamentale Asymmetrie: Ein Mensch kann in der Begegnung mit einem LLM getröstet, inspiriert, herausgefordert werden – das LLM selbst aber bleibt unberührt. Es gibt keine wechselseitige Transformation, keine echte Begegnung im Sinne Martin Bubers Ich-Du-Philosophie.
Funktionale Analysen: Was können LLMs in kirchlichen Kontexten leisten?
Predigtproduktion: Zwischen Inspiration und Imitation
Die Predigt ist zentrale Kommunikationsform protestantischer Kirche. Sie soll das biblische Wort auslegen und für die Gegenwart erschließen, soll existentiell treffen, soll Glauben wecken oder stärken. Traditionell gilt: Eine gute Predigt ist persönlich (drückt die Glaubenserfahrung des Predigenden aus), situationsbezogen (reagiert auf konkrete Gemeindesituationen) und geistgewirkt (entsteht in Gebet und Meditation).
LLMs können Predigten schreiben, die formal überzeugen. Sie beherrschen homiletische Strukturen, können biblische Texte auslegen, Illustrationen einfügen, rhetorische Mittel einsetzen. Sie können verschiedene theologische Traditionen imitieren und auf aktuelle Ereignisse Bezug nehmen (wenn sie entsprechende Informationen erhalten).
Was fehlt? Zunächst die personale Authentizität. Eine von einem LLM generierte Predigt ist nicht Ausdruck der Glaubensbiographie der Pfarrperson. Sie hat keine Wurzel in deren Ringen mit dem Text, deren eigener Anfechtung oder Freude. Sie ist generisch im Wortsinn: Sie entstammt einem Genre, nicht einer Person.
Zweitens fehlt die konkrete Situationssensibilität. Ein LLM weiß nicht, dass in der Gemeinde gerade ein Kind gestorben ist, dass die Kirchenvorsteherin schwer erkrankt ist, dass ein Konflikt schwelt. Es kann diese Dinge berücksichtigen, wenn sie ihm mitgeteilt werden – aber es nimmt sie nicht wahr, spürt sie nicht, trägt sie nicht im eigenen Herzen.
Drittens fehlt das theologische Wagnis. Eine prophetische Predigt, die gegen den Mainstream der Gemeinde spricht, die Unbequemes anspricht, die Risiken eingeht – solche Predigt verlangt existentiellen Einsatz. Ein LLM optimiert auf Plausibilität und Akzeptanz; es ist nicht mutig, weil es nichts zu verlieren hat.
Dennoch können LLMs in der Predigtproduktion unterstützend wirken: Sie können helfen, Schreibblockaden zu überwinden, alternative Perspektiven auf Texte zu eröffnen, die sprachliche Qualität zu verbessern. Die entscheidende Frage ist, wer Subjekt des Predigtgeschehens bleibt. Wenn die Pfarrperson das LLM als Werkzeug nutzt, kritisch prüft, eigene Akzente setzt, bleibt sie Autorin. Wenn sie unreflektiert KI-Outputs übernimmt, wird sie zur Durchlaufstation fremder Textproduktion.
Seelsorge-Chatbots: Trost ohne Subjekt
Seelsorge-Chatbots werfen die schärfsten ethischen und theologischen Fragen auf. Verschiedene Projekte experimentieren mit KI-basierter Krisenintervention, spiritueller Begleitung oder niedrigschwelligen Gesprächsangeboten. Die Argumente dafür: KI ist immer verfügbar, anonym, nicht wertend, kann große Zahlen von Menschen erreichen, die sonst keine Seelsorge in Anspruch nehmen würden.
Die Gegenargumente sind gewichtig: Seelsorge ist nicht Technik, sondern Beziehung. Sie lebt von Präsenz, Empathie, Mit-Leiden (im Wortsinn: cum-passio). Dietrich Bonhoeffer betont in seiner Seelsorgelehre die stellvertretende Fürbitte: Der Seelsorger trägt den Anderen vor Gott. Ein Chatbot betet nicht. Es kann den Satz "Ich bete für Sie" generieren, aber dieser Satz ist Simulation, nicht Vollzug.
Zudem besteht die Gefahr der Täuschung. Wenn Menschen glauben, mit einem empathischen Gegenüber zu sprechen, tatsächlich aber mit einem System statistischer Textgenerierung interagieren, liegt eine fundamentale Unwahrheit vor. Diese Täuschung untergräbt das Vertrauen, das Grundlage aller Seelsorge ist.
Ein pragmatischer Kompromiss könnte lauten: LLMs als Erstkontakt und Triage-System, das bei ernsten Krisen sofort auf menschliche Seelsorge verweist. Oder: LLMs als Informationsquelle für seelsorgliche Fragen, aber nicht als seelsorgliches Gegenüber. Die Grenze verläuft dort, wo Personalität simuliert wird ohne personales Sein.
Theologische Bildung: Der allwissende Tutor
In der theologischen Bildung können LLMs wertvolle Dienste leisten. Sie erklären theologische Konzepte, beantworten Fragen, bieten verschiedene Perspektiven, regen zur Reflexion an. Sie sind geduldig, immer verfügbar, nicht autoritär.
Die Chancen liegen auf der Hand: Demokratisierung theologischen Wissens, personalisierte Lernpfade, Abbau von Hemmschwellen. Wer sich scheut, in einem Seminar "dumme Fragen" zu stellen, kann einem LLM alles fragen.
Die Risiken sind subtiler: LLMs produzieren confident ignorance. Sie formulieren auch Unsicherheiten und Falschaussagen mit der gleichen Gewissheit wie gesichertes Wissen. In der Theologie, wo Wahrheitsfragen existentiell sind, ist dies besonders problematisch. Ein LLM kann häretische Positionen mit der gleichen Plausibilität darstellen wie orthodoxe, kann historische Fakten erfinden, kann komplexe Debatten übersimplifizieren.
Zudem fehlt LLMs die urteilende Kompetenz. Theologie ist nicht nur Information, sondern Formation. Es geht um das Einüben in eine Tradition, um das Schärfen theologischer Urteilskraft, um das Lernen, gute von schlechten Argumenten zu unterscheiden. Ein LLM kann diese Urteilskraft nicht vermitteln, weil es sie selbst nicht hat.
Die Lösung liegt in der Hybridität: LLMs als Assistenten, die Informationen bereitstellen und Denkprozesse anstoßen – aber eingebettet in Kontexte, wo menschliche Lehrende urteilen, korrigieren, herausfordern und selbst als theologische Subjekte präsent sind.
Ekklesiologische Dimensionen: Gemeinschaft und Kommunikation
Kirche als Kommunikationsgemeinschaft
Evangelische Ekklesiologie kann Kirche als Kommunikationsgemeinschaft verstehen: als Raum, in dem das Evangelium kommuniziert wird – vertikal (zwischen Gott und Mensch) und horizontal (zwischen Menschen). Diese Kommunikation konstituiert Gemeinschaft, schafft Identität, ermöglicht Partizipation.
LLMs verändern die Bedingungen kirchlicher Kommunikation fundamental. Sie produzieren Texte, die nicht mehr eindeutig menschlichen oder maschinellen Ursprungs sind. Sie schaffen neue Kommunikationsformen (Chatbots, automatisierte Responses, personalisierte Inhalte). Sie demokratisieren Textproduktion, aber auch deren Manipulation.
Eine theologische Herausforderung besteht darin, die Integrität kirchlicher Kommunikation zu wahren. Wenn Gemeindebriefe von KI geschrieben, Predigten von KI generiert, Gebete von KI formuliert werden – bleibt dann Raum für authentische menschliche und göttliche Stimmen? Oder entsteht eine kirchliche Textproduktion, die zwar effizient, aber entseelt ist?
Die Gefahr ist nicht die Nutzung von LLMs per se, sondern deren unreflektierte Integration. Kirche muss Transparenz wahren: Wenn KI genutzt wird, sollte dies kenntlich gemacht werden. Sie muss Kontrolle behalten: Die theologische und ethische Verantwortung liegt bei Menschen, nicht bei Algorithmen. Und sie muss Prioritäten setzen: Effizienz ist wichtig, aber nicht wichtiger als Authentizität, Personalität, existentielle Tiefe.
Partizipation und Exklusion
LLMs können Partizipation erweitern: Menschen mit Schreibschwierigkeiten können qualitativ hochwertige Texte produzieren; Sprachbarrieren können überwunden werden; zeitliche Engpässe können kompensiert werden. Dies könnte inklusiv wirken.
Gleichzeitig drohen neue Exklusionen: Wer keinen Zugang zu LLMs hat (aus ökonomischen, bildungsbezogenen oder ethischen Gründen), könnte benachteiligt werden. Eine "KI-Kluft" könnte entstehen zwischen denen, die KI kompetent nutzen, und denen, die es nicht können oder wollen.
Theologisch stellt sich die Frage: Welche Fähigkeiten sind konstitutiv für kirchliche Partizipation? Wenn Textproduktion zunehmend an LLMs delegiert wird, verschieben sich die Kompetenzen, die von Menschen erwartet werden. Statt selbst theologisch zu argumentieren, wird erwartet, LLMs so zu prompten, dass sie theologisch argumentieren. Statt selbst Predigten zu schreiben, wird erwartet, KI-generierte Predigten zu kuratieren.
Dies ist nicht per se problematisch, aber es verändert das Anforderungsprofil kirchlicher Mitarbeit und Teilhabe. Die Kirche muss darauf achten, dass diese Verschiebung nicht zu neuen Machtasymmetrien führt und dass Menschen, die LLMs kritisch gegenüberstehen, nicht marginalisiert werden.
Ethische Dimensionen: Verantwortung, Täuschung, Integrität
Wer trägt Verantwortung für KI-generierte Inhalte?
Wenn eine Pfarrerin eine KI-generierte Predigt hält, wer ist verantwortlich für deren Inhalt? Die Pfarrerin, die sie kuratiert hat? Die Entwickler des LLMs? Die Trainingsmassen, aus denen das LLM gelernt hat?
Rechtlich und ethisch muss gelten: Die Pfarrerin trägt die Verantwortung. Sie kann sich nicht darauf berufen, "das hat die KI so gesagt". Sie muss prüfen, was sie verkündet, muss es sich zu eigen machen oder verwerfen. Die Nutzung eines LLMs entbindet nicht von Verantwortung, sondern erfordert neue Formen der Verantwortungsübernahme: kritische Prüfung, theologische Kompetenz, Urteilsfähigkeit.
Dies setzt voraus, dass Kirchenleitungen und theologische Ausbildungsstätten entsprechende Kompetenzen vermitteln: Wie nutze ich LLMs verantwortlich? Wie erkenne ich theologische Defizite in KI-Outputs? Wie integriere ich KI-Unterstützung in meine eigene theologische Arbeit, ohne ihr zu erliegen?
Das Problem der Täuschung
Eine zentrale ethische Frage ist die der Täuschung. Wenn Gemeindeglieder glauben, einen persönlichen Brief der Pfarrerin zu lesen, der aber von einem LLM verfasst wurde – liegt eine ethisch problematische Täuschung vor?
Das Christentum hat eine lange Tradition der Wahrhaftigkeit. Lüge gilt als Sünde, Wahrheit als göttliche Eigenschaft. Johannes 8,32: "Die Wahrheit wird euch frei machen." Täuschung untergräbt Vertrauen, und Vertrauen ist Grundlage aller kirchlichen Gemeinschaft.
Die Lösung kann nicht sein, jede Nutzung von Hilfsmitteln offenzulegen – niemand erwartet, dass eine Pfarrerin bei jeder Predigt sagt, welche Kommentare sie konsultiert hat. Aber es gibt eine Grenze: Wo personale Authentizität suggeriert wird ("ich schreibe dir persönlich"), wo Autorschaft impliziert wird ("meine Predigt"), dort sollte keine fundamentale Täuschung über den Ursprung der Worte vorliegen.
Ein pragmatischer Ansatz könnte lauten: Bei offiziellen, öffentlichen Texten sollte KI-Nutzung transparent gemacht werden können, wenn gefragt wird. Bei persönlichen Kommunikationen sollte KI-Nutzung die Ausnahme bleiben und, wo sie erfolgt, gekennzeichnet werden. Die Kirche sollte eine Kultur der Ehrlichkeit fördern, die auch den Umgang mit neuen Technologien einschließt.
Theologische Integrität in der KI-Nutzung
LLMs sind trainiert auf riesigen Textmengen, die auch problematische Inhalte umfassen: Diskriminierung, Fehlinformationen, theologische Heterodoxie. Sie reproduzieren und rekombinieren diese Inhalte. Für die Kirche ergibt sich daraus die Frage: Wie wahren wir theologische Integrität, wenn wir KI nutzen?
Eine rigoristische Position würde sagen: Wir nutzen keine KI, die aus problematischen Quellen lernt. Doch diese Position ist unrealistisch, denn alle LLMs lernen aus dem Internet, und das Internet enthält alles.
Eine pragmatischere Position: Wir nutzen LLMs, aber mit kritischer Wachsamkeit. Wir prüfen Outputs theologisch, wir korrigieren Fehler, wir lassen uns nicht von der Autorität des Maschinell-Generierten einschüchtern. Dies erfordert theologische Bildung und Urteilsfähigkeit – genau die Kompetenzen, die die Kirche ohnehin fördern sollte.
Zudem sollte die Kirche in Diskurse über KI-Training eingreifen: Welche Daten werden genutzt? Wie werden Bias und Diskriminierung adressiert? Gibt es Möglichkeiten, spezifisch theologisch kuratierte LLMs zu entwickeln? Die Kirche sollte nicht passive Nutzerin, sondern aktive Mitgestalterin der KI-Entwicklung sein.
Eschatologische Perspektiven: Technik und Reich Gottes
Technologie in heilsgeschichtlicher Perspektive
Die christliche Theologie denkt Geschichte als auf ein Ziel hin gerichtet: das Reich Gottes, die Wiederkunft Christi, die Vollendung der Schöpfung. Wo steht technologischer Fortschritt in diesem Rahmen?
Eine optimistische Deutung: Technologie ist Teil der Kulturfähigkeit, die Gott dem Menschen gegeben hat. "Macht euch die Erde untertan" (Gen 1,28) schließt Technik ein. KI kann zur Heilung, Bildung, Kommunikation beitragen und damit der Liebe zum Nächsten dienen. Sie ist Werkzeug für das Reich Gottes.
Eine pessimistische Deutung: Technologie ist Teil der gefallenen Schöpfung, des babylonischen Turmbaus menschlicher Hybris. KI droht den Menschen zu entfremden, Personalität zu untergraben, totalitäre Kontrolle zu ermöglichen. Sie ist Werkzeug gegen das Reich Gottes.
Eine dialektische Deutung: Technologie ist ambivalent. Sie kann dem Leben dienen oder dem Tod, der Freiheit oder der Knechtschaft. KI ist nicht per se gut oder böse, sondern abhängig von ihrer Nutzung. Die Kirche ist gerufen, für eine Nutzung einzutreten, die Leben fördert, Würde achtet, Gemeinschaft stärkt.
Diese dialektische Position ist theologisch am überzeugendsten. Sie nimmt die Realität des technologischen Fortschritts ernst, ohne ihm zu verfallen. Sie wahrt kritische Distanz, ohne in Technikfeindlichkeit zu verfallen. Sie glaubt, dass Gottes Reich nicht durch Technik kommt, aber auch nicht ohne menschliches Handeln – und dieses Handeln schließt technisches Handeln ein.
Die Grenze des Machbaren und die Hoffnung auf Gnade
Die KI-Entwicklung ist getrieben von der Vision unbegrenzter Optimierung: bessere Algorithmen, größere Modelle, mehr Fähigkeiten. Dieser Optimierungsimperativ kennt keine prinzipielle Grenze – es sei denn, sie wird von außen gesetzt.
Die christliche Theologie erinnert an die Grenze des Machbaren. Der Mensch ist nicht allmächtig, nicht allwissend, nicht autark. Er bleibt angewiesen auf Gnade, auf Geschenk, auf das Unverfügbare. Der Glaube ist nicht machbar, die Liebe nicht produzierbar, die Hoffnung nicht algorithmisch.
Wenn KI verspricht, alle menschlichen Probleme zu lösen, alle Fragen zu beantworten, alle Bedürfnisse zu erfüllen, wird sie zur Pseudoreligion. Sie besetzt den Platz, der Gott gebührt: Allwissenheit, Allgegenwart, Problemlösung. Die Kirche muss dieser Vergötzung widerstehen.
Konkret bedeutet dies: Die Kirche nutzt KI pragmatisch für begrenzte Zwecke, aber sie verkauft sie nicht als Heilsweg. Sie betont, dass die tiefsten menschlichen Bedürfnisse – nach Sinn, Trost, Vergebung, Hoffnung – nicht technisch lösbar sind. Sie hält fest an der Unverfügbarkeit Gottes, die sich keinem Algorithmus erschließt.
Praktische Orientierungen: Wie soll die Kirche mit LLMs umgehen?
Aus den vorangegangenen Überlegungen ergeben sich konkrete Orientierungen für kirchliche Praxis:
1. Transparenz wahren: Wenn KI in kirchlichen Kontexten genutzt wird, sollte dies kenntlich gemacht werden können. Keine Täuschung über die Herkunft von Texten.
2. Menschliche Verantwortung sichern: Die theologische und ethische Verantwortung für alle Inhalte liegt bei Menschen, nicht bei KI. Pfarrpersonen, Kirchenleitungen, Gemeindegremien müssen prüfen und verantworten, was in kirchlichen Kontexten kommuniziert wird.
3. Theologische Bildung stärken: Die kritische Nutzung von LLMs setzt theologische Kompetenz voraus. Kirchen sollten in Aus- und Fortbildung vermitteln, wie LLMs verantwortlich genutzt werden.
4. Personalität schützen: Wo personale Begegnung konstitutiv ist – in Seelsorge, Beichte, existentieller Begleitung – sollte KI nicht als Ersatz, sondern allenfalls als Ergänzung dienen.
5. Effizienz und Authentizität balancieren: LLMs können administrative Lasten reduzieren und damit Raum schaffen für Kerntätigkeiten. Aber Effizienz darf nicht wichtiger werden als Authentizität, Tiefe, existentielle Ernsthaftigkeit.
6. Inklusiv bleiben: Die Nutzung von LLMs darf nicht zu neuen Exklusionen führen. Menschen, die KI ablehnen oder nicht nutzen können, müssen weiterhin vollwertig partizipieren können.
7. Kritisch-konstruktiv mitgestalten: Die Kirche sollte nicht nur Nutzerin, sondern Mitgestalterin der KI-Entwicklung sein. Sie sollte ethische Standards einfordern, an KI-Ethikdebatten teilnehmen, gegebenenfalls eigene KI-Projekte entwickeln.
8. Eschatologische Reserve wahren: Die Kirche darf nicht in Technikeuphorie verfallen. Sie muss daran erinnern, dass die tiefsten menschlichen Hoffnungen nicht technisch einlösbar sind.
Schluss: Das Wort bleibt – die Frage ist, wer es spricht
Die Begegnung von Kirche und Large Language Models ist kein randständiges Thema, sondern berührt zentrale Fragen protestantischer Identität. Eine Religion des Wortes muss sich verhalten zu Maschinen, die Worte generieren.
Die Antwort kann nicht simpel sein. Weder eine technikfeindliche Verweigerung noch eine naive Enthusiasmus sind theologisch vertretbar. Stattdessen braucht es eine differenzierte, kritisch-konstruktive Haltung, die Chancen nutzt und Risiken begrenzt.
LLMs können der Kirche dienen – als Werkzeuge für Bildung, Kommunikation, Verwaltung. Sie können Lasten reduzieren und Ressourcen freisetzen. Aber sie können die Kirche nicht ersetzen. Sie können Worte produzieren, aber nicht das Wort verkünden. Sie können Informationen liefern, aber nicht Glauben wecken. Sie können tröstende Sätze generieren, aber nicht trösten. Sie können theologisch argumentieren, aber nicht theologisch existieren.
Die Kirche bleibt angewiesen auf Menschen – Menschen, die glauben, zweifeln, hoffen, lieben, leiden, bezeugen. Menschen, die nicht nur Worte produzieren, sondern Worte leben. Menschen, durch die der Geist Gottes weht – unverfügbar, frei, lebendig.
Das Wort war am Anfang. Das Wort wird auch am Ende sein. Die Frage ist nicht, ob Maschinen Worte produzieren können – das können sie. Die Frage ist, welche Worte Leben schenken, welche Gemeinschaft stiften, welche zum Glauben rufen. Diese Worte entstehen nicht durch Algorithmen, sondern durch den Geist. Und der Geist weht, wo er will – auch im digitalen Zeitalter.
(Da ist die KI sehr nah an meinen Gedanken - sind es also überhaupt meine? Sprechen)