Zehn Leitplanken für den Umgang mit Künstlicher Intelligenz im kirchlichen Kontext: Ein pragmatischer Realismus ist notwendig

KI wird auch im kirchlichen Kontext eingesetzt. KI wird von Einzelpersonen beispielsweise als Produktivitätstool genutzt, im Netz gibt es viele Beispiele, wie Pfarrer*innen ChatGPT zur Predigtvorbereitung konsultieren. Aber auch in der Öffentlichkeitsarbeit findet KI ihren Eingang. Von einigen bejubelt, sehen andere in KI eine Bedrohung. KI treibt die digitale Transformation voran. Die Schnelligkeit der technologischen Entwicklungen macht es schwer, konkrete Richtlinien zu entwickeln. Andererseits benötigen wir Orientierungspunkte für den Einsatz Künstlicher Intelligenz. Weder euphorischer Enthusiasmus noch eine dystopische Skepsis helfen, wir benötigen einen pragmatischen Realismus im Umgang mit KI. Im folgenden zehn Leitplanken, die ich für den Umgang mit KI im kirchlichen Kontext für sinnvoll erachte. Sie entstanden als Reflexion auf den Umgang mit KI in Projekten und in der Diskussion mit Kolleg*innen.

1. Digitale Transformation

Die digitale Transformation durchdringt unaufhaltsam alle Lebensbereiche, einschließlich der Kirchen und ihrer Ortsgemeinden. Diese müssen „phygital“ gedacht werden. Die physische Präsenz – eine lokal versammelte Gemeinde – verbindet sich mit digitalen Aspekten, insbesondere in der Kommunikation. Oftmals ist der digitale Auftritt einer Gemeinde, wie beispielsweise ihr Google-Profil, der erste Berührungspunkt für Menschen, die mit der Gemeinde vor Ort in Kontakt treten möchten. Die Integration Künstlicher Intelligenz ist ein wesentlicher Bestandteil der digitalen Transformation, der die Art und Weise, wie Gemeinden interagieren und kommunizieren, nachhaltig verändert.

2 Nie „nie“ sagen

Angesichts der Geschwindigkeit, mit der sich Technologien entwickeln, ist es wichtig, offen für Neuerungen zu sein. Was gestern noch unmöglich schien, kann morgen schon Standard sein. Oft zeigen Mockups, wohin die Entwicklung führt. Nur als Beispiel: Offensichtlich ist diese Präsentation von GeminiAI inszeniert, aber die dort aufgezeigten multimodalen KI-Fähigkeiten werden vermutlich bald Realität sein. Deshalb sollte man bestimmte Entwicklungen nicht von vorneherein ausschließen.

3. Experimentieren und Evaluieren statt Reglementieren und Verbieten

Die Praxis, durch Experimente und anschließende Evaluationen zu lernen, ob und wie man Technik einsetzt, erweist sich als fruchtbarer als der Versuch, Technologien vorab durch strenge Regulierungen oder Verbote einzuschränken. Dieser Ansatz zu experimentieren zeigt, was KI gut kann und was (zurzeit) noch nicht gut geht. Die Evaluation schützt vor blindem Enthusiasmus und unbegründeter Skepsis; wir benötigen einen realistischen Umgang mit KI. Reine Verbote – so wie das von ChatGPT in Italien – helfen nicht und sind nur schwer durchzusetzen.

4. Datenschutz

Datenschutz ist wichtig, bei kommerziellen KI-Anwendungen kommt (noch) er zu kurz. Kommerzielle Large Language Models (LLMs) bieten zurzeit keine Möglichkeit der Auftragsdatenverarbeitung, was ihre Nutzung in datenschutzkonformer Weise ausschließt. Die einzige Möglichkeit besteht darin, ihnen keine personenbezogenen Daten anzuvertrauen. Zudem bleibt unklar, wie ein Finetuning mit Nutzereingaben erfolgt. Die Möglichkeit, eigene Modelle aufzusetzen und zu betreiben, könnte ein Ausweg aus diesem Dilemma sein. Beispielsweise verspricht OpenGPT-X Konformität mit der DSGVO. Zurzeit heißt es aber bei der Nutzung kommerzieller Systeme wie z.B. ChatGPT-4: Personenbezogene Daten dürfen nicht eingegeben werden.

5. Bias und Fehler

Die Herausforderungen im Umgang mit Bias und fehlerhaften Informationen in KI-Systemen sind besonders im Kontext von Religion und Geschlecht evident. Die Notwendigkeit, Bias zu erkennen und zu korrigieren, sowie die sorgfältige Überprüfung KI generierter Inhalten durch Menschen, sind essenziell, um Verzerrungen und Fehlinformationen entgegenzuwirken.

6. Transparenz

Die Nutzung von KI sollte transparent gemacht werden. Dies stärkt das Vertrauen in die Technologie und macht ihre Anwendung nachvollziehbarer.

7. KI ist kein Mensch

Menschen zeichnen sich durch Empathie und Bewusstsein aus. Künstliche Intelligenz besitzt jedoch keine Empfindsamkeit und kein Bewusstsein; oder in der Wissenschaftssprache: KI ist nicht sentient. Dies ist der breite Konsens unter Forscherinnen und Entwicklern. Jedoch imitiert KI Bewusstsein, Empathie und andere menschliche Eigenschaften so gut, dass manche Entwickler*innen ihr diese Eigenschaften zuschreiben. Dies zeigt das Beispiel von Blake Lemoine zeigt. Ähnlich verhält es sich mit dem Vorfall, den Kevin Roose in der New York Times beschreibt. Am besten vermeidet man anthropomorphe Sprache in Bezug auf KI, um nicht selbst in die Sentient-Falle zu laufen.

8. Grenzen zwischen Mensch und Maschine ziehen

KI kann menschliche Interaktionen in bestimmten Bereichen gut imitieren, aber nicht ersetzen. Das gilt insbesondere für persönliche Begegnungen wie beispielsweise in der Seelsorge. Die persönliche Verantwortung und Empathie, die in solchen Kontexten erforderlich sind, können von KI nicht vollständig geleistet werden. Oft mag KI auch aufgrund ihrer Aktionen nicht als Maschine erkennbar sein und den Turing-Test bestehen, doch das ersetzt nicht die Dimension authentischer zwischenmenschlicher Beziehungen und Begegnungen.

9. Ethische Verantwortung

Der verantwortungsvolle Umgang mit KI erfordert eine intensive Auseinandersetzung mit ethischen Fragen. Ziel ist es, den Einsatz von Technologien so weiterzuentwickeln und einzusetzen, dass sie der Gesellschaft nutzen und Schaden sowie Diskriminierung vermeiden. Dabei geht es oft auch um Abwägungen. Nicht alles, was technisch möglich ist, muss auch zum Einsatz kommen werden. Außerdem hat jede Technologie auch einen Preis, beispielsweise führt der Einsatz von KI zu einem deutlich höheren Energieverbrauch durch Server. Für die Entwicklung von ChatGPT durch OpenAI wurden beispielsweise Klick-Arbeiter*innen in Afrika unter ausbeuterischen Arbeitsbedingungen eingesetzt, um Inhalte zu qualifizieren.

10. Bildung und Medienkompetenzentwicklung

Die Bildung spielt eine Schlüsselrolle bei der Vermittlung von Wissen und Kompetenzen im Umgang mit KI. Ein umfassendes Verständnis sowie kritisches Denken sind erforderlich, um die Potenziale und Grenzen dieser Technologien zu verstehen und ethisch verantwortungsvoll zu nutzen.


DALL·E zu KI in der Kirche

Autor:in


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.