08.11.2023

Kirche muss KI-Entwicklung theologisch und ethisch reflektieren

Landesbischof Gohl hält Vortrag zum Einsatz künstlicher Intelligenz

„ChatGPT, verstehst Du mich? Künstliche Intelligenz als Herausforderung für Glaube und Vernunft“ – unter diesem Titel hat Landesbischof Ernst-Wilhelm Gohl am 5. November in der Nürtinger Stadtkirche über theologische, ethische und diakonische Aspekte der Entwicklung und des Einsatzes Künstlicher Intelligenz gesprochen. Gohl betonte dabei ebenso die Notwendigkeit gerechter Teilhabe an den neuen Technologien wie die Bedeutung guter Bildung als Voraussetzung für einen sinnvollen Umgang mit KI. Künstliche Intelligenz habe das Potenzial, gesellschaftliche Diskriminierungen und Vorurteile abzubauen – oder sie zu verstärken. Gohl plädierte für einen kritischen und reflektierten, aber auch aufmerksam gelassenen Umgang mit den neuen Technologien.

Ernst-Wilhelm Gohl, ab 1. August 2022 neuer Landesbischof der württembergischen Landeskirche. Landesbischof Ernst-Wilhelm Gohl

Im Folgenden finden Sie den Volltext des Vortrags, den Landesbischof Gohl auf Einladung des Evangelischen Bildungswerks im Landkreis Esslingen in der Nürtinger Stadtkirche gehalten hat - die Quellngaben zu den Zitaten finden Sie in der PDF-Version des Vortrags, die SIe unter dem Text herunterladen können:

---------

Sehr geehrte Damen und Herren!

Vor einigen Tagen sprach ich mit einem pensionierten Pfarrer. Er geht auf die 85. zu, ist Witwer, fast erblindet und erzählt voller Begeisterung, dass ihm sein iPad gute Dienste leistet. Er kann Bilder und Texte vergrößern. Podcasts und Radiosendungen zu einem beliebigen Zeitpunkt abspielen und über WhatsApp mit der Familie kommunizieren. Von einem seiner Enkel, so erzählte er, habe er von einem Computerprogramm erfahren, ChatGPT. Der Enkel habe es ihm auf das iPad geladen. Der rüstige Ruhestandspfarrer nutzt nun jeden Tag ChatGPT.

Am Abend öffnet er die App, gibt dann drei Begriffe ein und spricht: „ChatGPT, erzähle mir eine Geschichte.“ Wenige Sekunden später hört er mit Freude, die Erzählung. Richtig zu Herzen gehend seien diese Geschichten, sagt er. Nur eine Frage beschäftige ihn:  

Vor kurzem habe er die Begriffe „Glaube, Liebe, Hoffnung“ eingegeben, dazu als Ortsangabe Korinth. Er erwartete, dass ChatGPT ihm das Hohelied der Liebe aus 1. Kor 13 vortrage. Doch diese Erwartung wurde enttäuscht. Stattdessen kam eine ganz andere, ihm unbekannte Geschichte. „Wie kann das sein, dass ChatGPT das Naheliegendste nicht weiß?“, das will der rüstige Pensionär jetzt seinen Enkel fragen.

KI ist Massenphänomen

In den letzten fünf Jahren ist das Thema Künstliche Intelligenz (KI) zu einem Massenphänomen geworden. In den Laboren und Instituten wird weltweit geforscht und immer wieder berichten die Medien von bahnbrechenden Durchbrüchen. Aber erst mit der kostenfreien Software ChatGPT ist das Thema KI so richtig in unserem Alltag angekommen.

Wenn eine Maschine auf Knopfdruck Texte produziert, werden Seminararbeiten zum Problem. Journalisten lassen ihre Texte von der KI längst überprüfen. Und der Streik der Drehbuchautoren in Hollywood findet mit dem Ziel statt, dass KI nicht humane Autoren verdrängen dürfen. Dies ist allerdings schon längst gängige Praxis ist.

Die Folgen dieses Technologiesprungs lassen sich gegenwärtig noch schlecht abschätzen. Überwiegt der Freiheitsgewinn oder der Freiheitsverlust? Wie segensreich kann KI für unseren Alltag werden? Oder wird eines Tages uns die KI kontrollieren und nicht mehr wir sie?

Sorge um Machtverschiebung zwischen Mensch und Maschine

Die Sorge um eine Machtverschiebung zwischen Mensch und Maschine ist nicht auf einen dauerkritischen Kulturpessimismus begrenzt. Der französische Philosoph Eric Sadin mahnte im Februar 2023 in einem Gastbeitrag der FAZ:

„Es geht bei der Digitalisierung um einen Vorgang, der unsere humane Existenz in Mitleidenschaft zieht. (…) Nachdem wir eine Aushöhlung unserer Urteilsfähigkeit durch die zunehmende Verbreitung von digitalkapitalistischen Systemen, die unseren Alltag bestimmen, erleben, geht es nun um eine Attacke auf unser Sprachvermögen. Deshalb müssen wir ein Problem in einem Ethos erkennen, das nur danach trachtet, unseren Geist und Körper (…) durch Technologien zu ersetzen, um eine perfekte und hygienische Gesellschaft zu schaffen.“

Noch etwas dramatischer wirkt der weltweite Appell zahlreicher KI-Forscher auf der website des Future-of-Life-Instituts vom 22. März 2023. Systeme wie ChatGPT, heißt es in dem Appell, „seien inzwischen zu mächtig und zu gefährlich geworden, und es bestünden fundamentale Risiken für die Gesellschaft und die Menschheit, die von auf Menschenniveau agierender KI ausgingen.“ Der Appell fordert daher ein Forschungsmoratorium an KI für mindestens sechs Monate.

Ganz aktuell: Am 01.11. trafen sich auf Einladung der britischen Regierung Vertreterinnen und Vertreter aus 28 Nationen, um Chancen und Gefahren von KI zu diskutieren. King Charles sagte in einer Grußbotschaft, KI könne eine „Kraft für das Gute“ sein – aber auch Zivilisationen und Demokratien gefährden.

Diese Bedrohungsszenarien bedürfen einer Einordnung. Welche Gefahren gehen von Künstlicher Intelligenz aus? Worin liegen die großen Chancen?

Diesen Fragen stelle ich mich nicht als KI-Forscher, nicht als Politiker und auch nicht als Mitarbeiter eines Tech-Konzerns. Als Theologe und Mitglied der Kirchenleitung einer Landeskirche bin ich kein Experte in Sachen KI.

Als Theologe und Mitglied der Kirchenleitung will ich vielmehr den theologischen Aspekt in die aktuellen Debatten um KI einbringen und nach seiner Bedeutung für unsere Gesellschaft fragen. Ich will versuchen, ein wenig Aufklärungsarbeit zu leisten und dabei die richtigen Fragen zu stellen.

Ethische Fragen zur KI im Lichte biblischer Überlieferungen differenziert in gesellschaftliche Diskurse einbringen

Die Herausforderung für die Kirchenleitungen besteht darin, ethischen Fragen der KI nicht pauschal abzuwerten, sondern sie im Lichte der biblischen Überlieferungen informiert und differenziert in gesellschaftliche Diskurse einzubringen.

Ich beginne mit einigen Verständigungen über KI und besonders über ChatGPT.

Zu den Begriffen:

Künstliche Intelligenz (abgekürzt KI) ist ein Begriff, der seit den 1950er Jahren im Zusammenhang mit Entwicklungen von Computern im speziellen und der Digitalisierung als ganzer verwendet wird. In Fachdiskussionen wird der Begriff KI zunehmend gemieden, weil er unscharf ist und ein ganzes Spektrum von schwacher bis starker KI beschreibt. So funktioniert die Abschaltautomatik in der Waschmaschine mit KI, aber auch hochkomplexe Waffensysteme sind KI. Im Kern ist KI nichts weiter als Datenverarbeitung. Ethische Fragen entstehen z. B. dann, wenn diese Datenverarbeitung durch Komplexität (Big Data) und Schnelligkeit Anwendungsgebiete ermöglicht, die bislang nur dem Menschen vorbehalten waren.

Statt KI dominiert die Fachdebatte über Digitalisierung schon längst der Begriff des Algorithmus. Er stammt ursprünglich aus der Mathematik und Informatik. Algorithmus meint automatisierte Entscheidungsfindungen durch Handlungsanweisungen. Algorithmen bestimmen also, wie Daten ausgewertet werden. Ziel kann es sein, maschinelles Lernen damit zu erzeugen. Durch einen Algorithmus kann ein Computer mit großen Datenmengen trainiert werden, Muster zu erkennen. Dies geschieht schon heute z.B. in der Medizin bei einem KI-basierten medizinischen Diagnose-Algorithmus für MRT-Aufnahmen des Gehirns zur Erkennung von Tumoren.

Eine komplexere Variante des maschinellen Lernens ist Deep learning. Hier werden nach dem Vorbild des Gehirns neuronale Netze simuliert. ChatGPT ist eine Form dieses maschinellen Lernens.

Was kann ChatGPT und wie funktioniert es? ChatGPT arbeitet als ein Sprachmodell. Wenn eine Frage formuliert oder Begriffe eingegeben werden, wird ein Text erstellt. Dieser Text hat den Anspruch sowohl syntaktisch als auch semantisch korrekt zu sein.

Für diese Leistung wird zunächst über das Internet eine große Zahl von verfügbaren Texten mittels Algorithmen auf ihre Struktur hin analysiert. Letztlich geht es darum, mit Hilfe riesiger Datenmengen Wahrscheinlichkeiten abzuschätzen. Wahrscheinlichkeiten für das nächste Wort, für das Ende eines Satzes und die inhaltliche Kohärenz von Aussagen. Dabei werden bei einer Anfrage nicht alle verfügbaren Daten durchsucht. Vielmehr liegt dem Sprachmodell ein ausgeklügeltes Trainingsmodell zugrunde.

Dieses Trainingsmodell macht die Texte von ChatGPT permanent besser, ohne sich dabei auf dahinterliegende Gesetzmäßigkeiten zu beziehen. Vielmehr wird mit einem Feedback gearbeitet. Das Besondere ist, dass dieses Feedback auch einer menschlichen Revision („reinforcement Learning from Human Feedback“) unterzogen wird. Zufällig ausgewählte Nutzer bewerten einen erstellten Text und machen seine Nutzung in der Zukunft bedeutender als andere Texte. Es ist erstaunlich, welches Niveau die so erstellten Texte haben.

Und es ist absehbar, dass die Texte immer besser werden. Die Qualität ist nicht einfach der Tatsache geschuldet, dass ChatGPT das Internet nach relevanten Informationen durchsucht, wie manche meinen. Die Qualität der Texte kommt wesentlich dadurch zustande, dass ChatGPT das oben bereits kurz erwähnte deep learning beherrscht. Deep Learning ist eine maschinelle Lerntechnik. Mit ihr erwirbt der Computer eine Fähigkeit, die Menschen von Natur aus haben: aus Beispielen zu lernen. 

Frage nach dem Subjektstatus der Maschine

Ein Algorithmus, der Texte produzieren kann und ständig dazu lernt, wirft die Frage nach dem Subjektstatus dieser Maschine auf. Ist ChatGPT ein Werkzeug, das von Programmieren konstruiert wurde und weiter von ihnen abhängig ist? Oder ist ChatGPT auf dem Sprung zu einem eigenen Subjektstatus mit einem eigenen Bewusstsein seiner selbst?

Die Bewertungen der Forscher gehen hier stark auseinander. Der Philosoph Julian Nida-Rümelin lehnt die Vorstellung eines Bewusstseins ab und spricht stattdessen von einer „maschinellen Bewusstseinssimulation“.

Anders der Philosoph David Chalmers: Viele Philosophen sind der Ansicht, dass wir Systeme mit Bewusstsein in unseren moralischen Entscheidungen berücksichtigen müssten. Wenn Sprachmodelle kein Bewusstsein haben, können wir sie als Werkzeuge betrachten. Wenn sie Bewusstsein haben, müssen wir ihre Interessen zumindest bis zu einem gewissen Grad respektieren. Die Dinge ändern sich rasant. In den nächsten zehn oder zwanzig Jahren kann dies durchaus zu einer ernsthaften Frage werden.

Ob Algorithmen wie ChatGPT Bewusstsein haben, ist also eine Schlüsselfrage. Einerseits geht es um die Frage: Welche Rechte erhält eine Maschine, wenn sie Bewusstsein erlangen sollte? Andererseits: Welche Pflichten hat dieses Wesen? Denn wer Bewusstsein hat, ist auch moralisch für seine Taten verantwortlich und daher sanktionsfähig. Theologisch ist zu fragen, erhält ein Algorithmus diesen Bewusstseins- und Subjektstatus durch seine kognitiven Fähigkeiten oder durch die Fähigkeit, Schmerzen und eigene Begrenzungen zu erfahren.

Damit ist auch die Frage nach dem Körper des Subjekts aufgeworfen. Fortgeschrittene Robotik macht sich den Schmerz als Rückkopplungskanal für Erfahrungen bereits jetzt zu nutzen.

Chancen und Risiken von KI aus Sicht eines Theologen

Nach dieser ersten Beschreibung des Phänomens KI und ChatGPT will ich nun Chancen und Risiken abschätzen und die Auswirkungen von KI aus Sicht eines Theologen einordnen.

„Die Digitalisierung verändert unsere Welt. Sie eröffnet neue persönliche und gesellschaftliche Spielräume, die besondere Freiheitsgewinne möglich machen.“ Mit dieser Feststellung setzt die aktuelle Denkschrift der EKD zur Digitalisierung ein. Sie wurde vor 2 ½ Jahren veröffentlicht.

Anhand der Zehn Gebote reflektiert die Denkschrift mit dem programmatischen Titel „Freiheit digital“ nicht nur die Chancen der Digitalisierung, sondern auch ihre Begrenzungen und Herausforderungen.

Ziel des Nachdenkens über Digitalisierung ist es, so die Denkschrift, „diesen Wandel menschengerecht und sachgerecht“ zu gestalten.

In diesem Zusammenhang hat der Theologe und frühere Vorsitzende des Deutschen Ethikrats, Peter Dabrock, darauf hingewiesen, dass es in den Debatten um KI darauf ankomme, die richtigen Fragen zu stellen. Er meint damit, dass viele wirklich relevante Problemstellungen eher verdeckt sind und scheinbar ethisch klare Positionen sehr viel öffentliche Aufmerksamkeit beanspruchen.

Zu der menschengerechten Gestaltung der Digitalisierung gehört zunächst die Klärung, wer überhaupt Zugang zu dem Problem hat. Ganz grundsätzlich: Zugang zum Internet haben in Deutschland 89%, das bedeutet, 11% haben keinen Zugang. Wo und von wem werden die Interessen dieser Gruppe vertreten? Zum Vergleich: In Eritrea haben 1% der Bevölkerung Zugang zum Internet. In Uganda kosten 1 GB Datenvolumen 15% des durchschnittlichen Monatseinkommens, in Deutschland weniger als 0,1%.

Elementare Herausforderungen digitaler Gerechtigkeit und Teilhabe

Bevor über die Lösung von ethischen Konflikten im Zusammenhang mit der Nutzung von KI gesprochen wird, müssen elementare Herausforderungen einer digitalen Gerechtigkeit gelöst werden. Die Frage der Teilhabe muss deshalb zunächst im Mittelpunkt stehen. Zur Teilhabegerechtigkeit im diakonischen Sinn gehören die zur Verfügung stehenden Ressourcen.

Zur Teilhabegerechtigkeit gehört aber auch die Bildungsdimension. Als 1517 die Reformation begann, ging es um mehr als neue theologischen Einsichten oder Formen der Frömmigkeit. Es war vielmehr ein Epochenwechsel in der europäischen Geistesgeschichte vom Mittelalter zur Neuzeit. Und hier zeigen sich erstaunliche Parallelen zu heute.

Bedeutung der Bildung

Im Blick auf diesen Epochenwechsel, ist die Bedeutung der Bildung in der evangelischen Theologie und Kirche kaum zu überschätzen. Ihre frühen Repräsentanten waren allesamt humanistisch hochgebildet. Mit ihrem Programm „Lest die Bibel!“ eröffneten sie breiten Schichten der Bevölkerung Zugang zur Bildung. Sie waren überzeugt:

Eine religiöse Praxis, die auf die Auseinandersetzung mit der Bibel setzt, kann nur funktionieren, wenn die Menschen in der Bibelstunde, im Gottesdienst und beim Gebet der Psalmen grundlegende Kompetenzen besitzen müssen: Sie müssen lesen und schreiben können. Und sie müssen wissen, was sie da lesen.

Der Blick auf die Anfänge evangelischer Bildungsarbeit, zeigt eine Grundhaltung, die stark vom Menschenbild der Bibel geprägt ist. Menschen besitzen eine unverlierbare Würde, weil sie Gottes Ebenbilder sind. Sie besitzen diese Würde nicht durch ihr Geschlecht oder ihren sozialen Stand, weil in Christus diese Unterschiede aufgehoben sind. 

Die Programmformel „Bildung für alle“ ist also kein Lippenbekenntnis, sondern tief in diesem Menschenbild verankert. Deshalb ist dieses Wort „Bildung für alle“ Ausdruck christlichen Glaubens. Eines Glaubens, der in die Gesellschaft hineinwirken will und dies mit der „Bildung für alle“ auch tat.

Das reformatorische Bildungsverständnis ist ebenfalls stark von der Aufwertung der Laien und Ehrenamtlichen bestimmt. Die programmatische Formel vom Priestertum aller Gläubigen bringt dies zum Ausdruck. Bildung soll deshalb die Urteilsfähigkeit jedes Einzelnen sicherstellen. Das negative Gegenbild ist die Gesellschaft der Uninformierten. Die Uniformierten verfügen über keinen ethischen Kompass. Sie sind durch fake news besonders leicht zu beeinflussen.

Auf dem Hintergrund des Anliegens des evangelischen Bildungsbegriffes schaue ich auf die aktuelle Situation und versuche eine Bewertung der Chancen und Risiken des Umgangs mit KI.

Algorithmen können Vorurteile verstärken

Ich beginne mit dem sog. bias-Problem. Algorithmen verstärken gesellschaftlich vorhandene Vorurteile. Das damit verbundene Menschenbild widerspricht der biblischen Rede von der Gottebenbildlichkeit. Worum geht es? Komplexere Algorithmen werten Daten in der Regel so aus, dass Muster sichtbar werden. Personalverantwortliche in großen Firmen erhalten bei vielen Bewerbungen Unterstützung durch eine KI-gestützte Vorauswahlhilfe. Unter zweitausend BewerberInnen soll der Personalchef die zehn Besten erkennen.

Ein Algorithmus kann da eine Hilfe sein, der erkennt, ob eine Minimalanforderung (z.B. Abitur) erfüllt ist und Bewerbungen, die dieses Kriterium nicht erfüllen, herausnehmen.

Die ethischen Fragen liegen in der Realität allerdings dort, wo die KI viel komplexere Vorentscheidungen fällt. Öffentlich wurde der Fall von Amazon. Mit Hilfe eines programmierten Algorithmus sollte herausgefunden werden, welche Merkmale von Mitarbeitern ihre spätere Karriere im Unternehmen befördert haben. Diese Merkmale sollten dann bei der Einstellung neuer Mitarbeiter berücksichtigt werden.

Die KI suchte also bei allen Führungskräften des Unternehmens nach Mustern in der Datenauswertung. Heraus kam: Fast alle Führungskräfte waren männlich. Der Algorithmus folgerte daraus, dass es wünschenswert wäre, in Zukunft verstärkt Männer anzustellen, da hier die Wahrscheinlichkeit höher sei, eine zukünftige Spitzenkraft zu bekommen.

An diesem Beispiel wird deutlich, wie problematisch der Einsatz eines solchen Algorithmus ist: Der Algorithmus zementiert eine Diskriminierung und unterstellt, Frauen seien schlechtere Mitarbeiterinnen als Männer. Der Algorithmus bildet eine Diskriminierung ab und könnte sie schlimmstenfalls verstärken.

Zugleich könnte hierin aber auch eine Chance für das Unternehmen liegen: Welche potentiellen Führungskräfte sind wirklich welche geworden und welche Merkmale haben sie daran gehindert? Das könnte zwar dem Unternehmen Rückschlüsse über seine Unternehmenskultur geben, wäre aber wohl unethisch im Sinne des Daten- und Persönlichkeitsschutzes einzelner Mitarbeiter. Die Überprüfung dieser Algorithmen ist sehr aufwändig und schwierig.

Wer eine Ethik für Programmierer dieser Algorithmen fordert, wie etwa der frühere Ratsvorsitzende der EKD, Heinrich Bedford-Strohm, findet Zustimmung, erntet aber auch Skepsis. Denn die Algorithmen und mit ihnen ihre Programmierer sind Teil eines sozio-technischen Systems. Dieses System macht die Antwort auf die jeweilige Verantwortung des eigenen Handelns inmitten KI-geschützter Systeme nur schwer möglich.

Quellcodes komplexer Algorithmen werden nicht offengelegt

Eine weitere Schwierigkeit kommt dazu: Die Quellcodes komplexer Algorithmen werden von Firmen nicht offengelegt und wenn, sind sie nur von Fachleuten wirklich auf ihre ethischen Horizonte hin zu befragen.

Die Kirche hat auf diesem Feld keinen Expertenstatus. Es ist daher die Aufgabe der Zivilgesellschaft als ganze, solche Ressourcen bereitzustellen. Besonders eindrücklich geschieht das durch die NGO AlgorithmWatch. Hier werden z.B. gegenwärtig die Algorithmen der Schufa auf die Möglichkeit diskriminierender Mustererkennung untersucht und öffentlich gemacht.

Risiken von ChatGPT

Was sind nun die besonderen Risiken von ChatGPT?

Der Blick auf den Beginn meines Vortrags macht deutlich, welche faszinierenden Möglichkeiten in ChatGPT stecken. Gerade für ältere, oft auch alleinstehende Menschen. ChatGPT ist eine große Hilfe im Alltag und auch ein zunehmend realistisches Gegenüber, ja ein Dialogpartner.

Sorgenvoll blicken jene Gruppen auf ChatGPT, die beruflich mit der Produktion und Rezeption von Texten befasst sind, also Lehrende an Schulen und Bildungseinrichtungen, Journalisten. Aber auch Pfarrerinnen und Pfarrer! Zukünftig wird es auch im Pfarramt darum gehen, wo ChatGPT eingesetzt wird und wo nicht.

Im Hinblick auf das evangelische Bildungsverständnis und die damit verbundene Förderung der Urteilsfähigkeit überwiegt bei mir nun doch die Skepsis.

Da ist zunächst das Geschäftsmodell von ChatGPT.

Die Basisanwendungen sind kostenlos. Eine komfortable, werbefreie Version dagegen ist kostenpflichtig. Perspektivisch wird sich also nicht jede und jeder die Anwendung leisten können.

Problematischer aber ist der Zugriff von ChatGPT auf Daten. Um aktuell zu sein, sind natürlich besonders aktuelle Texte im Internet attraktiv für ChatGPT. Diese Inhalte sind aber in der Regel – etwa bei Zeitungen kostenpflichtig. Viele Verlage wehren sich bereits dagegen, dass ChatGPT auf diese Inhalte zugreift. Andererseits haben Firmen, die Inhalte produzieren ein großes Interesse, dass ChatGPT genau auf diese Texte und Inhalte zugreift – faktisch also Werbung im Sinne von Konzernen verwendet.

Der Medienwissenschaftler Hannes Bajohr, sieht darin aber nicht die größte Gefahr, sondern in der Zukunft der politischen Meinungsbildung. Was, wenn die Sprachmodelle in der Hand weniger mächtiger IT-Konzerne sind, die sich die Kosten für den anspruchsvollen Trainingsaufwand leisten können? Und vor allem, was, wenn die Debatten auf den social media Kanälen zunehmend von Chatbots gesteuert werden, die immer besser unfaire oder gar unwahre Chatbeiträge liefern und so eine partizipative und demokratische Meinungsbildung verhindern?

Bajohr verweist auf die Etablierung von RightWingGPT, einem ChatGPT vergleichbaren Sprachmodell, das konsequent mit rechten Texten und Ideologien trainiert wurde. Perspektivisch sieht er die Gefahr, dass solche Sprachmodell an die Stelle demokratischer Diskurse setzen und einen Diskursfortschritt (in dem man in einer öffentlichen Debatte Standpunkte austauscht und den eigenen ggf. korrigiert) unmöglich machen.  

Betrachtet man diesen Befund näher, so wird deutlich, dass schon in naher Zukunft, öffentliche Diskurse von einem tiefen Misstrauen geprägt sein werden. Wer kann schon einem Text, einem Bild oder einem Video unter diesen Umständen vertrauen?

Vor wenigen Tagen wurde Katharina Zweig, Professorin an der Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau und Sachverständige der Enquete-Kommission-Künstliche- Intelligenz des Deutschen Bundestages gefragt, wie die Gesellschaft mit dieser Sorge umgehen könne?

Neue Wege, vertrauenswürdige Quellen zu identifizieren

Sie antwortete: „Wir müssen über neue Wege nachdenken, wie wir vertrauensvolle Quellen identifizieren können. Vielleicht ein System, das auf Vertrauen basiert, in dem Menschen sagen: Ich kenne diese Person, ich würde meine Hand für sie ins Feuer legen. Dieses Vertrauen könnte dann ebenso auf Texte und Fotos abfärben. Ich denke, dass wir in den nächsten Jahren Produkte und Plattformen brauchen, mit denen vertrauenswürdige, von Menschen generierte Texte und Dokumente gekennzeichnet werden.“

Drei Bereiche theologischer Reflexion über KI

Solange sich unsere Landeskirche als Volkskirche versteht, hat sie diese Prozesse theologisch zu reflektieren. Dazu gehören drei wesentliche Teilbereiche, die ich zum Schluss noch kurz skizzieren will.

Erstens: Die evangelische Kirche ist an einer Epochenschwelle entstanden. Sie hat dabei eine Medienrevolution (Buchdruck!) begleitet und in einer Zeit großer Verunsicherung auf eine Stärkung der Gottesbeziehung und das Wort Gottes gesetzt. Sie hat das Gottesbild stark vom Vertrauen auf Gottes Gnade und Zuwendung her entfaltet. Daran können wir heute wieder anknüpfen. Dabei ist aufmerksame Gelassenheit angebracht. Keine Apokalyptik, aber auch keine Blauäugigkeit.

Zweitens: Für die reformatorische Anthropologie ist die Gottebenbildlichkeit zentral. Aus ihr heraus entwickelt sich zwangsläufig eine Kritik an Ausgrenzung oder Schlechterstellung bestimmter Personen. Als Kirche haben wir gegen faktische Ausgrenzungen durch Algorithmeneinsatz auf gesellschaftliche Teilhabe hinzuwirken, gerade dort, wo andere das nicht tun. Hier geht es um Mitwirkung an digitaler Gerechtigkeit.

Drittens: Zentral für das reformatorische Bildungsverständnis ist die existentielle Bedeutung von Bildung, die über den instrumentellen Charakter von Informationsbilddung weit hinausgeht. Die Kirche wirkt daran mit, Menschen in die Lage zu versetzen, sich eigene Urteile zu bilden und kritisch auf ChatGPT-generierte Texte blicken zu können.

Landesbischof Ernst-Wilhelm Gohl

Hinweis für Kirchengemeinden

Kirchengemeinden sind herzlich eingeladen, Texte wie diesen von www.elk-wue.de in ihren eigenen Publikationen zu verwenden, zum Beispiel in Gemeindebriefen. Sollten Sie dabei auch die zugehörigen Bilder nutzen wollen, bitten wir Sie, per Mail an kontaktdontospamme@gowaway.elk-wue.de nachzufragen, ob die Nutzungsrechte für den jeweiligen Zweck vorliegen. Gerne können Sie alle Bilder nutzen, die Sie im Pressebereich unserer Webseite finden.

Schon gewusst?

Farbschwäche:

Benutzen Sie die Schieberegler oder die Checkboxen um Farbeinstellungen zu regulieren

Einstellungen für Farbschwäche

Schrift:

Hier können die Schriftgröße und der Zeilenabstand eingestellt werden

Einstellungen für Schrift

Schriftgröße
D
1
U

Zeilenabstand
Q
1
W

Tastenkombinationen:

Mit den aufgeführten Tastenkombinationen können Seitenbereiche direkt angesprungen werden. Verwenden Sie auch die Tabulator-Taste oder die Pfeiltasten um in der Seite zu navigieren.

Inhalt Tastenkombinationen

Hauptnavigation: M
Toolbar Menü: T
Inhalt: C
Footer: F
Barrierefreiheit: A
Hauptnavigation: M
Toolbar Menü: T
Inhalt: C
Footer: F
Schriftgröße +: U
Schriftgröße -: D
Zeilenabstand +: W
Zeilenabstand -: Q
Nachtmodus : Alt () + J
Ohne Bilder: Alt () + K
Fokus: Alt () + G
Tasten­kombinationen: Alt () + O
Tastensteuerung aktivieren: Alt () + V
Alles zurücksetzen: Alt () + Y