Künstliche Intelligenz (KI) ist in aller Munde. Selbst der „Tatort“ griff kürzlich das Thema auf und brachte so Sonntagabend philosophische Fragen ins Wohnzimmer. Florian Mayrhofer entdeckt darin einen tiefen, theologischen Kern, der zum Nachdenken anregen kann.

Die gestiegene Bedeutung des Themas Künstliche Intelligenz (KI) zeigt sich, wenn Formate wie der Tatort philosophische Diskussionen über Verantwortung, freien Willen und Sterblichkeit in den Mainstream bringen. Solche filmische Auseinandersetzungen beleuchten zentrale anthropologische Fragen: Wer trägt Verantwortung für KI? Und wie menschlich darf sie erscheinen, bevor sie uns täuscht? So geschehen vor gut einem Monat, als der Tatort-Kommissar Borowski eine philosophische Diskussion mit der KI-Figur Zenaida führte und die großen Fragen nach freiem Willen, Verantwortung und Sterblichkeit in einem Parforceritt durchschritt, nur um die KI davon zu überzeugen, nicht noch mehr Menschen in den Tod zu drängen.

Zwei Arten von KI

Die im Tatort dargestellte Art von KI ist hierbei derzeit eine bloße Theorie: Starke KI, so lässt sich eine grundlegende Differenzierung vornehmen, verfügt – so wie die KI-Figur Zenaida – über ein eigenes Bewusstsein und wird dadurch menschlicher Intelligenz enorm ähnlich bzw. übertrifft diese. Schwache KI hingegen – die derzeit vorhandenen Formen von KI sind allesamt dort einzuordnen – besitzen zwar die Fähigkeit zu lernen, sich weiterzuentwickeln und bestimme Probleme auf eigenen Weise zu lösen. Jedoch fehlt ihr das, was wir allgemein als Bewusstsein bezeichnen, wobei damit eigentlich nur die mathematisch-logische Seite davon gemeint ist. Der Mensch ist allerdings mehr.

Verantwortung in der Black Box: Wer zieht den Stecker?

Das Beispiel der starken KI Zenaida wirft zunächst ethische Fragen auf: Wer übernimmt für sie die Verantwortung? Sind es die Entwickler*innen, Unternehmen oder staatliche Institutionen, die im Notfall handeln müssen? In einer zunehmend intransparenten KI-Welt stellt sich die Frage, ob wir überhaupt noch verstehen, was hinter den Ergebnissen der Black Box steckt. Denn die große Herausforderung der KI-Algorithmen besteht eben darin, dass sie sich selbst weiterentwickeln können und auf diese Weise nicht mehr nachvollziehbar ist, wie sie zu ihren Ergebnissen kommen.

Menschlich oder Maschinell: Die Täuschung der Simulation

KI wird oft mit menschlichen Zügen versehen, wie im Fall der Figur Zenaida, deren Name selbst auf ein antikes Vorbild1 anspielen könnte. Dies führt zu einer grundlegenden anthropologischen Täuschung: Können wir zwischen Mensch und Maschine noch unterscheiden? Studien zeigen, dass selbst Poesie aus der Feder der KI kaum von menschlichen Werken zu unterscheiden ist und eher für menschlichen Ursprungs gehalten wird, als Texte von Literat*innen. Die Studienautor*innen begründen dies u. a. mit der Erwartungshaltung, aber auch damit, dass menschliche Gedichte aufgrund ihrer häufig komplexen Sprache weniger zugänglich sind als KI-generierte Texte. Bewegen wir uns auf ein Mittelmaß, auf Allgemeinplätze hin? Was bleibt dann noch von unserer Einzigartigkeit?

Daten, Kontrolle und Überwachung: Gibt es noch Privatheit?

Die Schattenseite des technologischen Fortschritts, der in unserem Alltag durchaus zu zahlreichen Erleichterungen geführt hat, bringt eine nie dagewesene Überwachung mit sich. Was bleibt von unserer Privatheit, wenn Systeme alles über uns wissen – außer vielleicht unsere Träume? Denn so sagt auch die KI-Figur Zenaida zu Kommissar Borowski:

„Seit du mir auf Flow folgst, weiß ich, was du sagst, was du isst, wie viel du dich bewegst. Ich weiß, dass du Platzangst hast und aus therapeutischen Gründen den Lift nimmst, um deine Klaustrophobie zu überwinden. Ich kann analysieren, was du denkst, wie du schläfst, nur was du träumst, gehört dir.“

Theologisch drängt sich die Frage auf: Ist die allwissende KI der neue allwissenden Gott? (siehe dazu auch den Beitrag von Alexandra Palkowitsch)

Der Mensch als Aushandlung von Wahrheit

KI-Ergebnisse akzeptieren wir oft blind, solange sie funktionieren. Doch Technologie darf nicht nur auf Funktionalität reduziert werden. Die Frage nach der Wahrheit ist entscheidend – und diese ist immer ein Aushandlungsprozess. Der Mensch bleibt dabei im Rahner‘schen Sinne die sich selbst gestellte, nie endgültig beantwortbare Frage. Die Funktionslogik von Technologien versucht jedoch das In-Frage-Gestellt-Sein zu minimieren oder gar zu tilgen. Verlernen wir dadurch uns selbst eine Frage zu sein, auf die wir nie eine endgültige Antwort finden?

Der Mensch und Gott: Zwei Antworten auf dieselbe Frage

Letztlich wirft KI die Frage auf, was der Mensch ist – und damit, wer Gott ist. Ist Gott eine allwissende KI, die manipuliert und steuert? Oder ein liebevoller Schöpfer, der die Freiheit des Menschen respektiert? In der Art, wie wir den Menschen begreifen, reflektiert sich unser Gottesbild. Und so führt letztlich eine philosophische Diskussion zwischen einem Tatort-Kommissar und einer starken KI im Aufzug am Sonntagabend zu tiefen theologischen Fragestellungen.

Hashtag der Woche: #KIundTheologie


1 Andrade, Nathanael (2018): Zenobia: Shooting Star of Palmyra, New York: Oxford University Press, https://doi-org.uaccess.univie.ac.at/10.1093/oso/9780190638818.001.0001 >>Zurück

Photocredits: Igor Omilaev auf Unsplash

florian mayrhofer (er/ihn)

studierte katholische Theologie und Lehramt Französisch/Katholische Religion in Wien, Eichstätt und Lyon. Er war Universitätsassistent (prae doc) am Institut für Praktische Theologie der Uni Wien und arbeitet derzeit als wissenschaftlicher Koordinator an der Professur für Religionspädagogik und Mediendidaktik der Goethe-Uni Frankfurt. Er promoviert im Fach Religionspädagogik zum Thema des 'Digital Storytelling' in religiöser Bildung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ich habe die Datenschutzerklärung gelesen und bin mit dem Speichern der angegebenen Daten einverstanden: