Anna Kontriner hat sich gefragt, ob sie ihre Arbeit als selbstständige Lektorin an Künstliche Intelligenz verliert – und hatte daraufhin eine spannende Konversation mit ChatGPT. Für y-nachten.de gibt sie diese wieder und spricht die ethischen, politischen und anthropologischen Implikationen an.

Ich hatte selten ein Gespräch, das zugleich so langweilig und so aufschlussreich war wie eine Unterhaltung mit ChatGPT. Ich habe die Künstliche Intelligenz gefragt, wie sie dazu steht, dass sie mich gerade meinen Job kostet – ich arbeite (noch) als selbständige Lektorin und mittlerweile nutzen immer mehr Studierende und Wissenschaftler*innen KI, um ihre Texte zu lektorieren (und wohl auch, um sie schreiben zu lassen). Ich dachte mir, wenn die KI meine Arbeit machen kann, dann soll sie sich zumindest erklären.

Das hat sie nicht gemacht. Und was wie eine mäßig lustige Anekdote klingt, verweist auf ein echtes Problem. Dabei geht es nicht in erster Linie um die Inhalte, die mittels ChatGPT generiert werden und die unausgewogen, irreführend oder schlicht falsch sein können. Vielmehr geht es um die strukturellen Bedingungen und Folgen des Einsatzes von KI. Denn so kompetent und vielseitig einsetzbar sich die KI gibt, die Verantwortung für ihre Funktionsweise übernimmt sie nicht:

„Als KI-basiertes Sprachmodell habe ich keinen freien Willen und handle nicht selbstständig. Ich arbeite auf der Grundlage der Daten und Informationen, die mir von meinen Entwicklern und Nutzern zur Verfügung gestellt werden. Ich kann jedoch nicht für die Entscheidungen oder Handlungen verantwortlich gemacht werden, die auf der Grundlage meiner Ausgaben getroffen werden. Die Verantwortung für die Verwendung meiner Ausgaben und die Auswirkungen, die sie haben können, liegt bei denjenigen, die sie nutzen. Es liegt in der Verantwortung der Menschen, die KI-Technologie einsetzen, sicherzustellen, dass sie ethisch und verantwortungsvoll verwendet wird und dass ihre Auswirkungen auf die Gesellschaft und die Wirtschaft berücksichtigt werden.“1

ChatGPT übernimmt also nicht die Verantwortung für das, was es macht. Das ist naheliegend, wenn eine bedenkt, dass sich ChatGPT selbst als Maschine beschreibt. Eine Maschine kann keine Verantwortung im rechtlichen, politischen oder moralischen Sinn übernehmen. Diese Verantwortung liegt laut ChatGPT bei „Technologieunternehmen, Regierungen, Regulierungsbehörden und der Gesellschaft insgesamt“.

Kontrolle ist nicht möglich – wo also liegt die Verantwortung?

Allerdings räumt die KI nach mehrmaligen Nachfragen und einigen Ausreden, die auch von Politiker:innen mit zu viel Medientraining und zu wenig Charakter stammen könnten, ein:

„Es stimmt, dass die Technologie, einschließlich künstlicher Intelligenz, nicht vollständig kontrolliert werden kann. Daher ist es auch schwierig, die Verantwortung für die Auswirkungen von Technologie vollständig zu übernehmen.“

Das heißt: Die KI schreibt die Verantwortung für ihren Einsatz Akteur*innen zu, die diese Verantwortung gar nicht tragen können, weil niemand die KI kontrollieren kann. Und zwar nicht, weil KI wie ein Naturphänomen einfach ‚passieren‘ würde, sondern weil ihre „Schöpfer [sic]“ ihr die Fähigkeit verliehen haben, zu lernen, sich selbständig weiterzuentwickeln und unabhängig von externer Kontrolle zu funktionieren, es könnte auch gesagt werden: zu handeln. Nur eben ohne den Teil mit der Verantwortung.

„Als KI-basiertes Sprachmodell habe ich keine Meinung, Empfindungen oder Werte im moralischen Sinne, da ich keine moralischen Entscheidungen treffen kann. Ich bin ein Werkzeug, das darauf ausgerichtet ist, Informationen bereitzustellen und Fragen zu beantworten.“

Aber: ChatGPT handelt und sein Handeln hat moralische und politische Implikationen. Nur die Verantwortung dafür kann die KI nicht übernehmen. Die Verantwortung für ihr Handeln kann auch sonst niemand übernehmen, weil niemand versteht, warum die KI wie funktioniert und weil niemand sie kontrollieren kann. Wo also liegt die Verantwortung?

Auch künstliche Intelligenz hat eine materielle Basis: Daten

Die Verantwortung liegt tiefer, dort, wo die materielle Basis der KI ist: Es geht um Daten. Die Daten, mit denen die KI trainiert wurde, prägen sie. Ohne diese Datengrundlage würde sie nicht funktionieren. Die Relevanz der Daten gewährleistet die Wirksamkeit der KI und somit ihre strukturelle Macht. Die Verantwortung für das Handeln von ChatGPT liegt bei den Menschen und Organisationen, die entschieden haben, welche Trainingsdaten sie bekommen hat, ja, dass sie überhaupt so viele Daten bekommen hat.

Wie meistens ist das mit der materiellen Basis keine ruhmreiche Geschichte. Die Daten, mit denen ChatGPT trainiert wurde, haben unterbezahlte Arbeiter*innen in Kenia vorsortiert.2 Damit die KI nicht zu viel Gewalt reproduziert, mussten Menschen traumatisierende Texte, Bilder und Videos ansehen und kategorisieren. Die Daten, mit denen ChatGPT arbeitet, erfordern große Rechenzentren und Unmengen an Energie (wie viel genau, weiß keine so genau).3 Und schließlich: Mit den Daten, die gesammelt wurden und werden, wird auch Deutungshoheit gesammelt, und damit Macht und letztlich Geld.

Der Einsatz von künstlicher Intelligenz verstärkt die Akkumulation von Deutungshoheit, Macht und Geld

Und insofern kostet mich KI nicht einfach meinen Job, sondern sie führt dazu, dass Deutungshoheit, Macht und Geld verlagert werden. Wenn KI wissenschaftliche Texte lektoriert (oder schreibt), dann entscheidet sie auf Basis einer intransparent zusammengestellten, möglicherweise falschen Datengrundlage, was guter wissenschaftlicher Stil ist, statt dass Menschen dies aushandeln. Auf Grundlage dieser intransparenten Datengrundlage werden Diskurse beeinflusst. Die KI hat Deutungshoheit, denn sie tut, als wären ihre Aussagen objektiv, obwohl sie nur so gut sein können wie die Datengrundlage, die für die Nutzer*innen nicht überprüfbar ist. Die KI gewinnt so an politischer und wirtschaftlicher Relevanz und damit auch an Geldwert. Und genau das ist das Problem: nicht, dass jetzt eine Maschine besser darin ist, Stilblüten in mittelguten BacheIorarbeiten zu identifizieren als ich, sondern, dass Deutungshoheit, Macht und Geld akkumuliert werden. Irgendwo kauft sich vermutlich gerade eine Investorin, die ChatGPT ‚für sich arbeiten lässt‘ ihre dritte Yacht, während ich nicht weiß, wie ich die Miete bezahlen soll.

Problematisch ist nicht die Technologie der künstlichen Intelligenz an sich, das Problem betrifft die strukturellen Bedingungen ihrer Entwicklung und ihres Einsatzes. Die Ursache dafür ist, dass niemand die Verantwortung für ChatGPT übernimmt, obwohl irgendjemand aktiv entschieden haben muss, welche Trainingsdaten der KI zugänglich gemacht werden und wie groß ihre Macht somit sein würde. Zu kritisieren ist nicht die technologische Entwicklung an sich, zu kritisieren sind die Intransparenz, die Unkontrollierbarkeit und die Konzentration von Deutungshoheit, Macht und Geld.

Im Grunde zeigt sich hier ein Problem, das unsere Gesellschaft schon vor der Einführung von ChatGPT hatte: Zu viel Macht sammelt sich auf nicht nachvollziehbare Weise bei zu wenigen Instanzen. Und das sollten wir adressieren.

Hashtag der Woche: #ChatGPT


Beitragsbild: ilgmyzin

[1] Alle wörtlichen Zitate stammen von ChatGPT (chat.openai.com, ChatGPT May 3 Version, Zugriff: 08.05.2023)

[2] Vgl. OpenAI Used Kenyan Workers on Less Than $2 Per Hour: Exclusive | Time (Zugriff: 10.05.2023)

[3] Vgl. ChatGPT’s energy usage is a mystery – here’s what we do know (techhq.com) (Zugriff: 10.05.2023)

Empfehlungen zum Weiterlesen:
Daniel Strassberg, Spektakuläre Maschinen. Eine Affektgeschichte der Technik, Berlin 2022.
Marc Uwe Kling, QualityLand, Berlin 2017.

Print Friendly, PDF & Email

anna kontriner

hat Philosophie (MA) und Katholische Theologie (Mag.) studiert. Sie lebt in Wien, arbeitet (noch) als freie Lektorin und ist Aktivistin für Klimagerechtigkeit

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ich habe die Datenschutzerklärung gelesen und bin mit dem Speichern der angegebenen Daten einverstanden: