Seit es textgenerierende KI gibt, sucht ein »Tool« nach möglichen Anwendungen (oder auch: ein Produkt nach Käufern). Die Frage, wo die Automatisierung von Schreiben, Denken, Übersetzen und Entscheiden überhaupt sinnvoll sein könnte, zeigt, dass diese »Werkzeuge« nie als solche konzipiert wurden: Sie sind nicht aus einer Praxis heraus entwickelt worden, um diese zu erleichtern, sondern sollen diese simulieren und idealerweise substituieren. Das Fernziel aller großen KI-Anbieter ist die Entwicklung sogenannter »starker KI«, die Menschen in sämtlichen Tätigkeiten ersetzen oder übertreffen soll; die Sprachdaten sind dabei nur die Basis. Davon sind wir weit entfernt, und es fragt sich auch, warum das, was bis vor Kurzem noch dystopische Science-Fiction war, nun als verheißungsvolle Zukunft gilt. Doch auch die Anpassung an die bestehenden Produkte verändert schon jedes Berufsbild. Was heißt das im Fall des literarischen Übersetzens?  

Zunächst einmal, dass diejenigen, die ersetzt werden sollen, der eigenen Ausplünderung zustimmen würden. Denn um sogenannte Große Sprachmodelle (LLMs) zu trainieren, auf denen Chatbots und Übersetzungssoftware basieren, wurden und werden ohne Information und Honorierung der Urheberinnen und Urheber millionenfach geschützte Werke kopiert – auch die soeben verabschiedete EU-KI-Verordnung hat noch kein Regelwerk geschaffen, damit Einzelne ihre Rechte wahrnehmen können. Das heißt, LLM-Anbieter bereichern sich an Texten, für die Menschen ihre Erfahrungen, Denkleistungen, Ausbildungszeiten, Beziehungen, Träume und Traumata eingesetzt haben und von denen sie leben. Doch auch andere menschliche Leistungen werden abgeschöpft. Da das Internet für die Entwicklung von Sprachmodellen wahllos durchgekämmt wurde, müssen Abertausende von »Ghost Workers« in Billiglohnländern zu hohen psychischen Kosten erst einmal Gewalt und Diskriminierung herausfiltern – und kommen den Verzerrungen (»biases«) im Sprachoutput doch nicht bei. Und wer die kostenlosen Versionen verwendet, stellt den Unternehmen seine Eingaben, Vorlieben und Nutzerdaten zur Verfügung und trainiert die Modelle gratis mit. Generative KI ist ein geklautes Auto. In diesem Auto kann man mitfahren. Man kann sogar Spaß daran haben, aber es bleibt ein geklautes Auto. 

Doch da ist auch noch die Frage nach der Qualität. Eine Reproduktionssoftware verarbeitet weder Emotionen noch ästhetisches Empfinden, sie kennt keine Wahrheit, kein Weltwissen, keine Schönheit – und Hässlichkeit –, keinen Kommunikationsanlass und keine Gründe für Übersetzungsentscheidungen. Stattdessen schafft sie mithilfe von Mustererkennung und Wahrscheinlichkeitsrechnung Als-ob-Texte, hinter denen niemand steht, die zahlreiche Falschbehauptungen enthalten und den Realitätssinn und Wahrheitsbegriff von Menschen verwirren. Denn Menschen haben einen Anlass, etwas »zur Sprache zu bringen«. 

Literarische Texte haben unter anderem eine appellative und eine phatische, also beziehungsstiftende Dimension. Jedes Buch spricht, wie es spricht, weil es gehört werden will und weil anders nicht dasselbe gesagt ist – dem gilt es, in der Übersetzung zu »entsprechen«. Der Ton eines Textes, das Register von Erzähler oder Figur, Slang, Sprachspiele, Ironie, Zitate, Sprüche, Rhythmus, Anspielungen auf andere Texte, alles, was tief im kulturellen Gedächtnis jeder einzelnen Sprachgemeinschaft wurzelt und diese immer wieder aktualisiert, muss beim Literaturübersetzen genauso erkannt, interpretiert und neugestaltet werden wie die persönliche Poetik der Autoren. Lebendigkeit ist nichts, das man nachträglich wie Streusel auf Robotertexte streuen kann, wie Apologeten des »Post-Editing« sich das vorstellen. Eine literarische Übersetzung entsteht aus Tausenden von Mikroentscheidungen, durch die das Sprachmaterial eine tiefe innere Verbindung eingeht, sie entsteht aus dem Durchgang durch Sprach- und Kulturkenntnis, Erfahrung, Recherche, Sinne, Verstand und Emotion, aus einer Begegnung mit einem anderen, sich selbst und der eigenen Sprachgemeinschaft. Literaturübersetzende hören und gestalten Stimmen, die Lesende für die des Autors oder der Autorin halten. Ihm oder ihr gilt es, gerecht zu werden. 

Maschinenübersetzungen mit ihrer fehlenden Zuwendung und Intention, ihrem mangelnden Verständnis und ihrer Kombination von Altbekanntem leisten all das nicht, insofern verdienen sie gar nicht den Namen Übersetzung – so wenig wie der Output von Chatbots Text genannt werden sollte. Künstliche Intelligenz ist keine Intelligenz. Zu dieser gehört auch emotionale, moralische, soziale, ästhetische Intelligenz und praktische Vernunft. All das kann entmenschlichte Sprache nur vortäuschen.  

Über 3.600 Personen und Institutionen wie der Kulturrat Österreich, der PEN Berlin oder die American Literary Translators Association haben aus all diesen Gründen auf change.org das »Manifest für menschliche Sprache« der deutschsprachigen Literaturübersetzerverbände unterzeichnet. Bei der französischen Initiative enchairetenos.org sind es über 6.200, darunter die Nobelpreisträger Annie Ernaux, Olga Tokarczuk und J. M. G. Le Clézio. Sie alle warnen davor, menschliche Übersetzungen, die »mit Hirn und Herz« entstehen, zu entwerten. Der Kreativberuf Literaturübersetzen darf nicht zu einer reinen Bearbeitertätigkeit mutieren. Weitere ökonomische Einbußen würden den Beruf völlig unattraktiv machen, derzeit beträgt das durchschnittliche Jahreseinkommen 18.000 Euro. Wir würden eine Kulturtechnik aufgeben, die darauf beruht, dass Menschen sich über Texte begegnen und erfahren wollen. Der Ressourcenverbrauch würde noch mehr steigen (ein einziger Austausch mit ChatGPT kostet einen halben Liter Wasser; Strom und alles, was für Produktion und Verschrottung von Hardware nötig ist, nicht mitgerechnet). Wir würden die Lust am originären Gestalten aufgeben. 

Dieser Text ist zuerst erschienen in Politik & Kultur 5/2024.