»Es tut mir leid Dave, das kann ich nicht tun.« Mit diesem Satz besiegelt Bordcomputer »HAL 9000« das Schicksal des Astronauten Dave Bowman in Stanley Kubricks Science-Fiction-Meisterwerk »2001: Odyssee im Weltraum«. 1968, dem Jahr, in dem der Filmklassiker auf die Leinwand kam, sprach man noch von »Elektronengehirn« statt Künstlicher Intelligenz (KI). Aber im verfilmten Gedankenexperiment wurden bereits zwei zentrale Aspekte von KI beleuchtet – der segensreiche und der gefährliche. Im Film ist eine Weltraummission nur durchführbar, weil die fiktive KI »HAL« Menschen unterstützt. Am Ende ist sie aber auch für den Tod der Astronauten verantwortlich. Heute diskutieren wir kein Gedankenexperiment mehr, keine Science-Fiction, sondern Realität. KI ist für Journalistinnen und Journalisten im Alltag angekommen. Die Technologie bietet Chancen, aber auch enorme Risiken. Was fehlt, sind verbindliche Regeln. Das kann sich noch rächen.

Wenn Reporterinnen ein Interview führen, zeichnet ein Tonband das Gesagte auf. Zurück in der Redaktion hieß es dann früher: Kopfhörer auf und Wort für Wort die Aufzeichnung abtippen. Je länger das Interview, umso länger dauerte das Transkribieren. Stunden konnten Journalisten mit dieser stumpfen Aufgabe verbringen. Dank KI gibt es nun Werkzeuge, die diese Routineaufgabe erledigen. Nicht nur Interviews, auch Untertitel für Videos werden so generiert. Kaum eine Kollegin oder ein Kollege trauert der alten Zeit hinterher.

Aufwendige Recherchen mit umfangreichen Datensätzen wären ohne Unterstützung von mehr oder weniger intelligenter Software nicht denkbar. Ohne »Big-Data«-Analysetool hätten die »Panama Papers« nicht ausgewertet werden können, wäre einer der größten Wirtschafts- und Politskandale niemals entlarvt worden. »Elektronengehirne« als hilfreicher Sidekick für investigative Journalistinnen und Journalisten? Und also lebten sie glücklich bis an das Ende ihres Berufslebens. Es wäre so schön, wenn wir an dieser Stelle enden könnten. Doch wie schon im Kubrick-Film hält auch die Realität eine tragische Wendung bereit.

In manchen Medienhäusern freut man sich weniger über die im Redaktionsalltag hilfreichen Aspekte von KI. Manche Manager haben eher Dollar- oder Eurozeichen in den Augen – weil sie Sparpotenzial sehen. Kollege Roboter könnte ja auch Zeitungsseiten bauen. Es gibt KI-Programme, die das noch recht ungelenk und nur mit vielen nötigen Vorarbeiten erledigen. Aber es bedarf nur wenig Fantasie, um zu erahnen, wo das hinführen kann. Editoren, also jene Redakteure, die in Verlagen derzeit noch das Gestalten von Zeitungsseiten händisch am Computer erledigen, müssen mittlerweile oftmals um ihren Job bangen. Es ist erst der Anfang. Denn einige Manager haben erst begonnen, ihre Medienhäuser nach Einsparpotenzial durch KI zu durchforsten.

Der Einsatz von KI aber »kann auch dazu dienen, Arbeitsprozesse zu optimieren und die Effizienz zu steigern. In einigen Fällen können Mitarbeiterinnen und Mitarbeiter durch den Einsatz von KI-Technologien auch in neue Rollen mit höherem Mehrwert für das Unternehmen überführt werden.« Aber: »Dennoch können Kosteneinsparungen durch Automatisierung dazu führen, dass Unternehmen ihre Arbeitskräfte neu bewerten und Anpassungen vornehmen müssen.« Wer das sagt? Das antwortet ChatGPT auf die Frage, ob KI zum Abbau redaktioneller Arbeitsplätze führt.

Der Deutsche Journalisten-Verband (DJV) hat frühzeitig in einem Positionspapier Leitplanken für den Einsatz von KI im Journalismus aufgestellt. Dass keine redaktionellen Arbeitsplätze wegen KI abgebaut werden sollen, gehört ebenso dazu wie die Forderung nach einer Kennzeichnungspflicht für deren Einsatz. Transparenz wird eine Frage der Glaubwürdigkeit sein, der härtesten Währung im Journalismus. Fast jeder hat bereits KI-generierte Bilder gesehen, sei es das vom Papst in Winterjacke oder ein fiktives Pizza-Karton-Chaos beim Grünen-Parteitag. Gefälschte Bilder, die wenigstens auf den ersten Blick täuschen könnten. KI kann schon jetzt Meinung manipulieren. Es braucht menschliche Intelligenz, um noch rechtzeitig Regeln für die Künstliche zu formulieren. Der europäische AI-Act ist ein erster Schritt in die richtige Richtung. Es müssen weitere folgen. Etwa beim Urheberrecht.

Plattformen, meist in den USA, trainieren ihre KI mit Daten von Autorinnen und Autoren. Sie sind aber derzeit nicht verpflichtet zu sagen, mit welchen Daten sie ihre KI »füttern«. Doch so können Urheberinnen und Urheber nicht am möglichen Gewinn beteiligt werden, den die meist US-amerikanischen Unternehmen mit ihrer Software machen wollen. Es ist ein Diebstahl geistigen Eigentums, der gleichzeitig noch eine Finanzierungssäule des Journalismus in Deutschland gefährdet. Wenn Urheber kein Geld für ihre Arbeit erhalten, können sie auch keinen privat finanzierten Journalismus mehr betreiben. Ein Problem mit gesamtgesellschaftlichen Auswirkungen. Daher ist es vielleicht an der Zeit, dass Journalistinnen und Journalisten in Richtung der Plattform-Konzerne sagen, wenn es um das kostenlose Ausbeuten ihre Werke geht: »Es tut mir leid, KI, das kann ich nicht tun.«

Dieser Text ist zuerst erschienen in Politik & Kultur 3/2024.