Am 2. Februar 2024 stimmte der Ausschuss der ständigen Vertreter der Mitgliedstaaten (AStV/COREPER) dem Entwurf für eine KI-Verordnung (AI Act) zu. Der Entwurf bedarf – neben eines formalen Beschlusses im Rat – allerdings noch der Zustimmung durch das Europäische Parlament, das sich voraussichtlich am 10./11. April 2024 mit dem Vorhaben befassen wird. Ganz überwiegend wird aber davon ausgegangen, dass das Parlament den Entwurf ebenfalls billigt.
Damit nähert sich ein wichtiges Gesetzgebungsverfahren seinem Ende, welches bereits im April 2021 von der EU-Kommission eingeleitet worden war. Der damals vorgelegte Entwurf der Verordnung fand zunächst keine besonders große Aufmerksamkeit; Künstliche Intelligenz war noch nicht im Bewusstsein einer breiteren Öffentlichkeit angekommen. Ab Herbst 2022 änderte sich das schlagartig. ChatGPT und Co. kamen auf den Markt und ließen sehr schnell erkennen, dass diese neuen Systeme enorme Herausforderungen mit sich bringen. Das gilt insbesondere auch für das Urheberrecht. Es war deshalb zu begrüßen, dass das Europäische Parlament in seinen Änderungsvorschlägen zum Entwurf im Sommer 2023 die neuen Entwicklungen einbezog und darauf drängte, auch generative KI-Systeme zu regulieren.
In den anschließenden Trilog-Verhandlungen von Parlament, Rat und Kommission, die Anfang Dezember 2023 abgeschlossen werden konnten, setzte sich der breitere Regelungsansatz des Parlaments erfreulicherweise durch. Das änderte allerdings nichts daran, dass es anschließend einige Mitgliedstaaten gab, vorneweg Frankreich und Deutschland, bei denen die Zustimmung zu dem Entwurf im AStV bis zuletzt unsicher war. Die Organisationen der Urheber und Rechtsinhaber auf nationaler und europäischer Ebene sprachen sich dagegen in großer Zahl dafür aus, dem Ergebnis der Trilog-Verhandlungen zuzustimmen (vgl. z. B. die Stellungnahmen der Initiative Urheberrecht, https://urheber.info). Am Ende waren diese Initiativen erfolgreich: Der AStV hat das Trilog-Ergebnis einstimmig gebilligt (kritisch zum AI Act dagegen Bomhard/Siglmüller, AI Act – das Trilogergebnis, RDi 2024, 45 ff.).
Im Folgenden soll kurz auf einige wenige Aspekte des AI Act im Zusammenhang mit generativer KI eingegangen werden. Die Ausführungen beziehen sich dabei auf den Entwurf des AI Act in der Fassung der Vorlage für den AStV vom 26. Januar 2024; die Bezeichnung der Vorschriften wird sich teilweise noch ändern.
Definitionen und Anwendungsbereich
Wer sich mit dem AI Act befasst, muss sich durch den sehr umfangreichen Katalog von Definitionen kämpfen (Art. 3). Von zentraler Bedeutung für generative KI ist dabei die Definition von General-Purpose-AI-(GPAI-)Modellen (Art. 3 Abs. 44b). Hierunter sind die allgemein einsetzbaren KI-Ausgangsmodelle zu verstehen, die dann Grundlage für nachfolgende KI-Systeme sein können. Typisches Beispiel sind große KI-Modelle, die Texte, Bilder oder audio- und audiovisuelle Inhalte generieren können. Werden diese nachfolgend in Systeme integriert, handelt es sich um GPAI-Systeme (Art. 3 Abs. 44e). GPT ist demnach das Modell und ChatGPT das System (vgl. auch Bomhard/Siglmüller, RDi 2024, 45 (50). Für GPAI-Modelle mit systematischen Risiken gelten dabei Sonderregelungen.
Der AI Act differenziert ferner zwischen Anbietern (»Provider«; Art. 3 Abs. 2) und Verwendern (»Deployer«; Art. 3 Abs. 4). Als Provider ist anzusehen, wer ein GPAI-System oder ein GPAI-Model entwickelt, auf den Markt gebracht oder in Betrieb genommen hat. Deployer ist, wer ein AI-System unter seiner Verantwortung nutzt, es sei denn, dies geschieht für persönliche, nicht berufliche Zwecke.
Der Anwendungsbereich des AI Act ist dabei weit gefasst (Art. 2). Er bezieht neben Providern und Deployern u. a. auch Importeure und Distributoren von AI-Systemen ein. Dabei spielt es bspw. keine Rolle, ob Provider, die AI-Systeme oder GPAI-Modelle in der EU auf den Markt bringen, ihren Sitz in der EU oder einem Drittstaat haben (Art. 2 Abs. 1 lit. a). Darüber hinaus fallen Provider und Deployer, die in einem Drittstaat niedergelassen sind, bereits dann in den Anwendungsbereich des AI Act, wenn der von den AI-Systemen produzierte Output in der EU genutzt wird (Art. 2 Abs. 1 lit. c); vgl. dazu auch Bomhard/Siglmüller, RDi 2024, 45 (46). Es gibt beim Anwendungsbereich allerdings auch einige wichtige Ausnahmen. Das gilt bspw. für AI-Modelle und -Systeme, einschließlich des Outputs, die ausschließlich für wissenschaftliche Forschungszwecke entwickelt und in Betrieb genommen werden (Art. 2 Abs. 5a). Auch Aktivitäten im Zusammenhang mit Forschung, Test und Entwicklung von Modellen und Systemen, die vor der Markteinführung durchgeführt werden, werden vom AI Act nicht erfasst (Art. 2 Abs. 5b).
Transparenz- und Kennzeichnungspflichten
Im Verlauf des Gesetzgebungsverfahrens standen für die Urheber und sonstigen Rechtsinhaber vor allem die Transparenz- und Kennzeichnungspflichten bei GPAI-Modellen und -Systemen im Mittelpunkt der rechtspolitischen Bemühungen. Dabei ging es sowohl um den Input, also die Nutzung urheberrechtlich geschützter Werke und Leistungen für das KI-Training, als auch um den Output, also das KI-generierte Erzeugnis. Was sieht der AI Act nun insoweit vor? In Bezug auf den Input haben Provider von GPAI-Modellen eine hinreichend detaillierte Zusammenfassung (»sufficiently detailed summary«) über die Inhalte, die für das Training des Modells genutzt worden sind, zu erstellen und zu veröffentlichen (Art. 52c Abs. 1 lit. d). Die Zusammenfassung soll sich dabei nach einem Muster (»Template«) des neu zu errichtenden AI Offices richten. Dabei geht es, wie sich den Erwägungsgründen des AI Act entnehmen lässt (EG 60k), offenbar eher um die Angabe von verwendeten Datenbanken oder Datenquellen, nicht aber um titelgenaue Informationen. Dessen ungeachtet soll die Zusammenfassung aber auch so genau sein, dass sie es den Rechts-inhabern ermöglicht, ihre Urheberrechte wahrzunehmen. Hier bleibt mit Spannung abzuwarten, wie das Muster des AI Offices gestaltet sein wird.
In Bezug auf den Output wird die Sache noch etwas komplizierter. Insoweit ist zunächst vorgesehen, dass Provider von GPAI-Systemen, die Text, Bild, Audio oder Video generieren, im Grundsatz sicherstellen müssen, dass die KI-Produkte in maschinenlesbarer Form als solche gekennzeichnet und erkennbar sind (Art. 52 Abs. 1a). Die Vorgabe gilt aber u. a. dann nicht, wenn das KI-System eine unterstützende Funktion für »standard editing« hat. Soweit es um »Deep-Fake«-Erzeugnisse bei Bild-, Audio- oder Video-Inhalten geht, müssen außerdem auch die Deployer offenlegen, dass es sich um KI-Erzeugnisse handelt (Art. 52 Abs. 3 UA 1). Dabei gibt es allerdings eine Sonderregelung, wenn die Inhalte in künstlerischen, satirischen oder fiktionalen Werken oder Programmen verwendet werden.
Deployer von KI-Systemen, die einen Text generieren, der mit der Absicht veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, sind ebenfalls verpflichtet, offenzulegen, dass der Text von einem KI-System stammt (Art. 52 Abs. 3 UA 2). Das gilt aber u. a. dann nicht, wenn das KI-Erzeugnis einer menschlichen Überprüfung oder redaktionellen (»editorial«) Kontrolle unterzogen wurde und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung trägt.
Im Einzelnen wird man die Transparenz- und Kennzeichnungsvorgaben des AI Act in Bezug auf Input und Output noch sehr genau untersuchen und prüfen müssen, wie sie sich bestmöglich in die Praxis umsetzen lassen. Das gilt nicht zuletzt für die kollektive Rechtewahrnehmung bei den Verwertungsgesellschaften.
Inkrafttreten
Der AI Act tritt 20 Tage nach der Veröffentlichung im Amtsblatt in Kraft und findet – mit bestimmten Ausnahmen – 24 Monate später Anwendung (Art. 85 Abs. 2). Eine Ausnahme betrifft die Transparenzpflicht der Provider von GPAI-Modellen in Bezug auf den Input (»hinreichend detaillierte Zusammenfassung«; vgl. oben); diese ist bereits zwölf Monate nach Inkrafttreten zu beachten (Art. 85 Abs. 3 lit. a). Letzteres gilt allerdings wiederum nicht für Provider, die GPAI-Modelle bis zu diesem Zeitpunkt bereits auf den Markt gebracht haben; für sie findet ab diesem Zeitpunkt eine weitere zweijährige Umsetzungsfrist Anwendung (Art. 83 Abs. 3).
AI Act und Urheberrecht
Der AI Act ändert die bestehenden urheberrechtlichen Regelungen auf europäischer Ebene nicht. Dessen ungeachtet wird im AI Act verschiedentlich auf das Urheberrecht Bezug genommen (vgl. insbes. EG 60i ff.). Problematisch ist in diesem Zusammenhang, dass die Verfasser des AI Act in den Erwägungsgründen (EG 60i, 60j) und im Regelungsteil (Art. 52c Abs. 1 lit. c) offenbar davon ausgingen, dass die Nutzung von urheberrechtlich geschützten Werken für KI-Training unter die gesetzliche Erlaubnis für Text und Data-Mining (TDM) nach Art. 4 DSM-RL fällt. Insbesondere wird vorgegeben, dass die Anbieter von GPAI-Modellen im Rahmen ihrer Unternehmenspolitik sicherstellen müssen, dass Vorbehalte nach Art. 4 Abs. 3 DSM-RL, die dazu führen, dass die TDM-Nutzung nicht mehr gesetzlich erlaubt ist, beachtet werden (Art. 52c Abs. 1 lit. c). Die Frage, inwieweit Art. 4 DSM-RL bei der Nutzung von Werken für KI-Training Anwendung findet, ist aber umstritten, und es gibt gute Gründe, die dagegen sprechen. Eine inhaltliche Entscheidung in diesem Punkt dürfte durch den AI Act auch nicht getroffen worden sein, weil durch die neue Verordnung das Urheberrecht nicht geändert wird (vgl. aber Bomhard/Siglmüller, RDi 2024, 45 (50), die eine implizite Klarstellung durch den AI Act annehmen). Es wäre deshalb zu begrüßen gewesen, wenn der AI Act sich bei der Streitfrage neutral verhalten hätte. Positiv hervorzuheben ist aus Sicht der Rechtsinhaber dagegen, dass das europäische Urheberrecht auch dann beachtet werden soll, wenn die Nutzung der Werke für Trainingszwecke im außereuropäischen Ausland stattfindet, die GPAI-Modelle aber auf den europäischen Markt gebracht werden (EG 60j; kritisch dazu Bomhard/Siglmüller, RDi 2024, 45 (51).
Rechtspolitische Perspektive
Der AI Act lässt – wie eben ausgeführt – das europäische Urheberrecht im Grundsatz unberührt. Das ändert aber selbstverständlich nichts daran, dass die rasanten Entwicklungen im Zusammenhang mit generativer KI für das Urheberrecht von sehr großer Bedeutung sind. Ob und inwieweit es hier konkreten Reformbedarf gibt, sollte nunmehr genau geprüft werden. Nach der Europawahl 2024 wäre der richtige Zeitpunkt gekommen, konkrete Vorschläge im Bereich des Urheberrechts auf europäischer Ebene zu präsentieren.