Beim Thema der Künstlichen Intelligenz (KI) ist man leicht geneigt, entweder über absolute Science-Fiction-Themen zu sprechen – echte KI, technologische Singularität oder Ähnliches – oder deren Fähigkeiten als das bloße Zusammentragen vorhandener Daten und deren Nutzung abzutun – ein weiteres Buzzword ist Big Data. Beide Ansätze führen, jedenfalls was die Schaffung, Herstellung und Verbreitung kultureller Güter angeht, ein wenig in die Irre. Selbstverständlich befindet sich auch die Musikindustrie nicht nur in der Analyse und Diskussion, sondern längst mitten im Geschehen. Es sollen deshalb hier – gerade auch vor dem Hintergrund verschiedener aktueller Entwicklungen – ein paar Gedanken zur Diskussion beigetragen werden. Der Schwerpunkt liegt auf dem Verhältnis der Musikindustrie zur KI. Diese Diskussion hat wie so oft kulturelle, rechtliche und auch wirtschaftliche Komponenten, die kaum getrennt voneinander gedacht werden können.

Auf den Schultern von Riesen

Hinsichtlich der kulturell-rechtlichen Diskussion scheint relativ große Einigkeit zu herrschen: Für die Erreichung eines urheberrechtlichen Schutzes muss ein Mensch an der Schaffung eines Werks beteiligt gewesen sein. Das bedeutet, dass ein Werk, das mithilfe einer KI erstellt wurde, die Schöpfungshöhe erreichen kann, hingegen eines, das allein durch eine KI erstellt wurde, nicht. Das ist eine sinnvolle Unterscheidung, zumal das Urheberrecht eine Kontrolle an dem Werk in ideeller und materieller Hinsicht verspricht: aus zu einem Recht gewordenen Respekt vor der schöpferischen Leistung eines Menschen.

Vor diesem Hintergrund betrachtet man die bereits vorhandene, schier unfassbare Menge von abrufbaren Inhalten mit ein wenig Sorge. So werden beispielsweise pro Tag ca. 100.000 neue Titel allein bei dem Streamingdienst Spotify hochgeladen. Vor wenigen Monaten waren es noch 60.000. Kombiniert man diesen Sachverhalt mit dem Wunsch nach immer weitergehender Schrankenregelungen und Ausnahmen zum Urheberrecht, so wird es sicherlich nicht leichter, neue Werke von kultureller Substanz auszumachen und wertzuschätzen. Ein gutes Beispiel in diesem Bereich ist vielleicht die Text-und-Data-Mining(»TDM«)-Regelung, die mit Umsetzung der europäischen DSM-Richtlinie in § 44b UrhG Einzug gehalten hat. Mit dieser Regelung soll die automatisierte Analyse von digitalen Werken ermöglicht werden, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen. Schlummert hier schon der nächste Star in einer Maschine auf Basis von cleverer Mustererkennung und der entsprechenden Schaffung neuer – vielleicht sogar maschinen-basierter – Inhalte?

So sprechen im Moment alle über ChatGPT. Zahlreiche Menschen haben sich schon von den strukturell und inhaltlich recht präzise sortierten Antworten dieser KI verblüffen lassen. Microsoft scheint derzeit weitere zehn Milliarden Dollar in OpenAI, dem Unternehmen hinter ChatGPT, zu investieren, dessen Marktkapitalisierung damit auf ca. 29 Milliarden Dollar steigt. Das erinnert an die Entwicklung von Diensten wie Google etc. Befinden wir uns in einer ähnlichen Diskussion wie dereinst über die sogenannten Prosumentinnen und Prosumenten, als man allen weismachen wollte, dass jede Endnutzerin oder jeder Endnutzer eine Künstlerin bzw. ein Künstler sei – und ersetzen diese Prosumentinnen bzw. Prosumenten bloß durch die KI? Das ginge dann erneut zulasten der Künstlerinnen und Künstler und erneut zugunsten großer Tech-Konzerne aus. Mit anderen Worten: Warum sollen gerade Künstlerinnen und Künstler sowie ihre Partner mit ihren Inhalten das Wachstum von KI-Giganten fördern? Jedenfalls sollte eine Gesellschaft sich davor hüten, den Schutz kultureller Entwicklung hinter den technischen Fortschritt zu stellen. Immerhin: Nach der europäischen TDM-Regelung können die Rechteinhaberinnen und Rechteinhaber – wenn auch nur maschinenlesbar – einer TDM-Nutzung widersprechen. Mit Sorge sind die jüngeren Entwicklungen in Großbritannien zu sehen, wo die Regierung zwischenzeitlich die Position eingenommen hatte, dass dort eine TDM-Regelung ohne Widerspruchsmöglichkeit und ohne Bezahlung geschaffen werden solle – mit dem Ziel, das KI-freundlichste Land der Welt zu werden.

Was Gestalt annimmt

Es ist selbstverständlich, dass die Entwicklung hin zu immer zahlreicheren und besseren KI-Anwendungen unaufhaltsam ist und in beinahe alle Lebensbereiche Einzug halten wird. Wie stets umarmt die Musikindustrie auch hier sämtliche technischen Neuerungen. Zur Unterstützung von Promotion und Marketing etwa sowie im Bereich der präzisen und teilweise tagesgenauen Abrechnung werden längst Datenanalyse und -projektion eingesetzt. Und die Zuhilfenahme von KI-basierten Elementen ist sicherlich auf vielen Ebenen auch gerade zum Vorteil des künstlerischen Schaffens nutzbar. Auf Basis des bereits Gesagten gilt es aber, die notwendigen Abgrenzungen und Schutzbereiche zu bedenken.

Was wir gestalten müssen

Vor diesem Hintergrund ist das aktuelle Gesetzgebungsprojekt der EU-Kommission interessant: Mit dem »AI-Act« zielt die Kommission darauf ab, »die Risiken, die sich aus der spezifischen Nutzung von KI ergeben, durch eine Reihe ergänzender, verhältnismäßiger und flexibler Vorschriften zu bewältigen«. Dieser Rahmen solle Klarheit bei der KI-Entwicklung, -Einrichtung und -Nutzung geben. Die aktuellen Entwürfe sehen die Einteilung von KI-Systemen bzw. -Anwendungen in vier verschiedene Risikostufen vor: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko. Der Diskussionsbedarf scheint jedenfalls gewaltig: Allein im EU-Parlament liegen ca. 3.000 Änderungsanträge zu dem Ausgangsentwurf der Kommission vor. Das ist verständlich. Bereits bei Betrachtung einiger Beispiele, die hier nur angerissen werden sollen, stellt sich die Frage, wie man diese künftig einordnen will. Im Bereich der Transparenz bei Verwendung von KI stellt sich z. B. die Frage, wie mit »deep fakes« umgegangen werden soll. Müssen diese gekennzeichnet werden? Man ist geneigt, das zu bejahen. Wie verhält sich dies aber in Abgrenzung von Meinungs- und Kunstfreiheit?

Eine andere Fragestellung betrifft Empfehlungssysteme (»recommendation services«). Wie sollen diese aufgestellt sein angesichts der schieren Masse an Inhalten – und wie verhält es sich, wenn man beispielsweise das Phänomen von »fake artists« auf Streamingdiensten betrachtet oder als »white noise« eingestellte Inhalte – beides, um ohne Rechtsgrund Einkommen zu generieren? Auch die sogenannten »content moderation systems« beschäftigen den Gesetzgeber. Vermutlich wird man sich darauf einigen können, dass die Auffindbarkeit von Inhalten nicht diskriminierend möglich sein muss. Ebenso wichtig aber wird es sein, illegal eingestellte Inhalte qua Rechtsverfolgung entfernen zu können, dass solche also nicht auffindbar sein sollten.

Im Ergebnis: Es eröffnen sich künftig immer mehr Fragen, die sich ggf. nur auf Basis der gesamten Rechtsstruktur werden lösen lassen – also unter Berücksichtigung von Markenrecht, Wettbewerbsrecht, Persönlichkeitsrecht und Urheberrecht. Noch wichtiger wird es daher sein, in Zukunft einen deutlichen Schwerpunkt auf die evidenzbasierte Rechtssetzung zu legen. Und: Es gilt, bei einem internationalen Phänomen auch noch die unterschiedlichen Rechtsordnungen und -ansätze zu berücksichtigen. Wer weiß, vielleicht lassen sich solche komplizierter werdenden Rechtsfragen nur noch unter Verwendung einer KI lösen?

Dieser Text ist zuerst erschienen in Politik & Kultur 04/2023.