Ein kurzer Text zu Komposition und KI hätte vergangenes Jahr mit einigen Zeilen ChatGPT-Textsimulation begonnen (gähn); heute macht man mit Chancen und Risiken auf, üblicherweise ohne zu sagen, ob das eine das andere rechtfertigt. Unser Denken über Technologie verändert sich weit langsamer als die Technologie selbst; es reproduziert die mächtigen Narrative der Herren der Technologie, die vorgeben, die Zukunft zu kennen, während wir noch die Gegenwart zu begreifen versuchen.

Die KI-Dosen empfinden nichts, meinen nichts und haben daher auch nichts zu sagen. Singen allerdings kriegen sie ganz erstaunlich hin, wenn man ihnen die entsprechenden Befehle und das nötige Trainingsfutter gibt, wie jüngst der Musikproduzent Blakus mit der besorgniserregend guten Popnummer »Sincere« bewies. Er versprach: 100 Prozent KI – und gestand seine Erschütterung.

KI kann Samples kategorisieren, Rauschen entfernen, Spuren separieren und Menschen beim Mischen unterstützen. Die Leistungsfähigkeit wächst rasant, und es ist letztlich unbedeutend, ob es an der technologischen Entwicklung an sich liegt oder am ungebremsten Zustrom von Kapital und Ressourcen. Dass KI und zumal generative KI die Zukunft aller schöpferisch Tätigen in der Musik und jenseits davon nachhaltig verändern wird, ist jedenfalls kaum zu bezweifeln. Obwohl die KI-Revolution erst vor eineinhalb Jahren die Öffentlichkeit erreicht hat, haben die Veränderungen längst begonnen.

Mehr Menschen können mit geringeren Zugangshürden mehr Musik produzieren; die Musikwelt wird mit neuen Tracks geflutet. Dabei entsteht viel Unbedeutendes, doch da, wo Musik vornehmlich der Stillevermeidung dient, reicht die Qualität. Unter den generierten Musikmassen wird das von Menschen gemachte Repertoire verschüttet. Wer nicht sichtbar ist, erreicht kein Publikum und wird nicht geklickt. So sind nicht einmal mehr die menschenunwürdigen Vier- Stellen-hinter-dem-Komma-Beträge der dysfunktionalen Streamingökonomie zu erwirtschaften.

Die Tools werden besser und erreichen ein Publikum, das in absehbarer Zukunft nicht mehr auf die Musik von Profis angewiesen sein wird, weil die Devices die Beats fürs Joggen oder das Romantic Minimal Piano fürs Stelldichein »on the fly« generieren können. Die zu ahnenden Effekte auf die professionellen Musikschaffenden sind akut vielfaltsgefährdend. Die Profis haben daher ein ausgeprägtes Bewusstsein für die Entwicklung. Für ihre schöpferische Arbeit im Musikbereich spielt KI quantitativ zurzeit noch kaum eine Rolle. Ausnahmen finden sich in avantgardistischen Kontexten, in Hochschulumgebungen und am Theater. Hier werden KI-Anwendungen auch generativ eingesetzt, also so, dass sie Teile des Inhalts beisteuern, indem sie musikalische Momente erzeugen oder formen. Das gilt besonders da, wo die Technologie selbst Gegenstand der Konzeption ist und Glitches akzeptabel sind. Je weniger experimentell die Musik im Ergebnis aber anmuten soll, desto unwahrscheinlicher ist der KI-Einsatz, weil die Maschinen (noch?) nicht dazu in der Lage sind, Beabsichtigtes auf zuverlässigem Niveau zu erzeugen.

»We don’t use AI. We use a tool, that has AI functionality«, heißt es beim Film. Die Unterscheidung generativer KI von nicht generativen KI-Anwendungen ist entscheidend. Zu letzteren Produkten gehören etwa die Mixing- und Mastering-Tools von iZotope: Sie werden flächendeckend eingesetzt, aber gar nicht immer der KI zugerechnet und, und das ist das möglicherweise eigentlich Berichtenswerte, oft nur zur Orientierung genutzt, nicht aber im engeren Sinne produktiv. Wenn also das mit Abstand am häufigsten benannte Mixing-Tool Resonanzfrequenzen ermittelt und Filtereinstellungen für ihre Beherrschung vorschlägt, ist bereits das für viele erfahrene Produzenten nicht nah genug am eigenen Empfinden, nicht präzise genug an den ganz konkreten Einzelfall angepasst. Die empfindlichen Ohren erfahrener Mix Engineers hören das Preset, wo nur eine Custom-Lösung adäquat wäre.

Die Mustererkennungsmeister unter der Haube erkennen und benennen typische technische Probleme, lösen sie aber nicht unbedingt, da die von ihnen vorgeschlagene Lösung eine inhaltliche Veränderung bedeutet, die dem Inhalt nicht gerecht wird. Und das bedeutet: Der Inhalt wird offenbar von denjenigen, die ihn schaffen, als etwas so Persönliches verstanden, dass ihm kein Moment von Automatisierung oder Maschinengemachtsein gerecht wird.

Ethische Bedenken, ästhetische Ansprüche und das Beharren auf dem eigenen Schaffen führen zu Urteilen wie: »Alles extrem bieder und doof.« Offenbar ist bei Profis die Akzeptanzschwelle dort angesiedelt, wo das eigene Schaffen betroffen ist: Was man standardmäßig delegiert, kann die KI übernehmen. Was die künstlerische Schöpfung beeinträchtigt und das Urhebererlebnis nimmt, das nicht.

Was Fragen aufwirft: Wieso ist uns die Unterscheidung »Bot or not?« so wichtig, wenn wir oft genug gar nicht in der Lage sind, sie sicher vorzunehmen? Wie wird sich eine Musikwelt entwickeln, in der Musik nicht mehr Kommunikation ist, sondern Commodity?

Arbeitshypothese: KI geht nicht wieder weg. Wir werden auf uns als Menschen blicken müssen, wenn wir verstehen wollen, was es eigentlich ist, das wir bewahren, ja, verteidigen wollen.

Dieser Text ist zuerst erschienen in Politik & Kultur 4/2024.