So klingen KI-Lieder – Seite 1

In der Musik ist es wie in vielen anderen Lebensbereichen: Man ist sich nicht sicher, ob man künstlicher Intelligenz nun vor allem mit Angst begegnen sollte oder mit Hoffnung. Das führt zu Einerseits-andererseits-Texten wie dem offenen Brief, den mehr als 200 Künstlerinnen und Künstler am Mittwoch veröffentlicht haben.

Stevie Wonder, Billie Eilish, Katy Perry, Jon Bon Jovi und andere Stars warnen, dass KI – oder genauer: das, was Unternehmen damit tun – ein "Angriff auf die menschliche Kreativität" sei. Andererseits, schreiben sie, habe KI aber auch "enormes Potenzial, die menschliche Kreativität zu befördern".

Ja, was denn nun? Um besser zu verstehen, wo KI-Musik steht, lohnt sich ein Blick auf einige Tools, die gerade einen kleinen Hype erfahren. Am Mittwoch stellte das Unternehmen Stability AI die neue Version von Stable Audio vor. Das System kann bis zu drei Minuten lange Instrumental-Musikstücke erstellen, entweder auf Basis eines Textbefehls oder aus einer Audioeingabe, also zum Beispiel einer gesummten Melodie. 

Noch weiter geht die Musik-KI Suno. Wohl mit keinem anderen Tool ist es so einfach, in nur wenigen Augenblicken ein komplettes Lied inklusive Gesang generieren zu lassen.

Gibt man dort einen kurzen Text ein, erhält man wenige Sekunden später ein bis zu zweiminütiges Musikstück. Manche nennen Suno eine Art ChatGPT für Musik. Erst vor wenigen Tagen hat das Unternehmen aus den USA eine neue Version seiner Software auf den Markt gebracht und wirbt nun damit, erstmals Musik "in Radioqualität" zu erstellen.

Um das zu testen, lassen wir uns vom aktuellen Nachrichtengeschehen inspirieren: Auf die Bitte, ein Blasmusikstück über Andreas Scheuers Rücktritt und die Vorwürfe gegen ihn rund um die Pkw-Maut zu generieren, spuckt das System dieses Lied aus, inklusive des Textes:

AUDIO •KI-generiertes Lied, erstellt mit Suno
00:00
01:58

Und mit dem Prompt "Ein Hyperpop-Song über das Super-Wahljahr (Chorus: super, super Wahljahr) und die Gefahr durch KI-Desinformation" bekommt man diesen Track:

AUDIO •KI-generiertes Lied, erstellt mit Suno
00:00
01:59

Das ist zweifelsohne Musik. Und es ist, wie es oft bei KI-Tools, egal ob sie Bilder, Videos, Text oder eben Musik erzeugen, erst einmal schwer beeindruckend. In der neuen Version 3 des zugrunde liegenden KI-Modells von Suno noch mehr als zuvor. Die Frage, ob das gute Musik ist, mal außen vor der Gesang, die Instrumente, die Melodie, der Text, das kann man alles für von Menschen komponiert, aufgenommen, produziert und geschrieben halten.

Aber es stellt sich auch schnell die Frage: Wofür, außer für laue Gags, soll das verwendet werden?

Ein Verdacht, der sofort aufkommt: für Fälschungen. Tatsächlich drehen sich viele der KI-Musik-Projekte, die in den vergangenen Monaten für Aufsehen gesorgt haben, darum, die Stimmen berühmter Musikerinnen und Musiker zu kopieren. Da sind zum Beispiel die Fake-Drake-Tracks, mit denen ein ominöser Produzent, der sich Ghostwriter nennt, das Internet in Atem hielt. Oder die Videos des YouTube-Kanals There I ruined it, auf dem KI-Cover-Versionen erscheinen, wie die, in der Simon and Garfunkel die Rapzeilen "I like big butts, I cannot lie" säuseln.

Solche Dinge lassen sich nicht einfach per Knopfdruck erzeugen, zumindest nicht mit Suno. Bei vielen Künstlernamen gab das System in unserem Test gar kein Ergebnis, sondern eine Fehlermeldung zurück. Auf den Befehl, Johnny Cash über Einhörner singen zu lassen, generierte Suno zwar ein Lied, aber nicht mit der Stimme des legendären Countrysängers. Offenbar erkennt das Tool allerdings, was gemeint ist, und erzeugt etwas, das stilistisch (ganz grob) in die Richtung geht.

AUDIO •KI-generiertes Lied, erstellt mit Suno
00:00
01:50

Man kann Suno die Texte generieren lassen, wie in den bisherigen Beispielen, oder auch selbst geschriebene Songtexte eingeben. Weil wir gerade keinen eigenen Songtext zur Hand hatten, weichen wir einfach auf eine andere KI aus. Den Text zu diesem Bierzelthit, Thema noch mal Andi Scheuer, hat ChatGPT geschrieben. Die Musik stammt von Suno: 

AUDIO •KI-generiertes Lied, erstellt mit Suno
00:00
02:00

Das würde so auch mit einem tatsächlich selbst geschriebenen Text funktionieren. Und für die möglichst günstige Produktion eines Werbeclips zum Beispiel könnte das Tool so durchaus eine Möglichkeit sein, günstig an ein Lied mit eigenem Text zu kommen.

Um solche Szenarien geht es wohl auch in dem offenen Brief, wenn von Songwritern und Musikern die Rede ist, die "nur versuchen, über die Runden zu kommen" und für die KI eine "Katastrophe" werden könnte. Nicht so sehr die Unterzeichnenden selbst dürften damit gemeint sein, deren Auskommen als gesichert gelten darf, sondern eher der musikalische Mittelbau. Also zum Beispiel Menschen, die in Studios Instrumentalspuren einspielen oder Jingles für Werbespots produzieren.

Andere KI-Musik-Tools für Profis

Manche dieser Arbeiten werden durch KI-Tools tatsächlich so viel einfacher, dass man sich vorstellen kann, dass Jobs verloren gehen. Weniger durch Suno, das mit seiner einfachen Bedienung zwar für Nichtmusiker besonders interessant ist, bei dem es aber einigermaßen zufällig zu sein scheint, was am Ende genau herauskommt. Entscheidender für die Musikindustrie dürfte eine ganze Reihe von KI-Werkzeugen sein, die sich mehr an Profis richten.

Das bezieht nicht immer nur darauf, neue Musik zu generieren, auch die Bearbeitung wird einfacher. Die Software Lalala.ai zum Beispiel kann ein Stereo-File, also zum Beispiel einen Song, in einzelne sogenannte Stems unterteilen, also etwa den Gesang von der Schlagzeugspur trennen. Damit ließen sich sehr einfach Remixes bekannter Songs erstellen, also etwa Billie Eilishs Stimme auf ein paar Punkgitarren legen.

Aiva generiert auf Knopfdruck Instrumentaltracks, entweder nur anhand eines vorgegebenen Stils oder mit einer vom Nutzer vorgegebenen Akkordfolge. Eine Musikerin, die eine Melodie im Kopf hat, kann sich diese damit also innerhalb weniger Augenblicke einmal als Technotrack, einmal als Metalriff und einmal als Orchesterwerk generieren lassen. Anders als bei Suno bekommt sie bei Aiva dann auch einzelne Tonspuren, die sie weiterbearbeiten kann.

Auf diese Melodie könnte sie noch Gesang legen, etwa mit dem Tool Synthesizer V. Das ist eine Sammlung (echter, von Menschen aufgenommener) Stimmen, die per KI einen vorgegebenen Text zu einer vorgegebenen Melodie singen.

Dieser Prozess wäre kleinteiliger als einfach einen Prompt bei Suno einzugeben, aber es gäbe der Musikerin auch mehr Kontrolle über die einzelnen Schritte. Das wäre dann wohl das "enorme Potenzial", von dem im Brief die Rede ist. 

35 Prozent der Musiker nutzen schon KI

Dieses Potenzial sehen und nutzen viele Künstlerinnen auch schon. Immerhin 35 Prozent von 15.000 Musikerinnen und Musikern, die in einer Studie befragt wurden, haben KI-Tools schon für ihre Arbeit verwendet. Am häufigsten war der Einsatz im Bereich der Techno-, Rap- oder Werbemusikproduktion. Die Untersuchung stellte die Gema im Januar gemeinsam mit ihrer französischen Schwesterorganisation Sacem vor. Bei den Befragten gibt es allerdings auch große Sorgen. 71 Prozent von ihnen befürchten, dass KI-Nutzung dazu führen könnte, dass sie ihren Lebensunterhalt nicht länger bestreiten können. 

Dieses Einerseits-andererseits ist verständlich: Die Geschichte der Musikproduktion ist auch eine des technischen Fortschritts. Interessanterweise sind gerade Billie Eilish und ihr Bruder Finneas, die nun den Brief unterzeichnet haben, berühmt geworden mit Songs, die in einem Jugendzimmer produziert worden sind. Ohne digitale Musiktools, die einfach zur Verfügung stehen, wäre ihre Karriere kaum denkbar gewesen. Von einer weiteren Demokratisierung der Methoden, auch durch KI, könnten auch aufstrebende Künstlerinnen und Künstler profitieren.

Das Problem ist: Anders als vergangene Innovationen basieren künstliche Intelligenzen nicht nur auf der Arbeit von Programmiererinnen, sondern auch auf der von Künstlern. Mit welchen Daten genau Suno zum Beispiel trainiert wurde, ist nicht bekannt, aber es müssen Tausende, vielleicht Millionen von Musikstücken gewesen sein. Möglicherweise auch solche, die von den unterzeichnenden Künstlerinnen stammen.

Dass Musiker (oder Autorinnen) wirksam Widerspruch gegen Training mit ihren Werken einlegen können, sehen viele KI-Systeme nicht vor. StabilityAI verwendet für StableAudio laut eigenen Angaben einen Datensatz, der solche Widersprüche respektiert. Der AI Act, das Gesetz, mit dem die EU zukünftig künstliche Intelligenz regulieren wird, schreibt auch anderen Firmen vor, Informationen über ihre Trainingsdaten offenzulegen. Wie detailliert das geschehen muss, ist allerdings noch nicht klar. 

Aber selbst wenn es eine solche Liste gäbe: Ist eine KI erst mit einem Song trainiert, lässt sich der nicht einfach wieder herausbekommen. Den Musikerinnen wäre vielleicht schon geholfen, wenn es ein System gäbe, dass sie dafür vergütet, wenn ihre Werke in Trainingsdaten landen. Aber das gibt es bisher nicht.