Foto Valerio Velardo

Ist Musik die letzte Bastion menschlicher Intelligenz?

Von Bob Uhde.

Das ist mal eine Schlagzeile: „KI erzeugt non-stop Death Metal“. Die Story dahinter: Mit einer künstlichen Intelligenz startete Dadabots einen Youtube-Kanal, der 24 Stunden pro Tag Death Metal generiert. Doch wie gut kann KI-Musik eigentlich sein? Valerio Velardo, CEO des Berliner Start-ups Melodrive, glaubt nicht, dass KI bessere Musik als Menschen erzeugen kann. Es sei vielmehr ein subjektiver Prozess bei der eine Metrik fehle, die uns sagt, dass Mozart besser ist als Beethoven.

Wenn selbst echte Metal-Fans, die in etwa die konservativsten aller Musikfans sind, sich für KI in der Musik interessieren, handelt es sich dabei nicht mehr nur um eine nerdige Spielerei. Es wird allmählich Mainstream. Dabei gehört künstliche Intelligenz schon länger zur Grundausstattung der Musik-Streamingdienste. Wer schon einmal auf Basis einer Spotify-Empfehlung tolle neue Songs entdeckt hat, kann sich dafür bei der KI-Engine des schwedischen Unternehmens bedanken. Music Information Retrieval, kurz MIR, heißt diese analytische Anwendung der KI in der Musikindustrie. Natürlich komponieren Computer auch längst schon selbst. Besonders interessant ist dabei die sogenannte Generative Music.

In Anbetracht des stetig wachsenden Einflusses von KI auf Wirtschaft und Gesellschaft könnte die Kreativität schon bald als letzte Bastion der menschlichen Intelligenz stehen – die einzige Begabung, die uns noch von Maschinen unterscheidet. Geht es nach dem weltbekannten KI-Philosophen Yuval Noah Harari, könnte das in nicht allzu ferner Zukunft aber auch Geschichte sein. Denkbar wäre es, dass Algorithmen beispielsweise die besten Elemente aus den Werken Bachs, Beethovens und Richard Wagners auf raffinierte Weise miteinander verknüpfen und so die klassische Musik nach mehr als 200 Jahren neu definieren. Wie realistisch ist das? Kann Musik, ein Ausdruck purer Emotion und seit mindestens 40.000 Jahren Teil der menschlichen DNA, genauso überzeugend von Maschinen erzeugt werden − oder sogar besser? 

Valerio Velardo, CEO des Berliner Start-ups Melodrive, hält dieses Szenario eher für unwahrscheinlich. „Das Komponieren von Musik unterscheidet sich maßgeblich von anderen Tätigkeiten: Es ist ein absolut subjektiver Prozess und es fehlt eine Metrik, die uns sagt, dass Mozart besser ist als Beethoven. Ich denke nicht, dass KI bessere Musik als wir Menschen schreiben würde, denn was würde ‚besser‘ überhaupt bedeuten?“ sagt er im Co-Working Space „The Venue“ am Berliner Mehringdamm. Mit seinem Start-up hat Velardo die Technologie Melodrive Indie gebaut, die in Echtzeit nichtlineare Soundtracks für Videospiele erzeugt. Deep Adaptive Music nennt Velardo diese Art von Musik, die sich automatisch an Ereignisse im Spielgeschehen anpasst. Bei diesem Anwendungsfall springt die KI dort ein, wo es uns Menschen an den notwendigen Ressourcen mangelt: „Spieler können hunderte, manchmal sogar tausenden Stunden in einer Spielwelt verbringen, aber kein Mensch hat die Zeit, 1.000 Stunden hochwertiger Musik zu schreiben. Wir entscheiden über wichtige Parameter wie Stil und Theme der Musik und lassen die KI die weitere Arbeit machen“, erklärt der gebürtige Italiener.

Die KI-Engine wird mit riesigen Datenmengen gefüttert und sucht nach Akkordmustern, Tempo und harmonischen Zusammenhängen.

Ein Team aus Mensch und Maschine, um die besten Ergebnisse zu erreichen, das ist der vielversprechendste Weg in die Cyber-Zukunft. Der Schachcomputer Deep Blue schlug Garry Kasparow, den damals besten Schachspieler der Welt, aber Kasparow und Deep Blue zusammen würden nie von einem anderen Schachcomputer oder Spieler besiegt werden. Zu dieser Zusammenarbeit kann es in der Musik auch kommen und die ersten wichtigen Schritte wurden in den letzten Jahren bereits unternommen.

So veröffentlichte 2017 der französischen Musiker Skygge mit „Hello World“ das erste von einer KI komponierte Pop- Album. Nur wenige Monate später überraschte die US-amerikanische Sängerin Taryn Southern mit dem Tonträger „I am AI“. Für die gesamte Platte arbeitete sie mit dem Programm Amper Music. Es gebe ihr „Inspiration und Material, was ich von einem Klavier natürlich nicht bekomme“, erklärte sie im Gespräch mit dem Online-Tech-Magazin „The Verge“.

Längst arbeiten auch die großen Tech-Companies wie Google und IBM an Software-Lösungen zum Musizieren. Dazu nutzen sie Deep-Learning-Techniken, bei denen der KI-Engine mit riesigen Mengen an Daten gefüttert wird, die nach Akkord-Mustern, Tempo und harmonischen Zusammenhängen suchen. Aus dieser Informationsmasse setzt die KI dann eigene Melodien zusammen.

So entstehen Songs, die oft kaum noch von menschlichen Kompositionen zu unterscheiden sind. Doch wer genauer hinhört oder sich der Beteiligung der KI bewusst ist, dem wird auffallen, dass es durchaus Elemente gibt, die unnatürlich klingen. „Es gibt sehr viele Herausforderungen. Eine der größten ist, dass den derzeitigen Algorithmen die Gesamtsicht auf alle Zusammenhänge eines Stückes fehlen. Sie haben keine ‚Erinnerung‘ daran, was eine Minute zuvor passiert ist. Und der Aufbau eines Songs ist essentiell für die Qualität der Musik“, sagt Velardo.

Könnte also eine Maschine der nächste Bach, Lennon oder McCartney, Davis oder Coltrane sein? Eher unwahrscheinlich. Auch, weil Musik viel mehr ist als das Aneinanderreihen von Längst arbeiten auch die großen Tech-Companies wie Beats und Harmonien. Dennoch beginnt sich die Art und Weise, wie Menschen Musik machen, zu verändern. Und zwar nicht nur im Death Metal.

Dieser Artikel ist Teil der neuen Clutch. Das Technologie- und Gesellschaftsmagazin beschäftigt sich in dieser Ausgabe monothematisch mit dem Thema Künstliche Intelligenz. Das Heft lässt sich hier bestellen. Sie zahlen nur so viel, wie Ihnen das Magazin wert ist. 

Clutch-Redaktion