2 minute read
WELCOME TO TOMORROW
Künstliche Intelligenz in der Musik ist nichts Neues. Es gab sie schon in den 50er-Jahren, nur hieß sie damals noch nicht so. Bereits in den 90er-Jahren nutzte David Bowie einen digitalen Lyrik-Zufallsgenerator zur Inspiration. Grundsätzlich ist das Wort “Intelligenz” in der digitalen Welt mit Vorsicht zu genießen. Sie kann nur so gut sein, wie die vom Menschen zur Programmierung genutzten Parameter und der Datenmenge und -qualität, mit denen sie gefüttert wird. Die erschreckend schnelle Entwickung und das Füllen der Datenbanken mit unzähligen Daten bewies zuletzt das textbasierte Dialogsystem ChatGPR.
Wie immer gibt es zwei Seiten der Medaille. Die eine ist die Demokratisierung aller sinnesbasierten Kreativität durch digitale DIY-Systeme. Die andere ist der potentielle Grundlagenentzug professionell betriebener Berufszweige durch verfälschte Selbstwahrnehmung und der Abhängigkeit von Technik statt Hirn. Man kann sich aber auch auf die Bedeutung des neuen Zeitgeists einigen: Die virtuelle Realität ist die neue Realität.
Auch ist KI in der Musik nur die Weiterentwicklung der Pianola –eines durch Lochkarten automatisierten Klaviers im Jahre 1895.
Der momentane Staus Quo sind KI-gestützte Kompositionsprogramme wie Soundraw, Amper, AIVA, Melobytes oder die Mastering-Software LANDR, die wie die bisher schon bekannten Anwendungsgebiete der KI über neuronale Netzwerke eigenständig lernen und sich verbessern, ohne dafür programmiert werden zu müssen (Machine und Deep Learning). Durch Cognitive Computing und Natural Language Procession wird die Interaktion zwischen Computer und Mensch reibungslos und benutzerfreundlich. Spotify und Shazam sind im Musikkonsum-Bereich exemplarische Beispiele dafür.
Übersetzt heißt das, nach Eingabe von Parametern wie Genre, Stimmung, oder Tempo des potentiellen Stücks dienen die selbstlernenden Algorithmen als Songwriting-Assistenten, liefern aber auch Akkordfolgen, Melodie-Ideen und ganze Tracks inklusive exportierbarer MIDI-Dateien. Jeder kann sich so in Echtzeit den Soundtrack seines Lebens produzieren. Einen Text zu Gesang oder Rap kreieren zu lassen, ist schon lange möglich. Und Plug-Ins wie “Smart EQ” oder Funktionen wie „Automix“ erübrigen heute schon den Mixing- und Mastering-Prozess und morgen den DJ.
Sinnvoll wäre ja eigentlich, dass diese Technik beim Komponieren hilfreich ist und die menschliche Kreativität unterstützt. Aber über Geschmäcker lässt sich bekanntlich streiten. Hat man sich erst einmal an die neue KI-Musik gewöhnt, fragt niemand mehr, wer sie produziert. Genauso regt sich heute kaum jemand mehr darüber auf, dass 90% aller im Radio gespielter Musik auf Ideen vergangener Jahrzehnte beruht. Unberührt bleibt vorerst auch die Frage nach den Urheberrechten, denn KI greift ausschließlich auf bereits vorhandene Ideen zurück.
Abba-Musiker Björn Ulvaeus: „Denken sie nicht, dass KI in der Lage sein wird, besser Musik zu schreiben? Ich befürchte, es wird passieren. Ich habe hart daran gearbeitet, Müll zu erkennen. Wir warfen ungefähr 95 Prozent des Geschriebenen weg. Wie viele der Autoren der Millionen neuen Songs wird wohl ähnlich rigoros mit „Müll“ umgehen?”
Grimes, Elon Musks Musikerin und Partnerin: „Ich habe das Gefühl, dass wir uns am Ende der menschlichen Kunst befinden. Früher oder später wird KI all unsere Hormone, Gefühle, emotionalen Regungen emulieren und verstehen, was für uns große Kunst und wahre Innovation ist. Wahrscheinlich sogar besser als wir.”