Foto: Manuel Nieberle
KI in der Musik: „In manchen Aspekten wesentlich kreativer als wir”
Künstliche Intelligenz kann komponieren. Und das ist ein Gewinn für Musiker:innen, meint Dr. Esther Fee Feichtner. Sie ist Musikerin und Diplom-Informatikerin, zwei Berufe, die dank künstlicher Intelligenz nun eine Schnittstelle bekommen: KI-generierte Musik. Mittlerweile ist sie überzeugt: In der Technologie liegt enormes Potenzial für die Medienlandschaft.
Dr. Esther Fee Feichtner promovierte an den International Audio Laboratories Erlangen, heute ist sie die Leiterin des Digitalisierungskollegs „Artificial Intelligence in Culture and Arts“ (AICA). Studierende der Hochschule für Musik und Theater München und der Hochschule München sollen hier erfahren, wie sie KI für sich nutzen können.
Frau Dr. Feichtner, was ist das Ziel von AICA und gibt es vergleichbare Kollegs?
Es geht darum, Künstlern die Möglichkeit zu geben, sich mit künstlicher Intelligenz zu beschäftigen. Wir möchten die Frage klären, was der eigene Beitrag an KI-generierten Inhalten ist. Gleichzeitig wollen wir die Angst vor der Technologie abbauen, damit sie künstliche Intelligenz als Werkzeug für sich entdecken. Wir besetzen mit AICA in München eine spezielle Nische mit dem Fokus auf der Kultur- und Kreativwirtschaft, andere Kollegs beschäftigen sich beispielsweise mit der Digitalisierung in der Agrarwirtschaft.
Was fasziniert Sie an künstlicher Intelligenz aktuell am meisten?
Ich persönlich finde es spannend, dass wir Begriffe neu definieren müssen, von denen wir gedacht haben, dass wir genau wissen, was wir damit meinen. Ein Beispiel: Wie versteht eine Maschine, was ein Apfel ist? Und ist dies dann ein anderes Verstehen als das von uns Menschen? Wir denken Apfel und haben vielleicht den Geschmack im Kopf, die Farben Rot und Grün, den Apfel als Symbol für Fruchtbarkeit, den Sündenfall und so weiter. Wir meinen zwar, dass Menschen dieses Verstehen besser können als die Maschine, aber KIs wurden mit dieser unglaublichen Vielfalt an Informationen trainiert und kennen mehr als ein menschliches Individuum. Der interessante Aspekt ist nun: Wie wichtig sind beim menschlichen Verstehen mit einem Objekt verknüpfte Emotionen und Empfindungen?
Wenn KI viel mehr Informationen hat, kann sie dann kreativer als ein Mensch sein?
Die meisten antworten bei dieser Frage „Nein“, aber da möchte ich zu bedenken geben: Unser Verständnis von Kreativität ist im Prinzip, wie KI arbeitet. Wenn Musiker ihr Leben lang Musik hören und sich dabei mit unterschiedlichen Stilen auseinandersetzen, fließen diese ganzen Erfahrungen in den Schaffensprozess ein. Wenn das komponierte Stück dann neuartig klingt, bedeutet das nur, dass der Komponist alle Eindrücke möglichst klein zerlegt und neu zusammengefügt hat. Je größer diese Teile sind und je mehr davon beim Zusammensetzen unverändert übernommen werden, desto mehr haben die Hörer das Gefühl, es sei ein Plagiat. Das heißt, die Frage, die wir uns in Bezug auf Kreativität stellen, ist: Wie groß wählt man diese Teile, die man vorher schon gehört hat, und setzt sie neu zusammen? Und KI funktioniert nicht anders, hat aber durch die Menge an Trainingsdaten einen viel größeren Erfahrungsschatz. Obendrauf kommt noch, dass die KI mit dieser größeren Datengrundlage auch noch ungebremst von Angst vor eigenen oder äußeren Ansprüchen experimentiert. Der Mensch kann das nur, wenn er im Flow ist. In diesen Aspekten ist KI wesentlich kreativer als wir. Und wir müssen wieder schärfer definieren, was die menschliche Kreativität von der KI unterscheidet.
»Unser Verständnis von Kreativität ist im Prinzip, wie KI arbeitet.«
Dr. Esther Fee Feichtner
Foto: Manuel Nieberle
KI-generierte Musik könnte für Rückkehr echter Kreativität sorgen
Können Sie als Komponistin den Unterschied zwischen KI-erzeugter Musik und einem von einem Menschen komponierten Stück erkennen?
Das kommt darauf an, wie viel Prozent KI-generiert sind. MusicGen, das Programm von Meta, erzeugt 30-sekündige Stücke. Das klingt richtig gut. Und wenn man jetzt ganz viele dieser halbminütigen Tracks erzeugt und vielleicht noch bei den Übergängen menschlich nachhilft, könnte ich das ohne bewusstes Hören wohl nicht mehr unterscheiden. Dass das so gut funktioniert, liegt auch daran, dass schon ohne den Einsatz von KI populäre Musik nach Durchschnittsmustern geschrieben wird und wir davon überschwemmt werden. Die meisten Hits folgen den gleichen Mustern. Diese Songs sind eingängig, weil sie gewohnt klingen. Das kann KI sehr gut kopieren. Aus diesen Gründen wird es immer leichter, das zu reproduzieren, was schon immer auf dem Musikmarkt war. Deswegen habe ich die Hoffnung, dass zum Beispiel Radiosender verstärkt auf die Suche nach sehr individueller Musik gehen. Denn wenn uninspirierte Durchschnittsmusik durch KI so einfach zu produzieren ist, kann das eine Chance sein, dass Kreative echte Neuerungen in den Musikmarkt bringen und sich Radiosender durch das Auswählen besonders kreativer Stile einen Wettbewerbsvorteil verschaffen.
Also kann einerseits von Menschen gemachte Musik sogar eine Aufwertung erfahren, wenn sie sich von dem, was von KI produziert wird, abhebt. Andererseits möchten Sie Musiker:innen KI als Werkzeug an die Hand geben. Wie geht das zusammen?
Das fängt damit an, dass ich sehr einfach mit verschiedenen KI-erzeugten Akkordbegleitungen für meine Melodie herumspielen kann. Inzwischen könnte ich sogar aus einer Melodie einen ganzen Song generieren lassen und verschiedene Varianten auf Basis dieser Melodie anhören. Dann kann ich wählen, wie ich meine Melodie und die Aussage, die ich damit in die Welt bringen möchte, am besten unterstreichen kann.
Aktuell schießen täglich unzählige KI-Tools aus dem Boden. Was raten Sie Künstler:innen in dieser Phase?
Sie sollten einfach ein Tool wählen und damit das Prompten lernen. Denn egal, welches Programm man in zwei Jahren final verwendet: Das Grundprinzip bleibt das gleiche. Das ist, wie eine Programmiersprache zu lernen. Es wird keinen großen Unterschied machen, welches Tool man in seinen künstlerischen Werkzeugkoffer aufnimmt.
Fotos: Manuel Nieberle
Feichtner: Ziel ist „vollumfängliche Immersion“
Das Thema Radio hatten Sie schon angerissen. Was halten Sie von einem komplett KI-generierten Radiosender?
Das kommt darauf an, wie die Sender KI einsetzen. Einerseits gibt es die Möglichkeit, diesen Sender so zu programmieren, wie zum Beispiel Spotify funktioniert. Da werden Annahmen gemacht und die KI wird mit Informationen gespeist wie: Die Zielgruppe ist 30 bis 38 Jahre alt, wohnt in Bayern und hört am liebsten eine bestimmte Reihe an Interpreten. Das ist für mich aber nur eine Spielerei, denn der Mehrwert von Radio fällt dadurch weg: das Kuratieren von Musik, der Hörerschaft eine Auswahl geben und immer wieder auch Neues vorstellen. Man könnte diesen KI-Radiosender aber auch so anlegen, dass er die Hörerschaft etwas fordert. Die KI spielt in dem Fall zunächst das Standard-Repertoire des Senders. Dann programmiert man einen Neuerungsfaktor: Zum Beispiel könnte man sagen, dass die KI drei neue Lieder am Tag mit aufnehmen soll. Das erhöht sich dann von Tag zu Tag. Das hat einen Mehrwert für die Hörerschaft, denn nur so kann sich Geschmack bilden. Der ergibt sich aus dem, was man kennt, plus einer kleinen Neuerung. So kann ein Radiosender noch stärker als heute dazu beitragen, dass die Öffentlichkeit empfänglicher wird für eine breitere Palette an Musikstilen.
Warum braucht es dafür eine KI?
Der Vorteil ist dabei einerseits, dass die KI anhand der Muster innerhalb des Standard-Repertoires besser erkennen kann, was bei der Hörerschaft gut ankommt, und sie dann mit Liedern konfrontiert, die nur einen kleinen Schritt davon abweichen und keine komplette Irritation erzeugen. Die Leute sollen ja nicht abschalten. Andererseits braucht es keinen Moderator, der den Mut aufbringen muss, das zu rechtfertigen, und die Verantwortung übernimmt, falls es nicht klappt.
Haben Sie eine Vision, wie wir KI in Zukunft nutzen könnten?
Einerseits hoffe ich, dass wir KI für wiederkehrende Aufgaben nutzen, die wir abgeben können, damit wir uns auf wichtige Aufgaben konzentrieren können. Es passieren in allen erdenklichen Berufsgruppen so viele Fehler, nur weil Leute zu wenig Zeit haben. Ich hoffe, dass wir weniger Stress haben und mehr Zeit bekommen, um Mensch zu sein. Mit Blick auf die technische Entwicklung von KI hoffe ich andererseits, dass wir bei Kunstschaffenden irgendwann vollumfängliche Immersion erreichen. Aktuell sitzen wir vor dem Computer und tippen Worte ein. Aber eigentlich ist die Art des Inputs für die KI egal, sie muss diesen immer in einen anderen Output umwandeln. Dieser Input kann auch Stimme sein, Bewegungen oder neuronale Signale. Es wäre also theoretisch irgendwann möglich, dass ich als Künstlerin einfach die Augen schließe, mich voll und ganz mit meiner Gedanken- und Gefühlswelt auseinandersetze, ohne etwas aktiv bedienen zu müssen. Ich brauche vielleicht nur ein paar Sensoren an meinem Körper. KI könnte dann die Signale, die über die Sensoren an einen Computer geschickt werden, in Musik umwandeln. Dieser Ausblick inspiriert mich wirklich.
Bleibe mit dem XPLR: Newsletter immer auf dem Laufenden!