Machine Learning und Künstliche Intelligenz haben auch die Musikbranche erreicht. In Berlin experimentieren Forscher*innen mit musikalischen Textilien, die auf Körperbewegungen reagieren. Ein Kammerorchester zeigt, wie es funktioniert.
Ob es um Musik für Film und TV, um Hintergrundmusik für Videos und Spiele oder um generische Unterhaltungsmusik geht: Die Diskussion ist längst im Gange, dass solche Sounds und Songs zukünftig immer öfter KI-basiert komponiert werden.
Seit vielen Jahren vervielfachen sich Projekte rund um die Interaktion von Mensch und Maschine in der Musik. Die Kompositions-Software Amper Music und die als virtueller Komponist anerkannte Software AIVA (Artificial Intelligence Virtual Artist) sind die wahrscheinlich prominentesten Beispiele für KI-generierte Musik. Mit Hilfe von Deep-Learning-Algorithmen sind immer mehr Tools in der Lage, neue Songs oder Partituren im Stil bereits existierender Kompositionen zu berechnen, mit deren Noten, Rhythmen und Klangfarben sie gefüttert werden. Über die neuronalen Netze erkennen sie wiederkehrende Muster und beginnen, selbstständig neue Verbindungen zu erschaffen. So können Machine-Learning-Algorithmen schon heute zu Assistenten oder kreativen Partnern eines/einer Musiker*in werden. Und vielleicht auch zu mehr.
Auch die in Berlin lebende Musikerin Holly Herndon programmierte mit einer Machine-Learning-Software ihre persönliche KI-Gesangspartnerin. Sie fütterte das Programm mit ausgesuchten Datensätzen, vor allem mit unterschiedlichen Stimmen, zum Beispiel eines Vokalensembles. Daraus entstand schließlich die eigenständige KI-Stimme „Spawn“, mit der Herndon gemeinsam auf ihrem Album „Proto“ singt.
Schnittstelle zwischen Textil und Sound
Aber auch in ganz anderen Technologien an der Schnittstelle zwischen Mensch und Maschine gibt es experimentelle Entwicklungen, die in der Musikbranche neue Möglichkeiten eröffnen. Im Bereich der Musik-Performance beispielsweise, wo es um körperliche Erfahrungen bei der Klangerzeugung geht. Hier kommen immer öfter mit Bewegungssensoren bestückte Wearables zum Einsatz, mit deren Hilfe sich elektronische Musik über Körperbewegungen oder Gesten steuern und manipulieren lässt.
Ein aktuelles Beispiel hierfür ist ein interdisziplinäres Berliner Projekt, das elektronische Textilsensoren und Gestenverfolgungstechnologien entwickelt. Dafür haben sich Forscher*innen der Universität der Künste (UdK) und des Einstein Center Digital Future einen ganz besonderen Anwendungsfall ausgesucht: Sie arbeiten an der Schnittstelle zwischen Textil und Sound mit dem experimentierfreudigen Verworner-Krause-Kammerorchester (VKKO) zusammen, das mit seinen 18 Musiker*innen scheinbar widersprüchliche Klangwelten miteinander verschmilzt: „Orchestrale Instrumente verflechten sich mit elektronischen Grooves und Soundscapes, ein improvisatorischer Jazz-Touch von Schlagzeug und Kontrabass ergänzt die vertrackte kompositorische Struktur der Musik“, so eine Eigenbeschreibung des Kammerorchesters.
Maßgeschneiderter interaktiver Anzug als Musical Interface
Acht Wochen lang begaben sich die Forscher*innen gemeinsam mit den Künstler*innen in das Berlin Open Lab und das Hybrid Lab, um zu „jammen“ und dabei zu forschen. „Ziel des Projektes war es, ein textiles elektronisches Wearable für einen der beiden Dirigenten des VKKO-Orchesters zu entwickeln, mit dem er über Gestenerkennung seine eigene Performance augmentieren kann“, erklärt Projektleiterin Prof. Berit Greinke. „Dabei handelt es sich um einen maßgeschneiderten interaktiven Anzug, den er für besondere Soundeffekte oder als Musical Interface nutzen kann, also fast wie ein tragbares Instrument.“