Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1) Direkt zur Hauptnavigation springen (Alt 2)

Klang- und Stimmsynthese
Welche Rolle spielt künstliche Intelligenz in der Musik von heute?

Klang- und Stimmsynthese: Welche Rolle spielt künstliche Intelligenz in der Musik von heute?
Dieses Bild wurde mit einer KI (DALL- E) erstellt, die auf Grundlage des Originaltextes dieses Beitrags trainiert wurde. Es zeigt die Visualisierung eines futuristischens Konzepts, bei dem KI und Musik harmonisch miteinander verbunden sind. | © Patrick Hartono; erstellt mit DALL- E

Die Entwicklung von digitaler Technik hat in den letzten Jahrzehnten zu vielen Veränderungen im Bereich der Musikproduktion geführt und hat auch eine immer engere Verzahnung von Musik, Wissenschaft und Technologie zur Folge. Seit den ersten musikalischen Computer-Experimenten, etwa der Illiac Suite in den 1950er Jahren, bis hin zu einer smarten und auf künstlicher Intelligenz (KI) basierenden Musiktechnologie hat eine Transformation stattgefunden, die die Musiklandschaft grundlegend verändert und essenzielle Fragen zur Rolle von KI in der Gegenwartsmusik aufwirft. Dieser Beitrag setzt sich mit der Rolle von KI im Bereich der Komposition und Produktion von Musik auseinander – und möchte Perspektiven auf die Auswirkungen von KI auf die Musikbranche sowie die Reaktion der Musik-Konsument*innen darauf aufzeigen.

Eine kurze Einführung in KI-Anwendungen in der Musik

KI ist ein Teilgebiet der Informatik und befasst sich mit der Fähigkeit von Computern, aus Daten zu ‚lernen‘, was allgemein als ‚maschinelles Lernen‘ oder ‚Machine Learning‘ (ML) bezeichnet wird. Bei ML kommen statistische Verfahren zum Einsatz, die Computer in die Lage versetzen, Daten in Informationen umzuwandeln. Damit sind KI-basierte Anwendungen in der Lage, musikalische Muster, Harmonien und Nuancen im Detail zu erfassen und Musik zu erzeugen, die sich von menschlichen Kompositionen kaum unterscheiden lässt.

Eines der bekanntesten Projekte in diesem Zusammenhang ist das von Google entwickelte Magenta. Magenta nutzt ML und bietet Tools für Künstler*innen zur Interaktion mit Algorithmen, die es ihnen ermöglichen, neuartige und innovative Musik zu produzieren.

2018 haben Wissenschaftler*innen am Goldsmiths-Institut der University of London das Projekt MIMIC: Musically Intelligent Machines Interacting Creatively ins Leben gerufen. MIMIC erweitert das Konzept von Magenta – denn es ermöglicht nicht nur, Musik zu schaffen, sondern es zielt auch darauf ab, auf kreative Weise mit menschlichen Künstler*innen zu interagieren. MIMIC fügt der KI-Musikproduktion den Aspekt der Zusammenarbeit zwischen Mensch und Maschine hinzu, und schafft somit zusätzliche Möglichkeiten für die Auseinandersetzung mit Musik und ihren Ausdrucksformen.

Wo stehen die Entwicklung und die Anwendung von KI in der Musik?

Beim Einsatz von KI in der Musikproduktion geht es nicht nur um Komposition, sondern auch darum, auf welche Weise Musik analysiert und generiert wird.

Datenzuordnung (Data Mapping)
Wekinator ist eine ML-basierte Software, die vor allem zur Datenzuordnung in Echtzeit eingesetzt wird. Die Software kann Instrumente, Genres, Töne und Rhythmen aus einer externen Input-Quelle zur Steuerung von Audio- und Video-Elementen innerhalb des Computers verwenden. Die Input-Quellen können dabei Geräte wie eine Webcam, ein Mikrofon oder sonstige Sensoren sein. Dieser Input wird dann über Rechenmodelle angepasst, um einen Output zu erzeugen, der sich dann in entsprechender Musik-Software – wie etwa Max/MSP oder SuperCollider – weiterverwenden lässt.

Generative KI
Generative KI ist in der Lage, aus großen Datensätzen neue Inhalte zu erstellen. Die KI AudioCraft von Meta (dem Mutterkonzern von Facebook und Instagram) etwa greift auf das neuronale Netzwerkmodell EnCodec zurück, um Klänge von hoher Qualität zu erzeugen und Dateien zur Beschleunigung von Verarbeitungsprozessen zu komprimieren. Das auf der GPT-2-Technologie basierende MuseNet wiederum ist imstande, unterschiedlichste, von bis zu zehn Instrumenten gespielte Musikstücke zu erstellen, die maximal vier Minuten lang sein können. Das neuronale Netzwerk erfasst musikalische Muster aus MIDI-Dateien und findet Harmonien, Rhythmen und Stile, ohne dass es zuvor ausdrücklich programmiert werden musste.

Weitere Anwendungen
KI hat auch Einfluss auf weitere in der Musikwelt eingesetzte Anwendungen – etwa auf solche zur Musikempfehlung, zur Automatisierung von Produktions-Prozessen wie des ‚Mixing‘ und ‚Mastering‘, sowie auf solche zur Analyse der emotionalen Wirkung von Musik. iZotope zum Beispiel verwendet KI, um benutzerdefinierte Effekteinstellungen basierend auf der Klangpalette eines eingespielten Tracks zu generieren. Auch bietet iZotope eine Reihe von Tools, mit denen vorgegebene Startpunkte für dea Mix von Gesang oder Hall, sowie das generelle ‚Mastering‘ angepasst werden können. Dies beschleunigt Abläufe in der Musikproduktion und erhöht die Effizienz beim Erreichen eines gewünschten Sounds.

Unter Anwendung von KI erstellt Brain.fm Musikkompositionen, die bei Hörer*innen gewünschte Effekte wie Entspannung, Konzentration oder Ruhe bewirken können. Das Ziel ist hierbei, Musik und mentale Gesundheit zusammenzubringen – was das Potenzial von KI für den Bereich der Musiktherapie aufzeigt. Die Fähigkeit von KI, auf emotionale Zustände zu reagieren, könnte dazu beitragen, dass Menschen in verschiedenen Alltagssituation positiv von Musik beeinflusst werden.

Aiva Technologies ermöglicht Komponist*innen und Künstler*innen, neue Variationen ihrer eigenen Stücke zu kreieren – und fördert damit das Zusammenspiel zwischen menschlicher Kreativität und maschineller Beteiligung. Diese Form der Zusammenarbeit kann vielfältige und innovative Musik hervorbringen und neue Wege in der Welt der Musik eröffnen.

Amper Music von Shutterstock ist ein weiteres Beispiel dafür, wie der Einsatz von KI Musikproduktion erleichtern kann: Die Plattform ermöglicht es Content-Ersteller*innen, den Kompositionsstil, die Stimmung und die Dauer von Musik schnell und einfach anzupassen. Mithilfe von KI können so auch Amateur*innen, die nicht über fundierte musikalische Kenntnisse verfügen, Musik von professioneller Qualität erstellen. Auf diese Weise werden Hürden bei der Musikproduktion gesenkt.
Klang- und Stimmsynthese: Welche Rolle spielt künstliche Intelligenz in der Musik von heute? Dieses Bild wurde mit einer KI (DALL- E) erstellt. Es zeigt die Visualisierung eines futuristischens Konzepts, bei dem KI und Musik harmonisch miteinander verbunden sind. | © Patrick Hartono; erstellt mit DALL- E

Sollte uns der Einsatz von KI in der Musik Sorgen bereiten?

Der Einsatz von KI hat bereits viele Veränderungen innerhalb der Musikwelt mit sich gebracht. Eine Frage, die in diesem Zusammenhang stets diskutiert wird, ist, ob dadurch die menschliche Kreativität bedroht ist. Diese Frage führt zu Theodor W. Adornos Sicht auf die Kulturindustrie, insbesondere im Bereich der Musik. Adorno, ein einflussreicher deutscher Philosoph und Soziologe in der Mitte des 20. Jahrhunderts, betrachtete Popmusik als das kulturelle Produkt einer homogenen Gesellschaft. Für ihn hatte Popmusik das (negative) Potenzial, die Kritikfähigkeit des Publikums sowie die Kreativität von Künstler*innen zu reduzieren. Dies könnte man heute insofern auch so sehen, als dass die meisten KI-Anwendungen eher kommerziellen Genres zugehörige Musik erzeugen können und dabei bestehende Trends bestärken, und dabei eher wenig innovativ sind.

Manche fürchten auch den Verlust menschlicher Schöpfungskraft in der Musikproduktion. Es lässt sich allerdings der Standpunkt vertreten, dass dieses Momentum genutzt werden kann, um menschliche Integrität und Kreativität im Kontext von Kunst zu demonstrieren. Wenn KI in der Lage ist, kommerzielle Musik zu schaffen, dann steigt die Herausforderung, etwas Neues zu erschaffen – etwas, das noch außerhalb der Reichweite von KI liegt.

Diese Dynamik lässt sich auch als Beginn einer neuen Ära sehen, in der jede*r Musiker*in, Songschreiber*in und Komponist*in sich die Frage stellen sollte: Besitze ich wirklich Schöpfungskraft, bin ich wirklich ein kreativer Mensch oder ein*e Künstler*in? Lautet Ihre Antwort „Ja“, dann werden sie – wahrscheinlich – immer in der Lage sein, Stücke zu schaffen, die die Fähigkeiten einer Maschine übersteigen.

Letzten Endes wird KI von Menschen geschaffen, die versuchen, Maschinen zu programmieren, die wiederum Menschen nachahmen. Die Frage ist also: Ist es an der Zeit, dass wir die Musikproduktion gänzlich Maschinen überlassen? Sollten wir uns gegen sie stellen? Oder sollten wir nicht vielmehr versuchen, im Einklang mit der KI zu leben? Diese Frage ist nicht nur für Musiker*innen eine Herausforderung, sie betrifft die Musikindustrie als Ganzes. Und sie betrifft darüber hinaus die Art und Weise, wie und als was wir in der Zukunft Kunst betrachten.

„Für diejenigen, die nur dem Mainstream folgen, ist nun die Zeit für Selbstreflexion gekommen.“
 

Top