Song
Drücke „Play“, um eine generative Komposition zu starten, die auf dem Stück „2/1“ von Brian Eno vom Album „Ambient 1: Music for Airports“ basiert. Du kannst damit auch experimentieren, indem du die Dauer der Loops veränderst.
Der ursprüngliche Track von Brian Eno wurde aus sieben gleichzeitig abgespielten Tonbandschleifen aufgebaut. Jedes Band gab eine einzelne gesungene Note in einer anderen Tonart wieder. Da jede Schleife eine andere Dauer hatte, überlappten sich die Noten der verschiedenen Schleifen und bildeten Akkorde, um dann wieder auseinander zu driften - in vielen unerwarteten Kombinationen.
Hier erklärt Brian Eno das in einem Interview (1996):
„Eine der Noten wiederholt sich alle 23 1/2 Sekunden. Es handelt sich dabei um eine lange Schleife, die um eine Reihe von Stühlen aus Aluminiumröhren im Studio von Conny Plank verläuft. Die nächsttiefere Schleife wiederholt sich etwa alle 25 7/8 Sekunden. Die dritte Schleife etwa alle 29 15/16 Sekunden. Was ich meine, ist, dass sie sich alle in Zyklen wiederholen, die man als inkommensurabel bezeichnet - es ist unwahrscheinlich, dass sie sich wieder synchronisieren.“
Dieses Musikstück ist ein Beispiel sowohl für Ambient-Musik als auch für Generative Kunst. Beide Kunstformen sind gute Ausgangspunkte, um über Struktur in der Musik und die Herausforderungen und Möglichkeiten der KI beim Komponieren nachzudenken.
In diesem Kapitel werden wir
Strukturlose Ambient-Musik
Struktur wird in anderen Kapiteln mehrfach erwähnt. Struktur ermöglicht Rhythmus, Muster, Melodien, Wiederholungen, Antizipation und andere Elemente, die die Aufmerksamkeit der Menschen fesseln und sie emotional, intellektuell oder körperlich ansprechen. Kunst bietet darüber hinaus einen Rahmen, um Neues zu entdecken. Viele Menschen haben daher im Lauf der Zeit immer wieder über “strukturlose” Musik nachgedacht (oder zumindest an Musik, bei der die Struktur nicht offensichtlich ist).
Ambient ist ein Musikgenre, bei dem Stimmung und Atmosphäre wichtiger sind als die Struktur. Bereits 1917 schuf der Komponist Erik Satie die Idee der „Musique d’ameublement“, auf Deutsch ungefähr: „Möbelmusik, Einrichtungsmusik“. Satie schuf kurze und wiederholbare minimalistische Kompositionen, die im Hintergrund bleiben sollten. Eine Musik, die Teil der Umgebung werden kann, ohne sich aufzudrängen. In den 1950er Jahren schufen Künstler*innen, die mit Tonbandklängen arbeiteten, oft „Klanglandschaften“, die sich von der traditionellen Vorstellung eines Liedes entfernten. Dies wurde als „Musique concrète“ bezeichnet. Das Ambient-Genre nahm in den 1960er und -70er Jahren mit dem Minimalismus und der experimentellen Musik, die meist auf Synthesizern basierte, Gestalt an. Brian Eno prägte den Begriff des Genres Ende der 1970er Jahre.
Einige Tracks kannst Du dir anhören:
- Erik Saties „Musique d’ameublement“ (1917-1923)
- Pauline Oliveros, „Bye bye butterfly“ (1967)
- Eliane Radigue, „Feedback Works“ (1969-1970)
- Brian Eno, Stück „2/1“ vom „Ambient 1: Music for Airports“ (1978)
- Laurie Spiegel, „Kepler’s Harmony of the Worlds“ (1979)
- Midori Takada „Through The Looking Glass“ (1983)
Kompositionen, wie sie das obige interaktive Programm erzeugt, scheinen keine Struktur zu haben. Der Effekt ist ähnlich wie beim Betrachten von sich bewegenden Wolken: Für einen Moment erkennt das Gehirn eine Form oder ein Muster, das dann zerfließt oder etwas Neuem und Unerwartetem Platz macht. Dies erlaubt eine ruhige und meditative Beschäftigung.
… Andererseits haben wir eine völlig vorhersehbare Reihe von Schleifen verwendet. Deren Struktur ist visuell sehr leicht zu erkennen, aber akustisch dauert ein ganzer Zyklus so lange, dass es nicht möglich ist, die Wiederholung zu hören oder sie überhaupt zu erkennen. Wenn wir willkürlich ein paar Minuten Klang auswählen und es ein „Lied“ nennen, lösen wir es noch weiter von seiner Struktur.
In diesem Fall wird unsere Musik von einem Programm erzeugt. Du kannst seinen Code lesen (wir stellen den Link unten zur Verfügung) und genau sehen, wie es funktioniert. Man könnte auch sagen, dass dieses Programm die Struktur ist, die der Musik zugrunde liegt. Um es zu sehen, muss man nur einen anderen Blickwinkel einnehmen. Die Verwendung von autonomen Systemen zur Schaffung von Kunst wird als Generative Kunst bezeichnet. Es kann sich dabei um ein Softwaresystem handeln, aber auch um ein mechanisches, biologisches, chemisches, mathematisches usw.
Generative Kunst passt gut zu der Idee von Musik, die mit der Umgebung verschmilzt und nicht auf sich selbst aufmerksam macht. Unser Gehirn ist besonders gut darin, menschliche Aktivitäten zu erkennen. Eine ausdrucksstarke Bewegung eines Menschen hat es schwer, unerkannt zu bleiben und zufällig zu wirken. In der Generativen Kunst agieren die Kunstschaffenden daher auf einer indirekteren Ebene, nämlich als Designer*innen eines Systems, das das Kunstwerk produziert.
Komponieren mit Transformern
Musikalische Strukturen haben manchmal einen Bezug zu einer bestimmten Kultur und zu einem Genre: Tonleitern, Akkorde und rhythmische Grooves zum Beispiel. Aber Lieder sind auch selbstreferentiell: Sie haben wiederkehrende Motive, Phrasen und Abschnitte (wie Strophe und Refrain). Lieder haben einen narrativen Aspekt, d. h. sie haben einen Anfang, eine Mitte und ein Ende. Diese erzählerischen Elemente kommen durch Mittel wie Wiederholungen, Kontraste und Variationen zum Ausdruck. Ein Teil der Struktur eines Liedes steht also in Beziehung zu Elementen außerhalb des Liedes (z. B. zum Genre), und ein Teil der Struktur steht in Beziehung zu sich selbst (z. B. Strophe-Refrain-Bridge-Struktur).
In einfacheren neuronalen Netzen ist jede Note, die die KI erzeugt, nur mit den unmittelbar vorangegangenen Noten verbunden. Das neuronale Netz hat nur ein „Kurzzeitgedächtnis“, das sich vielleicht an die letzten paar Takte erinnert, aber nicht an den ganzen Song. Lieder, die auf diese Weise entstehen, können Abschnitte haben, die realistisch klingen, aber als Ganzes haben sie weder Anfang noch Ende. Und wenn man lange zuhört, verändern sie sich einfach weiter, ohne irgendwo „anzukommen“. In von Menschen geschaffenen Liedern können Noten mit anderen Noten in Verbindung gebracht werden, die an einem beliebigen Punkt des Liedes auftauchen, egal wie weit entfernt diese sind. Dies abzubilden, erfordert eine KI mit „Langzeitgedächtnis“.
Um dieses Problem zu lösen, experimentieren Wissenschaftler*innen mit einer Art von neuronalem Netz namens Transformer. Es nutzt einen Mechanismus, der als „Selbstaufmerksamkeit“ bezeichnet wird, d.h. Transformer können die Beziehung zwischen einem Element (z. B. einer Note) und allen anderen Elementen (z. B. anderen Noten) in einer Sequenz (z. B. einem Lied) lernen. Das wird „Aufmerksamkeit“ genannt, weil es darauf beruht, sich auf die wichtigsten Beziehungen zu konzentrieren, so wie das menschliche Gehirn „Aufmerksamkeit“ verwendet, um sich auf die wichtigsten Dinge zu einem bestimmten Zeitpunkt zu konzentrieren. Dieses neuronale Netz nutzt sein „Gedächtnis“ effizienter, so wie wir Menschen.
Transformer sind keine musikspezifische Art von neuronalen Netzen. Sie wurden ursprünglich entwickelt, um sprachbezogene Aufgaben zu bewältigen, zeigten aber eine große Vielseitigkeit bei der Lösung von allen möglichen Problemen. Tansformer haben das Potenzial, universell einsetzbar zu sein. Vielleicht hast du schon von „Generative Pre-trained Transformer 3“ oder GPT-3 gehört, einer sehr populären KI, die derzeit für alle Arten von textbezogenen Aufgaben eingesetzt wird, von Übersetzungen bis zum Schreiben von Software. Derzeit basieren zwei äußerst beliebte KI-Anwendungen auf GPT-3: ChatGPT von OpenAI und der Bildgenerator Dall-E.
Die folgenden zwei neuronalen Netze sind aktuelle Beispiele für KIs, die mit Hilfe von Transformern vollständige Songs erstellen. Klicke auf die Links, um Beispiele für die Lieder zu hören, die sie erstellen können:
- Google Magenta’s Music Transformer: Erzeugt Musik in Form einer Notenfolge (wie z. B. MIDI-Dateien)
- OpenAI’s Jukebox: Erzeugt Musik in Form einer vollständigen Wellenform (wie z. B. WAV- oder MP3-Dateien)
Einige Punkte zum Nachdenken
In der Generativen Kunst besteht die Rolle der Künstler*innen darin, autonome Systeme zu entwerfen, zu bauen und zu konfigurieren, die dann Kunstwerke produzieren. Im Idealfall bietet das System Eigenschaften, die die Künstler*innen nicht direkt bereitstellen können: endlose Variationen, echter Zufall, Strukturen, die wir nicht erkennen können, usw.
Welche Möglichkeiten bietet die KI für die Generative Kunst? Auf welche Weise können Künstler*innen ihren künstlerischen Ausdruck und ihre Sichtweise in die Gestaltung von KI-basierten Systemen einbringen? Wie werden sich KI-Technologien und -Werkzeuge weiterentwickeln, um der künstlerischen Arbeit besser dienen zu können?
Externe Links
- Ein wirklich guter Artikel von Dan Carr darüber, wie Brian Eno Ambient 1: Music for Airports schuf.
- Ein Tutorial von Tero Parviainen, in dem Stücke von Steve Reich und Brian Eno rekonstruiert werden, um Web Audio zu lernen.
Referenzen
Die interaktive Version von Ambient 1: Music for Airports 2/1 wurde von Tero Parviainen entwickelt, mit Adaptionen von IMAGINARY.
Copyright- und Lizenzinformationen sind in unserem GitHub-Repository.
Quellenangaben
- Dan Carr. “How Brian Eno Created Ambient 1: Music for Airports.“ Reverb Machine. 2019-07-11. Abgerufen am 2022-10-20.
- Tero Parviainen. „JavaScript Systems Music. Learning Web Audio by Recreating The Works of Steve Reich and Brian Eno.“ 2016-07-28. Abgerufen am 2022-11-01.
- Brian Eno. „Evolving metaphors, in my opinion, is what artists do.“ Vortrag auf der Imagination Conference in San Francisco, 1996-06-08. Transkript aus: In Motion Magazine. 1996-07-07. Abgerufen am 2022-11-01.
- Wikipedia-Autoren. „Ambient music.“ Wikipedia, The Free Encyclopedia. 2022-12-09. Abgerufen am 2022-12-11.
- Wikipedia-Autoren. „Generative art.“ Wikipedia, The Free Encyclopedia. 2022-12-11. Abgerufen am 2022-12-11.
- Cheng-Zhi Anna Huang, Ian Simon and Monica Dinculescu. „Music Transformer: Generating Music with Long-Term Structure.“ Magenta. Google. 2018-12-13. Abgerufen am 2022-11-20.
- Cheng-Zhi Anna Huang, et al. „Music Transformer: Generating Music with Long-Term Structure.“ arXiv, 2018. https://doi.org/10.48550/arXiv.1809.04281. Abgerufen am 2022-11-20.
Text is available under the Creative Commons Attribution License . Copyright © 2022 IMAGINARY gGmbH.