zum Hauptinhalt
„Rekonstruktion für Chor“ (AT) Luc Döbereiner und Chorwerkstatt Berlin (Leitung: Sandra Gallrein)

© Victoria Alexandrova

Wohin steuert die Menschmaschine?: Musik und KI abseits von Urheberrechtsfragen

Was geschieht, wenn künstlerische auf künstliche Intelligenz trifft, zeigte das KI-Stipendienprogramm des Musikfonds am Sonntag im Berliner Radialsystem.

Stand:

KI gibt es in der Musik seit den Fünfzigerjahren – wie FU-Professorin Miriam Akkermann fürs Publikum rekapituliert. Schon die „Illiac Suite“, ein Streichquartett von Lejaren Hiller aus dem Jahr 1957, verwendete sogenannte Markov-Ketten, also Algorithmen, die man heute der Sphäre der Künstlichen Intelligenz zuschreibt.

Der US-Komponist Lejaren Hiller hat mit seinem Kollegen Leonard Issacson 1957 einen Computer programmiert, das allererste Stück Computermusik zu generieren: Die Illiac-Suite, ein Streichquartett.

© University of Illinois Archives

Während immer mehr Pop-Musiker, darunter Kate Bush, Damon Albarn, der Filmkomponist Hans Zimmer, sowie zuletzt auch Ex-Beatle Paul McCartney, auf durchaus kreative Weise (etwa mit Schweigeminuten auf Tonträgern) gegen das urheberrechtliche Freidrehen großer Tech-Giganten protestieren und von der Politik Regulierung fordern, zeichnet das Stipendiatenprogramm des Musikfonds vergangenen Sonntag im Radialsystem mit Performances, Konzerten und einer Podiumsdiskussion ein Bild davon, was geschieht, wenn Musikschaffende selbst kreativ mit der Technologie umgehen.

Wozu KI?

Einen künstlerisch drängenden Aspekt warf etwa Nicola Hein ein, der die Anthropologin Lucy Suchman heranzog. Die stellte schon 1987 fest, dass jede KI die Grundannahmen ihrer Entwickler über den Menschen widerspiegelt. Wie sich die KI uns gegenüber verhält, zeigt uns also auch, was wir über uns selbst denken, und macht den Code zum hochinteressanten Material für künstlerisches Arbeiten.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen von unseren Redakteuren ausgewählten, externen Inhalt, der den Artikel für Sie mit zusätzlichen Informationen anreichert. Sie können sich hier den externen Inhalt mit einem Klick anzeigen lassen oder wieder ausblenden.

Ich bin damit einverstanden, dass mir der externe Inhalt angezeigt wird. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu erhalten Sie in den Datenschutz-Einstellungen. Diese finden Sie ganz unten auf unserer Seite im Footer, sodass Sie Ihre Einstellungen jederzeit verwalten oder widerrufen können.

Akkermann holte die Diskussion mit einer Frage auf den Tatsachenboden, die man in Bezug auf Tech-Hypes generell öfter hören möchte: Wozu KI? Technologien effektheischend über künstlerische Ideen zu stülpen, nur weil man es kann, mag vielleicht den Fetischcharakter des Marktes widerspiegeln, scheint künstlerisch aber eher fragwürdig. Mitunter wurde das Problem auch in einigen der Konzerte der Stipendiaten deutlich. So fragte man sich manchmal schon, wie es wohl wäre, wenn man die potenten KIs in die Hände fähigerer Komponierender gegeben hätte.

„Rekonstruktion für Chor“, Luc Döbereiner und Chorwerkstatt Berlin mit Dirigentin Sandra Gallrein

© Victoria Alexandrova

Dass es besser geht, war etwa in Luc Döbereiners „Rekonstruktion für Chor“ zu erleben. Ein Seniorinnenchor befolgt Anweisungen wie: Singe einen Ton, an den du dich erinnerst! Da Erinnerung nicht in Stein gemeißelt ist, klingt jede Aufführung anders.

Kann die KI erinnern? Und wenn ja, auch vergessen?

Den Gesamt-Chorklang nun registriert die KI, analysiert ihn und assoziiert Klänge, die sie bereits kennt. Die Antworten der KI beeinflussen die Sängerinnen, deren Antworten wiederum in die KI einfließen – so entsteht eine Schleife der wechselseitigen Beeinflussungen, in denen Erinnerungen immer wieder neu geschrieben werden.

„Aggregate: Black Square“ gamut inc (Maciej Śledziecki und Marion Wörle)

© Victoria Alexandrova

Ein anderes Beispiel für einen künstlerisch stimmigen Einsatz von KI gibt das Duo Gamut Inc.: Die KI steuert die 128 Pfeifen zweier speziell entwickelter Orgeln in ihren Lautstärken – das geht bei Orgeln normalerweise nicht! – und mischt diese Teilklänge so, dass komplexe Nicht-Orgelklänge entstehen. Theoretisch sollte das System so allein mit dem feinjustierbaren Gebläse in der Lage sein, alle möglichen Klänge zu synthetisieren.

Praktisch steckt diese KI allerdings noch in den Kinderschuhen, sprich: Sie hat gerade erst begonnen, die Möglichkeiten der Orgeln auszuloten. Das Konzert mit Anleihen bei Vogelgezwitscher und Minimal Music gab aber schon einen vielversprechenden Vorgeschmack auf das, was noch aus dem System zu holen sein könnte. Es bewies auch, dass die Zukunft der Musik – zumindest der nicht kommerziellen – mit klugem, kreativem Einsatz von KI spannend bleibt, bei allen KI-Dystopien der Gegenwart.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
console.debug({ userId: "", verifiedBot: "false", botCategory: "" })