Wetter: wolkig, 7 bis 15 °C
Musik aus der Maschine
Der Artikel wurde zur Merkliste hinzugefügt.
Die Merkliste finden Sie oben links auf der Seite.

Wo die künstliche Intelligenz bei Musik an die Grenzen stößt

Eva Przybyla 07.08.2019 0 Kommentare

(Daniel Reinhardt/dpa)

Verträumt verdreht Yona ihre Hände über ihrem Kopf, dann setzt der Bass ein und sie singt. Ihre Stimme klingt elektronisch und bearbeitet, aber nicht viel anders als die der bekannten kanadischen Sängerin Grimes. Doch es gibt einen wichtigen Unterschied zwischen den beiden: Yona ist eine künstliche Intelligenz (KI).

Im März trat sie das erste Mal live als 3D-Projektion auf dem holländischen Rewire-Festival auf. Ihr Schöpfer, der Komponist Ash Koosha, hat die neuronalen Netze programmiert, aus denen Yona besteht. Diese Netze schaffen Texte und Stimme der KI-Künstlerin. Doch ganz allein kann die KI noch keine erfolgreiche Musik kreieren. Noch bearbeitet ihr Schöpfer Koosha alle ihre Stücke und bezeichnet sich als ihr Produzent.

Auch die in Berlin lebende US-Komponistin Holly Herndon arbeitet noch an ihrem Bandmitglied Spawn, ebenfalls eine KI. Herndon musste dem lernenden System erst beibringen, so zu singen, dass es zur Musik der Künstlerin passt. Zusammen haben sie das Album „Proto“ aufgenommen, das im Mai erschienen ist. Es ist eines von mehreren Alben, das mithilfe von künstlichen Intelligenzen in den vergangenen Jahren erschaffen wurde.

Mehr zum Thema
Malende Algorithmen: Wohin führt künstliche Intelligenz die Kunst?
Malende Algorithmen
Wohin führt künstliche Intelligenz die Kunst?

Künstliche Intelligenz erobert an vielen Stellen die Produktion. Auch in Ateliers machen sich ...

 mehr »

Die Sängerinnen Taryn Southern und Kiesza sowie der Sänger Stromae haben mit KI gearbeitet, die Stadt Dubai ließ sogar ihre Hymne von einer schreiben. Bekannte Programme sind etwa Googles Magenta, Aiva, Iamus, die EU-geförderte Flow Machines und Amper. Und es werden mehr. Doch kaum einer hält sie für eigenständige Komponisten. Die KI erstellen in der Regel nur Vorlagen, mit denen wiederum menschliche Künstler arbeiten. Am Ende machen die Menschen also immer noch die Kunst.

Nicht alles können Menschen spielen

Anders ist das bei der künstlichen Intelligenz namens Emiliy – eine Abkürzung von „Experiments in Musical Intelligence“ (Engl. für Experimente mit musikalischer Intelligenz) – von David Cope. Schon in den 80er-Jahren begann der US-Komponist, sie zu programmieren. Sie sollte etwa die Musik von Johann Sebastian Bach imitieren. Noch heute feilt er an Emily. Einige ihrer neueren Kompositionen hat die Bremer Pianistin Claudia Janet Birkholz in diesem Jahr getestet. Sie hat die Noten gespielt, die Emily ausgedruckt hat.

„Sie sind überraschend gut“, sagt Birkholz. Sie habe bei den Stücken im Stil von Frédéric Chopin kaum einen Unterschied zum Original bemerkt. Allerdings habe sie die Stücke am Klavier auch wie Chopin interpretiert, sagt die Dozentin für Neue Musik an der Hochschule der Künste. Spielanweisungen enthielten Emilys Noten nicht. Dass die Noten von einer künstlichen Intelligenz stammten, hat Birkholz nach eigenen Angaben Emilys Kompositionen kaum angemerkt.

Erst nachdem sie die Stücke drei Tage lang gehört habe, sei ihr aufgefallen, dass ein Mensch bestimmte Tonkombinationen in einem Stück auf dem Klavier nicht spielen könne, sagt sie. Der Grund: Die menschlichen Hände könnten das nicht greifen. „Chopin hätte nie so komponiert“, sagt sie. Jedes Stück von ihm könne man am Klavier spielen. Aber ansonsten klängen die Emily-Kompositionen nach dem polnisch-französischen Komponisten, andere nach Mozart, Haydn und Brahms.

1950
Alan Turing, britischer Mathematiker: „Ich glaube, dass Ende des 20. Jahrhunderts der Gebrauch von Wörtern und die allgemeinen Ansichten der Gebildeten sich so sehr geändert haben werden, dass man ohne Widerspruch von denkenden Maschinen wird reden können.“
1955
Es hat einen Namen: Der Informatiker John McCarthy erfindet den Begriff der künstlichen Intelligenz (KI) für eine wissenschaftliche Konferenz am Dartmouth College in Hanover, USA. Es ist die Geburtsstunde der KI als eigenständiges Forschungsfeld.
1957:
Es beginnt zu lernen: Der amerikanische Psychologe und Informatiker Frank Rosenblatt legt den Grundstein für künstliche neuronale Netze. Auf Basis des Prinzips von Versuch und Irrtum (trial and error) entwickelt er ein erstes lernfähiges System im Computer Mark I.
1966
Es spricht: Der erste Chatbot heißt Eliza. Erfinder ist der deutsch-amerikanische Informatiker Joseph Weizenbaum. Das Programm gibt vor, ein Therapeut zu sein, und reagiert auf Schlüsselwörter mit einfachen Gegenfragen oder allgemeinen Sätzen.
Fotostrecke: Die Geschichte der künstlichen Intelligenz

Anders sei das bei dem intelligenten Computer-Cluster Iamus der spanischen Universität Málaga, der eigenständig zeitgenössische Stücke komponiert. Sein Klavierstück „Colossus“ bezeichnet Birkholz als „Nonsens“. „Das ist, wie wenn man eine Sprache auseinandernimmt und neu zusammensetzt, aber es kommt Kauderwelsch dabei heraus“, sagt die Dozentin. Dabei könne Iamus so vieles, etwa Rhythmen, die gesamte Klaviatur und mehr. Doch die Zusammensetzung stimme nicht. Spricht man mit Kai-Uwe Kühnberger, Professor für künstliche Intelligenz am Institut für Kognitionswissenschaft der Universität Osnabrück, wirken solche Fehler wenig überraschend.

„KI sind oft ziemlich doof“, sagt der Professor. Die Programme würden vorrangig Muster in der Musik erkennen – etwa Strukturen auf verschiedenen Zeitskalen, Arrangements sowie stiltypische Elemente – und diese dann neu zusammenbauen. Die komponierenden KI würde sich so grundsätzlich nicht von beispielsweise den in der Gesichtserkennung genutzten Programmen unterscheiden. Auch die müssten nur ein Muster erkennen, das man ihnen beigebracht hat, sagt der Wissenschaftler. Und sie würden auch nur das tun, was der Mensch ihnen auftrage, also Chopin-artig komponieren oder eben Gesichter erkennen. Kühnberger hat selbst zu künstlicher Kreativität geforscht und die KI Chameleon mitentwickelt. Sie sollte nach Angaben des Wissenschaftlers Melodien innovativ harmonisieren und so Musik erzeugen, die kaum mehr von menschgemachten Stücken unterschieden werden kann.

Mehr zum Thema
Projekt mit Microsoft: Künstliche Intelligenz soll Kinderpornografie enttarnen
Projekt mit Microsoft
Künstliche Intelligenz soll Kinderpornografie enttarnen

Kinderpornografie und Kindesmissbrauch gehören zu den abscheulichsten Verbrechen, die Kriminalisten ...

 mehr »

Dabei hat das Programm überwiegend zwei Techniken benutzt: Musikelemente mixen und Strukturen überblenden. „Das ist auch oft das, was Musiker machen“, sagt Kühnberger. Für die Komponistin Violeta Dinescu reichen diese Techniken nicht, um wirklich Musik zu erschaffen. Der Computer sei bis dato nur wie ein Instrument, sagt sie. Man erreiche damit nicht die eigentliche Qualität von Musikstücken. Diese Qualität nennt die Professorin, die an der Universität Oldenburg Komposition unterrichtet, „das Erhabene“.

„Es ist der Moment, in dem man nicht weiß, was passiert“, erläutert sie. Bach hätte etwa bei der Komposition seiner Choräle zu 99 Prozent alle Regeln seiner Zeit für die Kirchenmusik befolgt – aber eben auch etwas anders gemacht. „Ohne diese Brüche klingen Stücke banal“, sagt Dinescu. Deshalb begrüße sie auch in ihren eigenen Kompositionen diese unerwarteten Momente, die sie häufig wie ein Blitz treffen würden. „Ich muss dann irgendetwas anders machen als geplant“, sagt die Komponistin. Dinescu glaubt, dass die KI dem Komponieren neue Möglichkeiten biete. Sie kann sich vorstellen, dass man etwa einen künstlichen Franz Schubert kreieren könne, indem man eine Maschine mit allen Dokumenten aus der Zeit des Komponisten füttert.

Tote Musik

Dass eine KI wirklich schöpferisch werden kann, bezweifelt die Pianistin Birkholz. Denn häufig würden die Programme nur „totes Zeug“ hin und her verschieben, sagt sie. Die Emotionen der menschlichen Komponisten könnten sie nicht erzeugen. Lebendig klinge Musik nur mit Gefühlen.Davon ist auch der KI-Entwickler Valerio Velardo überzeugt. Doch er glaubt, dass auch eine künstliche Intelligenz Emotionen mit ihrer selbst geschaffenen Musik erzeugen kann. Dafür brauche es nur mehr Daten darüber, wie Gefühle in der Musik ausgedrückt werden, sagt der Entwickler. Die nötige Expertise dafür haben Velardo und die anderen Entwickler beim Berliner Start-up Melodrive, denn sie können oft beides: programmieren und Musik analysieren.

Zusammen entwickeln sie musikalische Intelligenz für Videospiele. Denn der Soundtrack von Rollenspielen mit mehr als 100 Stunden Spielzeit ist oft nur wenige Stunden lang. Mit der KI von Melodrive soll die Musik während der langen Spielzeit variieren und auf die Bewegungen der Spieler reagieren. Noch sei das nicht möglich, räumt Velardo ein. Die Schwierigkeiten lägen in der niedrigen Soundqualität der erzeugten Musikstücke. Außerdem sei es schwer, mehrstimmige, warm klingende Stücke künstlich zu erzeugen, die so klingen wie das Werk eines Orchesters.

Doch der Entwickler ist sicher, dass sich die Technik sehr schnell weiterentwickeln wird. Schon seit der Gründung von Melodrive vor drei Jahren sei bereits sehr viel passiert, sagt Velardo. Häufig würde KI heute gewinnbringend auf der analytischen Seite eingesetzt werden, um die Musikpräferenzen der Nutzer optimal zu bedienen – etwa bei dem Musik-Streaminganbieter Spotify. Für musikkomponierende künstliche Intelligenz sei dagegen bisher noch kein Weg gefunden worden, diese kommerziell zu nutzen, sagt der Entwickler. Doch das könne sich ändern. Und wenn KI eigenständig gute Stücke kreieren, könnte nicht nur Melodrive damit viel Geld verdienen.


Party- und Freizeit-Bilder

Hier sind die Ermittler
Die große Vorschau: Das bringt die neue "Tatort"-Saison
Anzeige

Ihr Wetter in Bremen
Temperatur: 15 °C / 7 °C
Vormittag:
/__wetterkontor/images/wr/50/wolkig.png
Nachmittag:
/__wetterkontor/images/wr/50/bedeckt.png
  Regenwahrscheinlichkeit: 40 %