Forscher bringen Computern das Musikhören bei

17. Dezember 2014, 10:59
7 Postings

"PHENICX"-Projekt: Künstliche Intelligenz im Konzertsaal soll Musik erkennen und verstehen

Wien/Linz/Amsterdam - Bereits seit mehreren Jahren arbeiten heimische Wissenschafter daran, Computer in die komplexe Welt der Musik einzuführen und ihnen beizubringen, diese auch zu verstehen. In einem europäischen Forschungsprojekt gehen sie einen Schritt weiter und bringen im Februar Künstliche Intelligenz in den Konzertsaal. Das Vorhaben wurde im Rahmen der Feier zum 30-jährigen Bestehen des Forschungsinstituts für Artificial Intelligence (OFAI) in Wien präsentiert.

Dass ein Computer überhaupt Musik erkennen kann, sei schon eine große Herausforderung, erklärte Gerhard Widmer, Professor für Computational Perception an der Universität Linz und Abteilungsleiter am OFAI. In Linz und Wien widmen sich diesem Thema rund 30 Forscher.

Damit ein Computer so etwas wie ein Verständnis für Musik entwickeln kann, muss er imstande sein, in einem Audiosignal bestimmte Strukturen aufzuspüren. Menschen nehmen in einem Musikstück nahezu mühelos den Beat wahr, hören Melodien heraus, können Instrumente identifizieren oder einschätzen, ob sie richtig oder falsch gespielt werden. Der Computer muss aber mühsam lernen, "in einem rohen Audiosignal abstraktere Dinge zu erkennen", wie es Widmer ausdrückte.

Intelligenter werden für das Musikverständnis

Da die Wissenschafter den Geräten aber nicht jede Spielart von Musik beibringen können, muss der Rechner mit ausgeklügelten Algorithmen dazu befähigt werden, sein Wissen selbstständig weiterzuentwickeln - also intelligenter werden. Widmer und seine Kollegen sind als Lernhelfer besonders erfolgreich, was sich auch darin ausdrückt, dass die Gruppen in Wien und Linz federführend an einem von der EU großzügig geförderten Projekt beteiligt sind, das auch mit dem renommierten Königlichen Concertgebouw-Orchester in Amsterdam umgesetzt wird.

Das Gesamtziel des "PHENICX"-Projekts ist es, "Methoden oder Technologien zu entwickeln, die klassische Musikkonzerte zu reichhaltigeren Erlebnissen für neue Publikumsschichten machen, indem man die Musik oder das Konzertvideo mit zusätzlichen Informationen verknüpft und synchronisiert", so Widmer. Das können neben dem Notentext auch Informationen darüber sein, wie die Komposition aufgebaut ist oder welche Gedanken sich Komponist, Dirigent oder einzelne Musiker zu den jeweiligen Passagen machen.

Dazu muss der Computer aber das jeweilige Stück erkennen und das individuelle Spiel des Orchesters mitverfolgen. In den vergangenen Jahren sei es den österreichischen Forschern gelungen, ein System zu entwickeln, das diesen hohen Anspruch sehr verlässlich erfüllt und sogar mit verschiedenen Interpretationen des Notentextes zurechtkommt.

Großer Test am 7. Februar

Ein erster großer öffentlicher Test des Systems steht am 7. Februar während eines regulären Konzerts des Concertgebouw-Orchesters in Amsterdam an. Aufgeführt wird Richard Strauss' "Alpensinfonie", die das Orchester mit über 100 Musikern umsetzt. "Ein ganz normales Notebook von uns wird live zuhören und versuchen, in Echtzeit und punktgenau mitzuverfolgen, wo man sich im Stück gerade befindet, und dann in den richtigen Momenten Informationen per WLAN an iPads von Zuhörern im Publikum schicken. Ich glaube nicht, dass das jemals jemand vorher geschafft hat", gibt sich Widmer zuversichtlich. Da man "unglaublich robuste Tracking-Algorithmen" entwickelt habe, sind die Forscher auch guten Mutes, dass sich der Rechner bei dieser Aufgabe "nicht verliert".

Mit der eigenen Forschung in die Öffentlichkeit zu gehen und mit Technik neue Einblicke in die Musik zu ermöglichen, sei jedenfalls sehr spannend, so Widmer, der das Projekt heute, Dienstag, mit Kollegen präsentiert. Im Mittelpunkt der 30-Jahr-Feier des OFAI, die auch den 45. Gründungstag der Österreichischen Studiengesellschaft für Kybernetik (OSGK) zum Anlass hat, werden aber wissenschaftliche Arbeiten des gesamten Instituts stehen. Neben dem Verstehen von Musik wird es um neue Zugänge zu Big Data, das Entstehen und Beeinflussen von Emotionen im Cyberspace, um Roboternavigation, den Einsatz von Sprachtechnologie, emotionale Persönlichkeitsmodelle für Roboter oder ein Entwicklungshandbuch ethischer Systeme für Roboter gehen, erklärte Institutsgründer Robert Trappl in einer Aussendung. (APA/red, derStandard.at, 17.12.2014)

Share if you care.