Einzelne Instrumente aus einem Musikstück herauszuhören ist schon für das menschliche Ohr schwierig genug. Ein österreichischer Forscher hat im Zuge seiner Doktorarbeit an der Music Technology Group der Universität Pompeu Fabra in Barcelona eine Methode entwickelt, diese Fähigkeit auch elektronischen Systemen beizubringen, um in Zukunft beispielsweise große Multimedia-Archive besser verwalten zu können. Heute, Mittwoch, Abend stellt Ferdinand Fuhrmann seine Arbeit am Österreichischen Forschungsinstitut für Artificial Intelligence (OFAI) in Wien vor.

Daten

Funktioniert das System wie geplant, könne dann etwa jemand, "der sich für klassische Musik mit elektrischen Gitarren interessiert, unter Millionen von Daten gezielt danach suchen", erklärte Fuhrmann, der nach dem Abschluss seines Elektrotechnik-Toningenieur-Studiums an der Technischen Universität Graz für sein Doktorat nach Barcelona ging, im Gespräch mit der APA.

Konkret wurden zwölf Musikinstrumente und die menschliche Singstimme modelliert, wobei man sich auf westliche Musik konzentrierte. Bei der automatischen Zuordnung von einzelnen Musikinstrumenten stelle die Komplexität des Audiosignals das Hauptproblem dar, "nachdem man ja ständig mehrere Quellen gleichzeitig hat, die sich sowohl zeitlich als auch im Frequenzbereich überlappen". Fuhrmann erarbeitete dazu eine generelle Methode, die im Gegensatz zu vergleichbaren Ansätzen vom algorithmischen Design her nicht auf einen speziellen Anwendungsbereich beschränkt sei.

Suchpräferenzen

Eine weitere wichtige Anwendung könnte die Methode bei sogenannten Musik-Empfehlungssystemen im Internet finden, die dem Benutzer automatisch Musikstücke aufgrund seiner Suchpräferenzen vorschlagen. Allerdings, schränkt Fuhrmann ein, brauche es bis zum kommerziellen Einsatz für das automatische Extrahieren von Merkmalen aus der Musik "sicher noch zehn Jahre". (APA)