Der Klang der Elementarteilchen

2. Juli 2013, 19:26
6 Postings

Riesige Datenmengen zum Klingen bringen: Das ist das Ziel der Sonifikationsforschung - Analog zur Visualisierung soll die akustische Darstellung neue Erkenntnisse ermöglichen

Wie klingen Protonen, Elektronen, Quarks - und das Higgs-Boson? Diese Frage stellte Katharina Vogt 24 (großteils männlichen) Physikern vom Teilchenbeschleunigerzentrum Cern - vom Studenten bis zum Nobelpreisträger.

"Zu meiner Überraschung waren die meisten bereit, ins Mikro zu singen oder auf andere Art Töne zu produzieren", erzählt Vogt. "Obwohl die Idee vorher allen sehr fremd war, waren einige Klangergebnisse ganz ähnlich." So klangen Elektronen eher spritzig und ähnelten kurzen hohen Piepsern oder schnellem Klingeln. Die viel schwereren Protonen hingegen bekamen tiefe, resonante Klänge wie etwa einen Dong verpasst, schildert Vogt.

Die ausgebildete Musikerin studierte Umweltsystemwissenschaften mit Schwerpunkt Physik und verbindet ihre Interessen nun am Institut für elektronische Musik und Akustik (IEM) der Kunstuniversität Graz. Im Rahmen ihrer Dissertation zur Sonifikation, also Vertonung physikalischer Daten, verbrachte Vogt einen dreimonatigen Forschungsaufenthalt am Cern und versuchte herauszufinden, mit welchem Klang die Physiker verschiedene Elementarteilchen verbinden würden.

Auf einem Fragebogen konnten sie eintragen, welche Teilcheneigenschaften (wie Masse und Ladung) sie welchen Klangeigenschaften (etwa Tonhöhe, Lautstärke, Rhythmus) zuordnen, zudem konnten sie selbst zum Mikrofon greifen. Aus den Ergebnissen leitete sie eine Art Klangkarte für Teilchen ab.

Doch was steckt hinter der noch relativ exotischen Sonifikationsforschung? "Wir übersetzen Information für das Hören - aber eben nicht durch Sprache", sagt Vogt. Analog zur visuellen Darstellung von Daten in Grafiken, Diagrammen und Animationen ist die Sonifikation eine akustische Version der Anschauung. "Das Gehör verfügt über außerordentliche Fähigkeiten, um Details und Muster wahrzunehmen. Es löst zum Beispiel Schwingungen und Rhythmik viel besser auf als das Auge", nennt Vogt einen Vorteil. So könnten mit dem "Abhören" großer Datenmengen Strukturen, Gesetzmäßigkeiten und Abweichungen besser erfasst werden. "Klang erschließt sich immer nur in der Zeit. Man muss alles durchhören und kann nichts übersehen."

In der Seismologie und der Astronomie ist das Prinzip der klanglichen Darstellung schon seit langem im Einsatz. Auch der Geigerzähler wandelt gemessene Strahlung unmittelbar in die bekannten Pieptöne um. Und dennoch: Generell ist Sonifikation in der Wissenschaft noch ein Fremdwort, die Forschung dazu steckt noch in den Grundlagen.

Je heißer, desto höher

Wie das Forschen nach Tönen konkret funktionieren könnte, erkunden Vogt und Kollegen vom IEM in Kooperation mit dem Wegener-Center für Klima und globalen Wandel der Uni Graz in dem Projekt "SysSon" (A systematic procedure to develop sonifications), das vom Wissenschaftsfonds FWF unterstützt wird. Anhand von Klimamodellen soll erprobt werden, welche Audioanwendungen sich eignen würden, um neue Erkenntnisse aus der Datenflut herauszuhören.

"In einem ersten Schritt haben wir Interviews mit den Klimaforschern geführt, um zu verstehen, wie sie arbeiten und welche Audiotools sie brauchen könnten", sagt Vogt. Dann geht es daran, passende Sounds für Klimaphänomene zu designen. Temperatur lässt sich etwa gut mit Tonhöhe darstellen - also je heißer, desto höher. Außerdem werden Klangcharakteristika von Wetterphänomenen wie Wind und Regen verwendet.

So sollen sämtliche Parameter, die in Messdaten enthalten sind, per Algorithmen in ein Orchester aus abstrakten Klängen verwandelt werden. Damit lassen sich dann langjährige Verläufe, die visuell schwer erfassbar sind, in einer Tonspur darstellen. Die Ergebnisse klingen faszinierend. Etwa die Sonifizierung der Strahlung, die durch die Atmosphäre auf die Erde trifft und wieder zurückgestrahlt wird, und zwar im Zeitraum zwischen 1850 und 2030. Komprimiert auf 30 Sekunden, hört es sich wie ein ansteigendes, waberndes Geschrei von Vögeln aus einer anderen Welt an.

Noch gilt es, Vorurteile in der Forschungscommunity gegenüber der Sonifikation abzubauen. "Man kann die Sounds eben nicht in Papers drucken", sagt Vogt. "Angesichts der wachsenden Informationsmengen sollte man aber nicht auf diese Ressource verzichten." Das Projekt wurde kürzlich bei einem Innovationsgespräch der Wiener Technologieagentur ZIT zum Thema "Augen und Ohren" vorgestellt, und langsam nehme die Bereitschaft zu, sich auf akustisches Neuland einzulassen.

Die Einsatzmöglichkeiten sind breit: In einem vergangenen Projekt haben IEM-Forscher Bewegungsdaten von Physiotherapiepatienten erfasst. Wenn diese die Übung richtig ausführten, hörten sie Musik, bei falschen Bewegungen ein Knarren. Eine Reihe von Forschern beschäftigt sich zudem mit der Sonifikation für Blinde.

Am Cern zeigte man sich experimentierfreudig: Infolge von Vogts Besuch stellte der IEM-Doktorand Daniel Deboy Mikrofone im LHC-Tunnel auf. Dadurch wird hörbar, wenn die Kollimatoren, also jene Geräte, die die Teilchenstrahlung auf Bahn halten sollen, überlastet sind. Katharina Vogt hofft jedenfalls auf mehr offene Ohren: "In einer multimedialen Zukunft sollten alle Sinne miteinbezogen werden." (Karin Krichmayr, DER STANDARD, 3.7.2013)

  • Forschen nach Tönen: Wenn Daten in eine Tonspur übertragen werden, lassen sich oft leichter Muster erkennen als mit dem Auge.
    foto: archiv

    Forschen nach Tönen: Wenn Daten in eine Tonspur übertragen werden, lassen sich oft leichter Muster erkennen als mit dem Auge.

  • Katharina Vogt lud Physiker zum Singen.
    foto: kristoferitsch

    Katharina Vogt lud Physiker zum Singen.

Share if you care.