Wissenschaftliche Berechnungen wie Wetter- oder Lawinenprognosen benötigen eine enorm hohe Rechenleistung. Supercomputer rechnen zum Teil mehrere Tage an solchen Szenarien. Gerade für kleinere Institute ist es aber schwierig, die aufwändige Infrastruktur zu erhalten und regelmäßig zu erneuern. Eine Lösung war bisher, Ressourcen mehrerer Einrichtungen im sogenannten Grid Computing zu einem virtuellen Supercomputer zu verbinden und den Rechenaufwand zu verteilen.

Spezialisten für Hochleistungsrechner der Uni Innsbruck versuchen nun herauszufinden, ob Cloud-Computing-Services gängiger Anbieter wie Google und Amazon, die ursprünglich eigentlich nur für Business- und Web-Anwendungen gedacht waren, auch für den wissenschaftlichen Bereich geeignet sind.

Radu Prodan vom Innsbrucker Institut für Informatik arbeitet seit Anfang 2011 mit zehn Mitarbeitern und in Kooperation mit dem Institut für Meteorologie und Geophysik und dem Institut für Astro- und Teilchenphysik an dem Projekt, das von der Standortagentur Tirol gefördert wird. Ziel ist es, anstelle einer teuren eigenen Infrastruktur Rechenressourcen zu mieten, und somit die Dauer der Modellrechnungen maßgeblich zu verkürzen.

"Wir versuchen, den Faktor zehn zu erreichen", sagt Prodan. Eine 36-stündige Berechnung würde demnach nur mehr dreieinhalb Stunden dauern. "Wenn die Zeit knapp ist, oder wenn wir ein großes Experiment machen wollen, mieten wir Ressourcen aus der Cloud."

Cloud-Simulator

In einer ersten Phase des Projekts wurde herausgefunden, welche Anbieter überhaupt infrage kommen. Früher gab es das Problem, dass man nicht genau wusste, welche Prozessoren Anbieter genau einsetzen. Das machte es unmöglich, die Anwendungen für die Hardware zu optimieren. Amazon hat mittlerweile auf den Bedarf der Forscher reagiert und bietet auch für die Wissenschaft brauchbare Cluster-Computing-Ressourcen an, sagt Prodan.

Ein gleichwertiger Ersatz für Supercomputer ist die Rechenleistung aus der Cloud aber noch nicht. Dazu kommt, dass die Forscher keine Kontrolle über die ausgelagerten Prozesse haben. Entsprechende Vereinbarungen müssen erst sicherstellen, dass die Forscher die Berechnungen ausreichend überwachen können.

In einem nächsten Schritt haben die Informatiker einen eigenen Cloud-Simulator entwickelt. Mithilfe dieser Software sollen in einer weiteren Phase die Anwendungen für die Cloud-Ressourcen optimiert werden, bevor die Experimente direkt mit dem Anbieter fortgesetzt werden. Geht alles gut, sollen zum Ende des Projekts 2014 die Anwendungen auf den Servern kommerzieller Anbieter laufen. Zudem soll die Software auch anderen Einrichtungen zugänglich zu machen.

Die technische Entwicklung geht Hand in Hand mit einer entsprechenden Kostenrechnung, die feststellen soll, wie viel günstiger das Outsourcing in die Cloud tatsächlich kommt. Bei zufriedenstellenden Ergebnissen könnte anstelle vom Ankauf teurer Hardware wieder stärker in Manpower investiert werden. (pum/DER STANDARD, Printausgabe, 9. 11. 2011)