Algorithmen statt Blech gegen Wände fahren lassen

15. April 2011, 09:52
4 Postings

Durch Simulationen können Hochleistungsrechner viel Zeit und Materialkosten sparen

Was haben die Konstruktion von Autos, Milchpackerln oder großen Sonnenschirmen gemeinsam? Auf den ersten Blick sehr wenig. Doch immer sind für die Entwicklung auch höchst unterschiedlicher Gegenstände heute Hochleistungsrechner im Einsatz. Spielte sich High Performance Computing (HPC), so der Fachbegriff, vor zehn Jahren noch überwiegend auf Unis und in Forschungsabteilungen großer Unternehmen ab, werden die "Numbercruncher" jetzt auch für die Industrie interessanter, da leistbarer.

High Performance Computing über ein Jahrzehnt

Wurden früher zum Beispiel bei der Entwicklung eines Autoteils nach dem Design physische Prototypen gebaut, um diese dann zu testen, wird heute ein Simulationsschritt am Computer eingezogen. Die Autoindustrie nutzt High Performance Computing schon über ein Jahrzehnt, um Crashtests zu simulieren. Ohne realen Materialeinsatz können viele Szenarien am Computer durchgespielt werden. Was passiert, wenn das Auto in diesem und jenen Winkel gegen eine Wand knallt, wenn es mit einem Fußgänger zusammenprallt: All dies lässt sich mithilfe von Algorithmen simulieren.

Geldersparnis

"Je schneller ich die Riesenmengen an dabei anfallenden Daten berechnen kann, umso schneller komme ich zum Endprodukt", erläutert Stephan Gillich, HPC-Experte von Intel. Gemeinsam mit dem IT-Konzern Hewlett-Packard betreibt der Chiphersteller in Grenoble ein High Performance Computing Center. "Wenn eine Airline auf ein neues Flugzeug wartet, und der Hersteller nicht rechtzeitig mit den Tests fertigwird, kann das ein großes Problem für ihn werden", erklärt Xavier Poisson Gouyou Beauchamps von Hewlett-Packard die (geldsparende) Wichtigkeit von HPC.

Filmproduzenten bis Kernforscher

Die Herausforderung im HPC-Center in Grenoble ist es, nicht nur das "perfekte" System aus Hard- und Software für den Kunden zu entwickeln, sondern auch für optimale Softwareentwicklung zu sorgen. Unter den Kunden finden sich so unterschiedliche Ansprüche wie der von Kinofilmproduzenten wie die französische Quinta (Asterix) oder dem Kernforschungszentrum Cern.

31 Teraflops

Immer noch stehen Supercomputer unangefochten an der Spitze der Numbercruncher. Mit einem analogen Vergleich verdeutlicht Gillich die Kapazität dieser elektronischen Riesenhirne: Ein Supercomputer im unteren Drittel der Top 500-Rechner bringt es auf eine maximale Rechenleistung von 31 Teraflops. Um diese Leistung zu erreichen, müsste jeder der 1,3 Millionen Einwohner Münchens drei Jahre lang alle 3,5 Sekunden zwei achtstellige Zahlen miteinander multiplizieren.

Genomforschung

Weitere äußerst rechenintensive Einsatzgebiete für Superrechner, die oft auch miteinander vernetzt genutzt werden, sind Genomforschung und Meteorologie. "Mit HPC lässt sich die Natur simulieren", sagt Gillich. Zum Beispiel beim Wetter: Messungen aus der Atmosphäre fließen in Vorhersagemodelle ein, Wahrscheinlichkeiten, wie das Wetter sich entwickelt, werden durchgespielt. Nicht nur Autos werden mit HPC auf ihre Aerodynamik getestet, auch Hersteller großer Sonnenschirme im Gastgewerbe nutzen diese Möglichkeit mittlerweile. Am Computer wird durchgespielt, was mit dem Schirm passiert, wenn Wind aus verschiedenen Winkeln und verschiedener Stärke gegen ihn strömt. Das Verpackungsunternehmen Tetra Pak nutzt HPC zur Optimierung seiner Abfüllanlagen. "Ich nenne diese Entwicklung die Demokratisierung des High Performance Computing", sagt Gillich. (Karin Tzschentke aus Genf/DER STANDARD Printausgabe, 15. April 2011)

Der WebStandard auf Facebook

  • Bild nicht mehr verfügbar

    Materialkosten, die großteils gespart werden können: Superrechner können den Effekt von Auffahrunfällen ebenso simulieren wie Abfüllanlagen von Verpackungsunternehmen optimieren.

Share if you care.