Des Rechners neue Kerne

8. Dezember 2009, 19:07
12 Postings

Immer mehr Computer besitzen mehrkernige Prozessoren - Diese rechnen zwar schneller, doch bestehende Programme sind dafür meist noch gar nicht ausgelegt

Tiroler Forscher wollen dies nun mit einer neuen Art von Software ändern.

* * *

Es klingt wie das Vorurteil über manche Baustellenarbeiter: Einer arbeitet, zwei schauen zu. Aber genau das passiert in vielen Computern. Denn seit einigen Jahren besitzen diese immer häufiger mehrere Prozessoren auf einem einzigen Chip. Der Vorteil: Während bisher nur ein einziger Prozessor - gewissermaßen das Herzstück eines Computers - Programme ausgeführt hat, können die Aufgaben jetzt auf mehrere Prozessoren verteilt werden. Mehrere Rechenschritte könnten parallel ablaufen, alles ginge schneller. Das ginge. Denn viele Programme halten mit der neuen Technik noch nicht mit und nutzen nach wie vor nur einen Prozessor. Die anderen laufen leer.

Thomas Fahringer, Informatiker an der Universität Innsbruck, möchte der Software auf die Sprünge helfen. In einem Forschungsprojekt der Tiroler Zukunftsstiftung untersucht er, wie herkömmliche Programme parallelisiert, also auf mehrere Prozessoren aufgeteilt werden können. "Die Hardware ist unglaublich leistungsfähig, und die Software kann das nicht ausnutzen", sagt Fahringer. Die Programme rechnen immer einen Prozess nach dem anderen; neue Prozessoren könnten sich jedoch hunderte oder tausende parallel vornehmen.

Seit einigen Jahren gibt es diese neuen Prozessoren. "Die meisten Informatiker haben jedoch wenig Verständnis, wie man passende Programme erstellt", sagt Fahringer. Der Softwareindustrie würden schlicht die Leute mit den nötigen Kenntnissen fehlen. Laut Fahringer reicht das derzeitige Standard-EDV-Wissen nicht aus; Programmierer würden Programme meist immer noch so schreiben, wie sie es vor zehn Jahren gelernt haben.

Fahringer entwickelt daher mit seinem Team in der Programmiersprache Java-Anwendungen, die Softwareentwickler leicht verwenden können, ohne all die Aufgaben Zeile für Zeile von Hand programmieren zu müssen. Das dreijährige Projekt läuft seit Dezember 2008; erste Prototypen wurden bereits entwickelt.

Die Software hinkt der Hardware aber nicht nur technisch hinterher. Generell ist die Hardware immer einen Schritt voraus, sagt Fahringer. Und das sei auch gut so, denn manche neue Idee entpuppt sich als Sackgasse. Würden Programmierer und Software mitziehen, wäre der Aufwand vergeudet. Fahringers Gruppe hat sich vor sechs bis acht Jahren auf das Parallelrechnen spezialisiert. Damals war das noch eine Nische, mittlerweile ist die Technik weit verbreitet. Doch es dauere einfach, bis sich die neue Technik auch in den Lehrplänen der Unis widerspiegle. In der Zwischenzeit decken einige spezialisierte Institute die Lücke ab. Fahringer erhält immer wieder Anfragen von Softwarefirmen.

Auslöser für die neuen Prozessoren waren Fahringer zufolge physikalische Grenzen. Um schneller rechnen zu können, hat man davor versucht, die Taktfrequenz des Prozessors hinaufzuschrauben. Doch je weiter man damit kommt, umso schwieriger wird es. Der Schritt von vier auf viereinhalb Gigahertz fällt deutlich schwerer als jener von zwei auf zweieinhalb. Die Bauteile mussten dazu immer weiter verkleinert werden, der Energieverbrauch stieg, die Kosten explodierten und irgendwann war die Grenze des Machbaren erreicht. Mehrere zusammenarbeitende Prozessoren mit geringerer Frequenz waren dann irgendwann billiger.

Gewünscht ist das parallele Rechnen vor allem bei aufwändigen Programmen und großen Datenmengen; bei Spielen, Videos, Grafiken, und wenn Daten verschlüsselt werden. Mehrkernprozessoren werden aber auch in Handys verwendet. Hier geht es unter anderem um die Energie, denn können die Aufgaben auf die Prozessoren gut verteilt werden, klickt man sich nicht nur schneller durchs Menü, sondern das Telefon verbraucht auch weniger Strom und der Akku hält länger.

Gegenwind für Galaxien

Zudem hat die Wissenschaft Interesse an Parallelrechnern. Simulationen mit großen Datenmengen laufen auf diesen Geräten deutlich schneller. Sabine Schindler, die Leiterin des Instituts für Astro- und Teilchenphysik der Universität Innsbruck, rechnet mit "Leo II". Der Computer ist nach dem Gründer der Uni, Leopold I., benannt, und ist der größte wissenschaftliche Rechner Österreichs. Er besitzt 1008 Prozessoren.

Schindler berechnet, wie sich Galaxien und Galaxienhaufen entwickeln. Dazu muss simuliert werden, wie sich Sterne, Gas und dunkle Materie über lange Zeiträume und weite Entfernungen bewegen. Schindler hat zum Beispiel simuliert, warum Sterne auch außerhalb von Galaxien vorkommen: Bewegen sich Galaxien rasch durchs All, wird ihr Gas wie durch einen Gegenwind abgestreift. Aus dem Gas entstehen dann Sterne hinter der Galaxie.

"Durch das Parallelisieren dauern diese Rechnungen ein paar Tage; sonst wären es Wochen oder Monate", sagt Schindler. Sie koordiniert auch die Forschungsplattform "Scientific Computing", zu der sich mehrere Fakultäten zusammengeschlossen haben und die den Computer betreibt. Leo II wird von 30 Arbeitsgruppen genutzt; darunter Informatiker, Mathematiker, Physiker und Meteorologen. Für praktische Fragen wird der Computer auch von der Mechanik und Baustoffforschung verwendet. Die Wissenschafter tauschen dann Erfahrungen ebenso aus wie Methoden, mit denen die riesigen Datenberge visualisiert werden können.

Die 1008 Prozessoren erzeugen jedoch viel Wärme; gekühlt wird Leo mit heraufgepumptem Grundwasser. Parallelisiert wurde in Innsbruck schon mit dem Vorläufer Leo I, der nach wie vor kleinere Aufgaben rechnet. Die Lebensdauer eines solchen Rechners beträgt zirka drei Jahre. Der 500.000 Euro teure Leo II wurde erst heuer im Mai angeworfen und wird daher noch für einige Zeit den Gegenwind von Galaxien simulieren. (Mark Hammer/DER STANDARD, Printausgabe, 09.12.2009)

 

  • Bild nicht mehr verfügbar

    Die Wissenschaft bekundet Interesse an Parallelrechnern. Simulationen mit großen Datenmengen laufen auf diesen Geräten deutlich schneller.

Share if you care.