... als Nächstes sollen sie schneller, sicherer und benutzerfreundlicher werden - und gute Geschäftsmöglichkeiten bieten. Im Idealfall vom eigenen PC aus.

Man kennt die Vergleiche, auch wenn die Vorstellungskraft längst nicht mehr mitkommt: Vor zwei Jahren war der Mac G4 so schnell wie die schnellsten Superrechner 14 Jahre zuvor, er rechnete mit 50 Milliarden floating point operations per second (flops). Der Großrechenmeister von NEC war zu diesem Zeitpunkt bereits fast 1000-mal schneller, er schaffte 40 Teraflops, und der neue HPC2500 von Fujitsu führt bereits wieder doppelt so viele Operationen durch. Dafür benötigt er auch 16.384 Prozessoren. Doch für einige der kniffligeren Probleme der heutigen Forschung reichen die bei Weitem nicht aus. Gesucht werden daher zusätzlicher Speicherplatz und noch mehr Leistung, die man sich ausborgen möchte, egal wo.

So weit die Grundidee der "Grids", der Computergitter, die regional bis weltweit entstehen. Ein Grid dient der gemeinsamen Nutzung von Computerleistung und -speicher via Internet, vergleichbar der Informationsnutzung via Web. Institutionelle Rechner werden zusammengeschlossen und ihre Hochleistungen addiert - das geschieht bereits. Dazu kommen beliebig viele PCs, die ebenfalls im Netz hängen, im "Vordergrund" sogar durch eine Software wie Word minimal belastet sein können und im Hintergrund viel Kapazität freihaben, die auch genutzt wird - Zukunftsmusik, deren ersten Takte die Techniker gerade üben.

Hohe Erwartungen

Wobei die Erwartungen sehr hochgeschraubt sind. Die drei US-Staaten West Virginia, North Carolina und Colorado etwa wollen ein Gitter knüpfen, in dem Wissenschafter, Unternehmen und der einfache Mann auf der Straße (so er ein mobiles Endgerät hat) Zugriff auf Supercomputer haben werden. "Grid-Computing", zitiert die Computerwoche den Forschungsmanager Wolfgang Gentzsch in North Carolina, "birgt 1000-mal mehr Geschäftsmöglichkeiten als das heutige Internet." Im Endausbau sollen 180 Institute teilhaben, die Nutzung wird zunächst kostenlos sein. Das Projekt arbeitet mit der Software Globus Toolkit, die laut Wolfgang Schreiner vom Research Institute for Symbolic Computation (Risc) im Softwarepark Hagenberg den Grid-Markt dominiert. Was den Ausbau der Netze anbelangt, könne Europa durchaus global mithalten. Eines der fortgeschrittensten Projekte ist das Data-Grid des CERN. Das Kernforschungszentrum wird es brauchen können, wenn sein neuer Teilchenbeschleuniger, der "Large Hadron Collider", in knapp zwei Jahren in Betrieb gehen wird. Zur Erforschung von einer Milliarde subatomarer Wechselwirkungen pro Sekunde wird es eine Unmenge von Daten zum Speichern und Auswerten geben; das werden selbst die 2000 parallel geschalteten PCs in Genf nicht schaffen.

Ähnliche wissenschaftsorientierte Rechnerzusammenschlüsse sind
+ das AstroGrid, ein virtuelles Observatorium britischer Unis;
+ das GRIDPP zur Auswertung europäischer und US-Experimente in der Teilchenphysik;
+ das NorduGrid in Skandinavien, das sich unter anderem mit der Machbarkeit von Grid-Anwendungen selbst beschäftigt.

In Österreich wächst das Austrian Grid zum ernsthaften Mitspieler heran. Die Großrechner der Unis Linz, Wien, Salzburg, Innsbruck und Graz und etliche angeschlossene Institute und Organisationen sind bereits vernetzt, wie Jens Volkert vom Linzer Institut für grafische und parallele Datenverarbeitung (GUP), Leiter des Researchstudios Ad Vision und einer der Koordinatoren des Grids, sagt: "In der ersten Phase stellen wir die Infrastruktur bereit und eine vermittelnde Software (Middleware) darüber. Und als Konsortium schauen wir, dass die Teilnehmer alle zu einem Agreement untereinander kommen." Wobei der Datenschutz bzw. das Vertrauen in die Sicherheit der Vernetzung Hauptkriterien für die Beteiligten sind.

Zu den Hauptnutzern des österreichischen Computergitters zählen der medizinische Bereich (siehe Beitrag unten), die Hochenergiephysik, numerische und astrophysikalische Simulationen und die Meteorologie. In einer nächsten Phase soll die Basis verbreitert werden; Banken, Versicherungen und generell Unternehmen mit besonders hohem Bedarf an "number-crunching" sind als Anwender willkommen.

Das Fernziel ist laut Volkert eine Benutzbarkeit wie bei der Steckdose: Der entnimmt jeder selbstverständlich Strom und macht sich auch keine Gedanken über die aufwändige Technik dahinter. "Dass jemand ein Rechenproblem hat, dafür kurzfristig sehr viel Kapazität braucht und die einfach aus dem Netz holt - das wird dann gehen." (Michael Freund/DER STANDARD, Print-Ausgabe, 31. 1. 2005)