Google: Im Kampf gegen den Stromverbrauch

8. Oktober 2007, 13:00
4 Postings

Energieeffizienz rückt immer mehr in den Mittelpunkt des Interesses - Optimale Auslastung und Hardwareverbesserungen als Schlüssel

Das Internet wächst und wächst und wächst - und damit auch die Anforderungen an die zugrunde liegende Infrastruktur. Besonderen Belastungen sind dabei fraglos die Server der verschiedenen Suchmaschinen ausgeliefert, immerhin verlangt das stetige Durchforsten des Webs und das sekundenschnelle Ausliefern von unzähligen Suchanfragen so einiges an Rechenleistung.

Strom

Eine Rahmensituation, die manche potentielle Problembereiche in den Vordergrund treten lässt, die sonst nur begrenzt ein Thema sind. Einer davon ist zweifellos der Stromverbrauch. Ein Thema, dem sich Google bereits seit längerem aktiv zu stellen versucht, dies einerseits aus Kosten- aber auch aus Umweltschutzgründen.

Angriffspunkte

Dass es in diesem Bereich keine trivialen Lösungen gibt, weiß auch Luiz Barroso, der bei Google mit der Erhöhung der Energieeffizienz beauftragt ist, wie eWeek berichtet. Derzeit arbeitet er an einer Studie, die die Hauptfaktoren zur Optimierung herausarbeiten soll, und deren Veröffentlichung für Sommer geplant ist.

Entscheidend

Schon jetzt zeige sich, dass vor allem zwei Dinge entscheidend sind, allen voran die Auslastung der eingesetzten Systeme. Die Leistungseffizienz sei bei nicht-ausgelasteten Rechner üblicherweise wesentlich schlechter als bei Systemen mit Volllast. Ein Bereich bei dem es noch einiges zu tun gibt: Derzeit ist das durchschnittliche Data Center von Google gerade mal zu 70 Prozent ausgelastet. Zum Anderen wäre da noch die Fehlertoleranz, je weniger Fehler, desto optimaler infolge wiederum die Auslastung der Rechner.

Vergangene Fehler

Für die Probleme der Gegenwart macht Barroso vor allem zwei entscheidende Fehlentwicklungen der Vergangenheit verantwortlich: Einerseits wäre da das "Megahertz-Rennen" zwischen den verschiedenen CPU-Herstellern, mit dem man in Hinblick auf den Stromverbrauch richtiggehend gegen die Wand gelaufen sei. Anderseits sei auch der Trend zu riesigen Domänen mit Shared Memory ein fataler Irrtum gewesen, ein einziger Bug könne das ganze System zum Erliegen bringen.

Zukunft

Immerhin sieht die Zukunft in diesem Bereich mittlerweile nicht mehr ganz so düster wie noch vor einigen Jahren aus: So sind aktuelle Multicore-CPUs wesentlich effizienter als ihre Vorgänger. Für den "normalen" Computer-Einsatz stelle sich zwar die Frage, ob die EntwicklerInnen überhaupt immer ihre Software dafür ausreichend optimieren können, für Google sei dies aufgrund der vielen parallelen Anfragen hingegen kein Thema.

Optimiert

Weitere Verbesserungen erwartet man sich - wie schon in der Vergangenheit angekündigt - durch Optimierungen am Hardware-Design. So könnte man die Verlustleistung der Computer-Netzteile bis auf ein Viertel reduzieren, zeigt sich Barroso überzeugt. Um dies zu erreichen, arbeite man mit Hardwarepartnern wie Intel und AMD zusammen. (red)

Link

Google

  • Bild nicht mehr verfügbar
Share if you care.