Hardware schützt Computerbauteile vor kosmischer Strahlung

3. November 2008, 14:40
6 Postings

Entwickler: "Grundsätzlich ist jeder Rechner gefährdet"

Ein Doktoratsstudent der Fern-Universität Hagen hat eine Hardware-Lösung entwickelt, die den Einfluss elektrisch geladener Teilchen auf die Chips und Leiterbahnen in schnellen Rechnern korrigiert. Mit ihrer Hilfe soll es möglich werden, die durch den ständigen Beschuss mit Partikeln aus dem Weltall verursachten Fehler bei Supercomputern zu reduzieren. Diese weisen eine besondere Anfälligkeit für die kosmische Strahlung auf, da die integrierten Bauteile wesentlich kleiner und kompakter verbaut sind als in normalen Standard-PCs. Laut dem verantwortlichen Entwickler Bernhard Fechner betrifft das Problem neben Servern aber auch schnelle Arbeitsplatz- und Privat-Computer. Gefährdet sei grundsätzlich jeder Rechner. Je schneller er arbeite, desto größer sei die Fehleranfälligkeit.

Fehler im Chip durch Neutronen

Bei jedem neuen Computer werden die Leiterbahnen und die Transistoren auf den Chips schmaler, oft sind sie nur noch einige Atome dick. Dadurch steigt das Risiko, dass elektrisch geladene Partikel - vor allem rasend schnelle Neutronen aus dem Weltall - gleich mehrere Bauteile mit einem Treffer beschädigen. Werden die Chip-Strukturen von einem Neutron getroffen, kann ein einzelnes Bit "umkippen" oder sich diese Falsch-Ladung ausbreiten und Fehler des gesamten Chips verursachen. "Wenn bei einem Bild nur ein Pixel 'kippt', macht das selten etwas", erklärt Fechner, "doch was ist, wenn beim Überholen auf der Autobahn plötzlich der Motor 'stottert', das Antiblockiersystem versagt oder beim Online-Banking ein anderer Betrag überwiesen wird?" Im Grunde sei kein elektronisches Bauteil vor den Effekten der kosmischen Strahlung sicher, selbst Mauern passiere die Neutronenstrahlung problemlos. Schützen kann man sich also nicht, daher muss man Fehler erkennen und korrigieren können.

Automatische Prozessorabschaltung

In einer Studie hat sich Fechner im Rahmen seiner Dissertation mit den Fehlern befasst, die auf dem Münchner Supercomputer SGI Altix 4700 im Leibniz-Rechenzentrum entstehen. "Dabei hat sich gezeigt, dass man bei einer steigenden Fehlerrate die Fehlerüberdeckung 'hochschrauben' muss", schildert Fechner. Dies bedeutet, dass auf Kosten der Rechenleistung mehr Fehler erkannt werden. Hierfür hat der Doktorand eine Automatik entwickelt, die bei steigender Fehlerrate zusätzliche Kompetenzen zuschaltet, die Fehler finden. Ist die Rate unvertretbar hoch, wird der Prozessor abgeschaltet. Für die Fehlererkennung benutzt Fechner unter anderem ein Echo des tatsächlichen Programms, das etwa fünf Rechentakte zeitversetzt zum Originalprogramm abläuft. Ein Vergleich beider Prozesse liefert dann Einblick in die tatsächliche Fehlerabweichung des betreffenden Rechners. "Von all dem merken die Anwender nichts. Wir haben die Hardware so wenig geändert, dass die Programme ganz normal weiterlaufen", verspricht Fechner.

6.300 Neutroneneinschläge pro Stunde

Der ständige Neutronenbeschuss aus dem Weltall stellt ein Problem dar, das alle Computer-User gleichermaßen betrifft. So wurden in Kiel bei einer Untersuchung durchschnittlich 6.300 Neutroneneinschläge pro Stunde gezählt. Nicht im gesamten Stadtgebiet, sondern auf einem einzigen Quadratzentimeter. Der Spitzenwert weltweit liegt bei 14.400 Treffern. "Mit Sicherheit ist eine Anzahl von Neutronen dabei, die genügend Energie haben, um Computer zu schädigen", ist Fechner überzeugt. (pte)

Share if you care.