Bild nicht mehr verfügbar.

Esa-Satellit "Integral" bei Messung von Gamma- Strahlen im All. Das Problem: Wie können die Daten fehlerfrei zur Erde übermittelt werden? Die Akademie der Wissen- schaften ging dieser Frage nun nach.

Bild: apa/esa

Am 8. November 1968 war es soweit: Die unbemannte Sonde "Pioneer 9" startete von Cape Canaveral, um detaillierte Messungen des Sonnenwindes, des Magnetfeldes der Sonne und der kosmischen Strahlung vorzunehmen. Die gewonnenen Daten sollten ein besseres Verständnis der Prozesse im Sonneninneren und der Struktur des Sonnenwindes ermöglichen. Damit hofften die Forscher, letztlich verstärkte Sonnenaktivitäten frühzeitig erkennen und ihre Auswirkungen auf Energie- und Kommunikationseinrichtungen auf der Erde besser abschätzen zu können. Blieb nur die Frage: Wie können die aufgenommenen und in endlose Datenströme umgewandelten Bilddaten so ungestört zur Nasa übermittelt werden, dass Fehlinterpretationen möglichst vermieden werden?

"Boolsche Logik"

"Die Herausforderung bestand darin, die Bilder auf ihren Wahrheitsgehalt prüfen zu können, ohne gleichzeitig zu viel Übermittlungskapazität für zusätzliche Informationen zu opfern", erklärte James L. Massey, Experte für Digitaltechnik und Codierung, vergangene Woche vor der Österreichischen Akademie der Wissenschaften. Die Grundlagen für die Lösung dieses Problems wurden schon Ende der 1940er-Jahre geschaffen: Damals beschäftigte sich der Mathematiker und Elektrotechniker Claude Shannon mit der Frage, wie man menschliche Vermittler in Telefonzentralen ersetzen und den Wählvorgang automatisieren könne. Dafür griff Shannon auf die "Boolsche Logik", also die Formulierung und Lösung von Problemen mittels der beiden Symbole 0 und 1 zurück und "übersetzte" sie in elektronische Schaltkreise.

"Shannon Limit"

Er formulierte damit die Grundlagen, nicht nur der Informatik, sondern auch heutiger Computer, deren integrierte Schaltkreise alle Probleme auf das Erkennen niedriger (0) und hoher (1) Spannungen reduzieren. Auf das selbe Prinzip griff Shannon noch einmal 1948 zurück, als er der Frage nachging, wie eine Nachricht ohne Informationsverlust durch eine störungsanfällige Telefonleitung gelangen kann. Shannons Antwort waren wieder Nullen und Einsen: In dieser Sprache kann jede Information, unabhängig vom Inhalt, kodiert werden. Ein paar zusätzliche Bits reichen, um den Sinn im Fall einer Störung wieder herstellen zu können. Mit dem "Shannon Limit" legte er schon damals die obere Grenze der Übertragungsgeschwindigkeit bei einem vorgegebenen Rauschpegel fest, an deren Durchbrechung Forscher noch heute arbeiten.

"Redundanz"

Wenn Informationstechnologen also von "Redundanz" sprechen, meinen sie genau diese "Geschwätzigkeit" von digitalisierten Nachrichten: Der zu übertragenden Information werden Prüfbits beigemischt. Als Zusatzzeichen signalisieren sie dem Empfänger, ob unterwegs ein Bit "umgekippt" ist, sich also von einer "1" in eine "0" verwandelt hat oder umgekehrt. Das Problem daran: In eine Bitfolge passt, ob der zusätzlich notwendigen Zeichen, weniger Information, als eigentlich möglich wäre, wodurch die Zeit, die für die Übertragung benötigt wird, steigt, beziehungsweise die Menge an übermittelbarer Information pro Zeiteinheit sinkt.

Vom CD- und DVD-Spieler bis zum Satellitenempfänger

Der Mathematiker Richard W. Hamming entwickelte diese Grundlagen weiter und konstruierte ein Verfahren, mit dem man nicht nur erkennen kann, dass ein Bit verfälscht wurde, sondern sich der Fehler auch automatisch korrigiert. Die Grundideen dieses Verfahrens finden sich heute in zahlreichen Alltagsgegenständen, die auf digitale Datenübertragung setzen: vom CD- und DVD-Spieler bis hin zum Satellitenempfänger. Auch in der Mobilkommunikation und bei kabellosen Internet-Technologien setzen Entwickler auf sich selbst korrigierende Codes - schließlich müssen überall störende Umwelt-Einflüsse ausgeschaltet oder nachträglich ausgebessert werden.

"Pioneer 9"

Im Fall von "Pioneer 9" konnten die Techniker die Leistungsfähigkeit durch das "convolutional encoding" steigern, bei dem im Unterschied zum "Block-Coding", wo ausschließlich ganze Sequenzen codiert und übertragen werden, die Übermittlung schon bei der Verschlüsselung des ersten Bits beginnt. Noch hat die Suche nach immer schnelleren und verlässlicheren Codierungs-Methoden aber kein Ende gefunden. Der "letzte Schrei" ist laut James L. Massey das "Turbo-Coding", bei dem "zwar viele meinen, es erklären zu können, wir aber bis heute nicht ins letzte Detail verstehen, wie es funktioniert". (Der Standard Printausgabe, 17/18.1.2004, Elke Ziegler)