Auch virtuelle Wolken werfen Schatten

7. Juni 2011, 19:52
5 Postings

Ein neues Christian-Doppler-Labor will die Probleme des Cloud-Computing systematisch lösen und stellt dazu erstmals den Benutzer dieser Dienste ins Zentrum seiner Forschungstätigkeit

Als Klaus-Dieter Schewe im Februar 2011 auf einer großen Wiener Konferenz zum Thema CloudComputing referierte, bemerkte er zwei ungleiche Lager unter den Teilnehmern: "Der Großteil der Redner hat Hurravorträge gehalten, Skeptiker waren eher selten." Dabei zählt sich Schewe, wissenschaftlicher Leiter des Software Competence Center Hagenberg, lieber zur zweiten Gruppe. Euphorikern, die glauben, Cloud-Computing (siehe Wissen) sei die ultimative Lösung für alle Probleme beim Speichern und Verteilen von Daten, begegnet er mit einem Vergleich: "Es ist wie beim Getränkeautomaten auf dem Hauptplatz – auch dort gehen die Getränke irgendwann einmal aus, und nicht jeder kommt rasch an sein Bier!"

In Zukunft möchte Schewe dennoch – oder gerade deshalb – mit einer Reihe wissenschaftlicher Partner klären, wie Unternehmen solche dezentralen IT-Infrastrukturen zielführend einsetzen können. Denn bei aller konstruktiven Kritik an Cloud-Lösungen, bedeutet deren Einsatz für Firmen oftmals einen deutlichen Wettbewerbsvorteil. Schewe leitet von nun an sieben Jahre lang das neue Christian-Doppler-Labor für "Client Centric Cloud Computing", das heute im Schloss Hagenberg der Öffentlichkeit vorgestellt wird.

Speicherort unbekannt

Der promovierte Mathematiker und Experte für theoretische Informatik schickt voraus, dass mit der Benutzung von Cloud-Diensten immer Verantwortung – etwa für die Datensicherheit oder den Datenschutz – abgegeben wird. So müsse künftig sichergestellt werden, dass die Nutzer zumindest wissen, wo ihre Daten physisch überhaupt liegen. Unabhängig von der technischen Realisierbarkeit ergeben sich dabei auch rechtlich relevante Aspekte: So besteht jedenfalls ein erheblicher Unterschied für den Datenschutz, ob Server innerhalb oder außerhalb der EU stehen. Zudem sei es nicht ausreichend, nur die Verschlüsselung sensibler Daten laufend zu verbessern. Selbst unlesbare Dokumente geben bereits durch die Intensität des Verkehrs im Netzwerk Aufschluss über die Tätigkeit der Benutzer.

Schewe schließt daher sowohl aus den technischen als auch aus den rechtlichen Rahmenbedingungen, dass gemischte IT-Infrastrukturen nach wie vor am sinnvollsten sind. Manche Dienste sollten auch weiterhin lokal – also am eigenen Firmenserver – eingerichtet werden, damit niemand von außen Schlüsse aus dem Datenverkehr ziehen kann. Überdies ergäbe sich bei Cloud-Diensten ein grundsätzliches Problem: Je mehr dezentral verteilt wird, desto eher nimmt die Performance des Netzwerks ab.

Parallel zur nötigen Grundlagenforschung in diesem Bereich, wird das Doppler-Labor auch Software-Werkzeuge entwickeln, die Kunden die Bedienung von Diensten in der Cloud erleichtern soll. Vor allem das Research Institute for Symbolic Computation an der Kepler-Universität Linz wird sich um die formalen Nachweise der Funktionstüchtigkeit solcher Lösungen kümmern.

Lernen von der Datenbank

Organisatorischer "Heimathafen" des CD-Labors ist das Institut für Anwendungsorientierte Wissensverarbeitung (FAW) an derselben Uni. Dessen langjähriger Leiter, Roland Wagner, geht davon aus, dass Cloud-Computing einiges vom etablierten Gebiet der wissensbasierten Systeme lernen kann. Dazu zählen insbesondere erprobte Datenbanklösungen, bei denen die Sicherheit, der Schutz und die Verteilung von Daten ähnlich gestaltet sind.

Als einer der allerersten Absolventen des Informatikstudiums in Österreich – 1969 an der Uni Linz eingeführt -, glaubt Wagner denn auch nur beschränkt an den revolutionären Charakter von Cloud-Lösungen: "Als Student hab ich als Bote Lochkarten vom Institut zur Vöest gebracht. Wenn man so will, war das bereits ein sehr früher Cloud-Dienst, weil ja auch hier die Rechenleistung ausgelagert war." Bei der dezentralen Verteilung von Daten "in der Wolke" können demnach bekannte Methoden zur Verschlüsselung und für Suchabfragen zum Einsatz kommen. "Oft sind die erprobten Ansätze auch die robustesten", weiß Wagner. Allerdings wurden die Anforderungen an Datenbanktechnologien mit schnellen Fortschritten bei der Hardware deutlich komplexer – diese Infrastrukturen müssen nun systematisch "cloudtauglich" gemacht werden. (DER STANDARD, Printausgabe, 08.06.2011)

Wissen: Rechnen lassen im Irgendwo

Cloud-Computing bezeichnet eine IT-Strategie, bei der Hard- und Software dezentral verteilt werden. Die Wolke steht dabei synonym für die örtlich nicht genau identifizierbare Hardware, auf die Benutzer vorwiegend über das Internet zugreifen.

Cloud-Dienste ermöglichen nicht nur die entfernte Verwaltung von Daten, sondern auch das Ausführen von Anwendungen oder Betriebssystemen. Diese abstrahierte Infrastruktur wird zunehmend bedeutsamer, weil private und gewerbliche Nutzer ihre IT-Ressourcen nahezu beliebig erweitern können und weniger in lokale Netzwerke investieren müssen.

Kritiker äußern Bedenken in Bezug auf Datenschutz und mangelnde Kontrolle über die eigenen Daten. Die Nutzer der Cloud-Services von Amazon und Google waren bereits mehrfach von Systemausfällen betroffen. Der totale Datenverlust ist dennoch vergleichsweise unwahrscheinlich. (saum)

  • Wird der User von der Kontrolle über seine Daten ausgeschlossen, ist die Cloud grundsätzlich falsch konzipiert.
    grafik: standard/fatih aydogdu

    Wird der User von der Kontrolle über seine Daten ausgeschlossen, ist die Cloud grundsätzlich falsch konzipiert.

Share if you care.