Gelehrtenstreit um Großrechnertechnik

29. Dezember 2004, 11:03
3 Postings

Informatikstudenten in Deutschland zu wenig praxisorientiert

Das Düsseldorfer IT-Beratungshaus Harvey Nash hält die Informatikerausbildung in Deutschland für mangelhaft. Kritikpunkte sind die fehlende Vermittlung von Großrechnerkompetenz und der geringe Praxisbezug. In der Hochschullandschaft hat das für kontroverse Reaktionen gesorgt. "So etwas hätte man in den 60er Jahren behaupten können", konterte etwa Professor Francois Bry, Ordinarius für Programmier- und Modellierungssprachen am Institut für Informatik der Universität in München. Großrechneranwendungen würden schon seit Jahrzehnten nicht mehr mit besonderen Betriebssystemen oder Programmiersprachen implementiert, sondern mit herkömmlichen.

Out

Werner Altmann von der Gesellschaft für Informatik geht noch einen Schritt weiter. Nach seiner Auffassung sind Großrechnertechnologien mittlerweile mega-out. Daher sei es Unsinn, den Informatikstudenten diese "steinzeitlichen" Technologien wieder beizubringen. "Heutzutage bestehen leistungsstarke Rechensysteme aus dem Verbund von kleinen, wiederum sehr leistungsstarken Maschinen".

Praxis

Das wiederum bringt den Harvey Nash-Geschäftsführer Udo Nadolski aus der Fassung: "Die Herrschaften sollten mal raus in die Wirtschaft gehen und sich die Praxis anschauen. Das geht so dermaßen an der tatsächlichen Welt vorbei, das ist schon fast unglaublich. Sicherlich hat es gute Entwicklungen für mittlere Datentechnik gegeben. Aber es bleibt dabei: Die Großrechnertechnologie, obwohl hundertmal tot gesagt, ist nicht tot und sie wird auch nie tot sein. Im Gegenteil. Wir erleben jetzt gerade wieder, dass aus der verteilten Welt eine zentrale Welt wird, weil man gemerkt hat, dass es einfacher ist, alle Anwendungen und alle Daten in einem System zu halten, statt in 200. Früher hat man darauf gesetzt, alles zu verteilen und hat sich Serverplans aufgebaut. Plötzlich standen an allen Ecken und Enden irgendwelche Servermaschinen, die nicht richtig ausgelastet und gewartet waren, von denen in Teilen keiner wusste, was sie tun", so die Replik von Nadolski.

Heute gehe man genau wieder auf den anderen Trend zurück und sagt, warum soll ich diese Maschinen irgendwo hinstellen, da nehme ich lieber einen guten alten Mainframe, allerdings behaftet mit neueren Technologien und clustere diesen Mainframe entsprechend, so dass er logisch gesehen diese Maschinen wieder abbildet. "Sie haben dann einen guten alten Großrechner, der so genannte logical partitions hat und auf diesen logical partitions bilden sie heute alles ab, was es gibt. Sie können heute auf einem Großrechner einen Linux laufen lassen. Das ist überhaupt kein Thema, das kostet sie fünf Minuten. Sie können Hunderte von Unix-Maschinen nachbilden. Sie können die logisch trennen, sie können die Rechner physisch trennen, sie haben überhaupt kein Problem. Nur das Thema ist, die Systemsoftware und die Netzseite des Ganzen ist die von vor 40 Jahren. Da hat sich nichts geändert. Da sind ein paar Neuigkeiten dazugekommen, aber die Art und Weise, wie sie funktionieren, ist immer noch dasselbe. Es gibt kein deutsches Großunternehmen, das seine wichtigen Anwendungen nicht auf einem Großrechner laufen lässt", so Nadolski.

Vergleich

In den angelsächsischen Ländern sei die Anzahl der Fachkräfte für Großrechner deutlich höher. "Wir vermitteln einen Großteil dieser Leute. Wir bringen mittlerweile Kandidaten aus England nach Deutschland, weil wir hier keinen mehr finden", führt Nadolski aus. (pte)

Share if you care.