Zweieinhalb Autostunden von der Hafenstadt Antofagasta entfernt befindet sich 2.635 Meter über dem Meeresspiegel das Paranal Observatorium der Europäischen Südsternwarte ESO. Mitten in den chilenischen Anden haben Astronomen einen idealen Ort für die Beobachtung des südlichen Sternenhimmels gefunden. Fernab von jeder Zivilisation erlaubt die klare Höhenluft einen perfekten Blick auf den nächtlichen Sternenhimmel ohne störende Lichtverschmutzung.
Die vier Teleskope des Very Large Telescope (VLT) und ihre jeweils aus einem Stück gefertigten 8,2-Meter-Spiegel gehören zu den höchstentwickelten optischen Instrumenten der Welt. Aber die Zeit, in der Astronomen durch ein Fernrohr auf die Sterne blickten, ist längst vorbei. Heute liefern die Instrumente an den Anlagen einen konstanten Strom digitaler Daten, der erst zu einem späteren Zeitpunkt zusammengesetzt und ausgewertet wird.
Die Beobachtungen werden von dem Team in Chile meistens im sogenannten Service-Mode durchgeführt. Das bedeutet, dass die forschenden Astronomen bei der Durchführung ihrer Beobachtung nicht vor Ort anwesend sind. Mitarbeiter der ESO in Paranal führen die Arbeiten im Auftrag zu den bestmöglichen Bedingungen durch. Die gesammelten Daten erhalten die Astronomen digital von der ESO. Ohne moderne Computertechnik wäre diese Form arbeitsteiliger Experimente nicht denkbar. Eine große Verantwortung für den Betrieb der Teleskope liegt deshalb auch bei der ESO IT, die für den reibungslosen Datentransport verantwortlich ist. Im Paranal Observatory hatte ich die Gelegenheit mit Andrew Wright, Leiter der ESO IT in Chile, zu sprechen.
Herr Wright, welche Herausforderungen beschäftigen die ESO IT in Chile gerade besonders?
Andrew Wright: Aktuell ist der kontinuierliche Anstieg des Datenvolumens unsere größte Herausforderung. Die Instrumente unserer Teleskope liefern immer mehr digitale Daten. Bis zum Jahr 2011 bewegten wir uns bei den Datenmengen lange Zeit auf einem Plateau. Es gab keine dramatischen Steigerungen. Die Situation hat sich komplett verändert.
Was war Auslöser des Anstiegs bei den Datenmengen?
Wright: Im Jahr 2011 haben wir die Glasfaserverbindung zwischen unserem Standort Paranal in der Gebirgsregion der Atacama Wüste und der Hafenstadt Antofagasta in den Produktivbetrieb genommen. Bis dahin existierte nur eine Richtfunkstrecke für die Datenübertragung nach Santiago de Chile. Größere Datenmengen wurden per Festplatte transportiert. Der Anstieg der Datenmenge korreliert mit der Verfügbarkeit der Glasfaserleitung. Man kann es als Anstoßeffekt durch den technologischen Fortschritt bezeichnen. Was verfügbar ist wird auch genutzt. In der Folge lieferte die neue Generation von Instrumenten an den Teleskopen deutlich mehr Daten die wir übertragen müssen.
Wohin werden die Daten übertragen?
Wright: Alle an den Teleskopen gesammelten Daten werden innerhalb von 24 Stunden in das ESO Hauptquartier in Garching bei München überführt. Dort werden sie in einem primären Speichersystem gesichert und zusätzlich in ein sekundäres Speichersystem repliziert. Sobald die Daten im sekundären Speichersystem angekommen sind löschen wir unseren lokalen Speicher. Der gesamte Prozess ist vollständig automatisiert. Das schließt auch die Löschung der Rohdaten in Paranal ein, immer vorausgesetzt natürlich alles läuft wie geplant. Normalerweise müssen wir in diesen Prozess nicht eingreifen.
Über welche Datenvolumen sprechen wir hier?
Wright: Wir produzieren aktuell rund ein halbes Petabyte pro Jahr. Der gesamte Standort Paranal verfügt über eine Speicherkapazität von 150 Terrabyte, die wir bis Ende 2015 auf 300 Terrabyte erhöhen werden um für die Teleskope der nächsten Generation gerüstet zu sein. Sollten wir einmal Probleme mit der Glasfaserverbindung haben und wieder auf das Versenden von Speichermedien zurückgreifen müssen, haben wir genug lokalen Speicherplatz, um die Daten in das zentrale Archiv in Garching zu bekommen, bevor wir sie in Paranal löschen müssen um Platz für neue Daten zu schaffen. Im Schnitt sind die Daten in Chile zwei Wochen gespeichert. Nur in Deutschland werden alle Daten langfristig vorgehalten.
Das Hauptquartier der Europäischen Südsternwarte liegt in Garching bei München. Alle Teleskope befinden sich auf der Südhalbkugel in der chilenischen Atacamawüste. Dort herrschen ausgezeichnete klimatische Bedingungen für astronomische Beobachtungen, im Besonderen eine trockene Atmosphäre und geringe Luftturbulenzen. Aber dieser exklusive Platz hat seinen Preis. Die Observatorien sind weit ab von allen Versorgungsleitungen. Verbrauchsgüter wie Wasser, Lebensmittel und Treibstoff zur Energiegewinnung müssen mit Lastzügen angeliefert werden. Temperaturen zwischen minus 8 Grad in der Nacht und 25 Grad am Tag, eine Luftfeuchtigkeit unter 10% und die hohe UV-Strahlung belasten Menschen und Material.
Sie betreiben in dieser abgelegenen Gegend auf fast 3000 Meter Höhe ein hochmodernes Rechenzentrum. Welche Besonderheiten ergeben sich daraus?
Wright: Aus meiner Sicht sind die Anforderungen in Paranal normal und bewegen sich im gewöhnlichen Rahmen. Es handelt sich nur um eine ungewöhnliche Umgebung. In unserem Rechenzentrum verwenden wir Standardkomponenten, wie zum Beispiel Blade-Server mit Multi-Core Prozessoren von Dell. Der Standort in der Atacama-Wüste und die Datensätze sind etwas besonders, aber die Hardware ist Standard. Die Überführung von der Entwicklung in Deutschland in den Betrieb in Chile ist deshalb auf Hardwareseite in der Regel kein Problem. Ein viel ernsteres Problem entsteht für uns durch die beschleunigten Produktentwicklungszyklen der Hersteller.
Welche Schwierigkeiten entstehen bei der ESO durch die immer kürzeren Produktentwicklungszyklen der Hardwarehersteller?
Wright: Um unsere Software zu aktualisieren benötigen wir in der Regel einiges an Zeit. Das bedeutet, die Softwareentwicklung erfolgt in langen Zyklen. Als wir begannen Dell Server einzusetzen, waren die einzelnen Typen viele Jahre lieferbar. Heute werden in immer kürzeren Abständen neue Servertypen auf den Markt gebracht. Blades die wir vor drei Jahren gekauft haben nähern sich jetzt bereits dem Ende ihres Verkaufszyklus. Unsere Zeitplanung ist viel länger. Wir haben natürlich mit Dell gesprochen was die Motivation hinter dieser Entwicklung ist. Die Aussage war, dass es darum geht Boxen zu verkaufen. Wenn HP alle sechs Monate eine neue Hardware zum Verkauf anbietet muss Dell das auch machen. Alles was sie wollen sind Marktanteile. Für uns ist das eine Herausforderung.
Profitieren Forschungsorganisation nicht von der leistungsfähigeren Hardware einer neuen Generation?
Wright: Meiner Meinung nach ist es abhängig von der zugrundliegenden Software. Wer auf seiner IT-Infrastruktur Off-the Shelf Software betreibt, für den stellen neue Hardwaregenerationen in der Regel kein großes Problem dar. Aber einer Organisation wie der ESO, die viele individuell entwickelte und spezialisierte Softwarelösungen verwendet, verursacht es Kopfschmerzen. Brauchen wir wirklich die fünfte Generation des i7 Prozessors? Was war schlecht an der vierten Generation?
Wir als IT Abteilung sind mittlerweile in der Situation, dass wir mehr den Herstellern hinterher laufen als unsere Nutzer mit stabilen und guten Lösungen zu versorgen. Vielleicht haben andere Anwender eine andere Sicht. Wer zum Beispiel eine hohe Anzahl von Transaktionen in kurzer Zeit verarbeiten muss bei dem sehe ich den Nutzen. Aber für unseren Anwendungsfall nicht. Es verursacht nur Probleme. Nehmen wir das PowerEdge M620 Blade von Dell als Beispiel. Diese Hardware bewegt sich gerade auf ihren End-of-Sales Punkt zu. Jetzt müssen wir das M630 kaufen und alle Spezifikationen sind leicht anders. Das bedeutet, wir beschaffen jetzt erst mal eine Einheit um herauszufinden ob wir diese überhaupt als Ersatz nutzen können. Wenn ein M620 stirbt, können wir dann einfach ein M630 nehmen? Wir wissen es nicht und Dell kann es uns auch nicht sagen. Mit unseren begrenzten Ressourcen können wir so schnell wie es erforderlich wäre nicht mehr folgen. Die Tests in der Entwicklung und Produktionsumgebung brauchen einfach mehr Zeit.