zum Hauptinhalt

Panorama: Ohne Kälte kein Internet

Sicherheit in modernen Rechenzentren ist weit mehr als der Einsatz von Virenschutz und Firewall

Ortstermin im Rechenzentrum Karlsruhe bei Europas größtem Internetprovider 1&1 Internet AG. Das Unternehmen gibt Einblick in seine Sicherheitsstrukturen. Die Führung beginnt auf dem Dach. Denn hier stehen acht aktive Kältemaschinen mit einer Leistung von 685 Kilowatt pro Gerät. Sieben laufen immer, eines dient als redundantes Notgerät. Zum Vergleich: Ein mittlerer Haushalt verbraucht 3500 Kilowattstunden im Jahr.

Karlsruhe liegt zwar in einer sonnigen Region, das rechtfertigt allein aber nicht den Einsatz von Kühlgeräten in der Größe von Kleinlastern. Allein die rund 30 000 Server, die im Keller 24 Stunden an jedem Tag des Jahres arbeiten, erzeugen eine so enorme Wärme, dass die Prozessoren und das andere Material innerhalb von wenigen Minuten den Hitzetod sterben müssten, würden sie nicht mit enormen Aufwand gekühlt.

Dann sind da noch drei passive Freiluftkühler, die je ein Megawatt Leistung besitzen: „Die sind aber nutzlos, solange die Außentemperatur nicht deutlich unter zehn Grad Celsius sinkt“, erklärt Infrastruktur-Techniker Boris Stock-Kaul (34), „weil das Leitungswasser mit sechs Grad zum Kühlen verwendet wird und dabei auf 13 Grad aufgeheizt wird.“ Je kälter der Winter also, umso leichter erreichen die Freiluftkühler ihr Sparpotenzial von 20 Prozent.

Boris Stock-Kaul hat noch mehr zu bieten: Zwischen baumdicken Rohren hindurch lotst er den Besucher auf dem Dach hin zu den Dieselaggregaten. Fünf 16-zylindrische Schiffsmotoren in der Größe eines Vans, die rund 1,6 Megawatt Energie erzeugen können, sichern die Notstromversorgung der energiehungrigen Server ab. Aktuell mussten die gewaltigen Maschinen im Januar ihre Leistungskraft unter Beweis stellen. Rund 45 Minuten dauerte der massive Stromausfall in Karlsruhe, bis der Saft wieder aus der Steckdose kam. Boris Stock-Kaul grinst: „Es hat funktioniert.“

Doch dauert es seine Zeit, bis ein so gewaltiger Dieselmotor anspringt. Bis dahin muss die Unterbrechungsfreie Stromversorgung (USV) im Keller herhalten. Auch hier sind fünf Batterieblöcke in Garagengröße im Einsatz, die die Stromversorgung für rund 17 Minuten am Leben erhalten. „Das ist genug Zeit, um im Stechschritt zum Diesel hochzulaufen und manuell zu starten, falls der nicht wie geplant automatisch starten sollte. Denn bei Stromausfall funktionieren die Fahrstühle nicht mehr.“

Zutritt zum eigentlichen Rechenzentrum hat nur, wer vorher gewogen und mit einer Chipkarte ausgestattet wurde. In einer „Personenvereinzelungsanlage“ steht man auf einem Punkt, wird gewogen, muss einen Code eingeben und die Chipkarte vor ein Lesegerät halten. Erst dann öffnet sich die Tür zum Rechenzentrum. „Klar, der erste Aspekt ist Sicherheit. Hier kommt nur rein, wer auch hinein darf. Aber bequemer ist die automatische Kontrolle natürlich auch“, erklärt Boris Stock-Kaul. „So muss kein Wachmann vor dem Rechenzentrum sitzen.", erklärt Boris Stock-Kaul. Kontrolliert wird hier aber lückenlos alles: Das System weiß immer, wer durch welche Tür gegangen ist. Bei Bedarf werden die Räumlichkeiten mit Kameras live und ohne toten Winkel betrachtet.

Der Keller wirkt gegenüber den darüberliegenden Büros leblos. Hier ist wirklich nur, wer hier sein darf und hier sein muss. Bevorzugte Arbeiten: neue Server anschließen, Kabel ziehen und anschließen oder defekte Festplatten austauschen, die überwiegend in sogenannten RAID-Verbünden laufen. Der Vorteil von RAID: Fällt eine Festplatte aus, sind die Daten nicht verloren, sondern auf anderen Platten gespeichert. Sobald die neue Platte eingeschoben ist, speichert auch diese wieder im Verbund die Daten.

Das Herz des Rechenzentrums ist der Telekommunikationsraum. Hier kommen die Anfragen an die Server von draußen herein und hier werden Daten in alle Welt verschickt. Erstaunlich – der gesamte Datentransfer läuft über ein etwas mehr als daumendickes Kabel: Über fünf Milliarden E-Mails, die hier pro Monat gesendet und empfangen werden, der Zugriff auf eine der über zehn Millionen Homepages und der komplette Datenaustausch von Firmen auf ihre eigenen Server. Glasfaser heißt die Wundertechnik, die es möglich macht.

Alle Technik wäre nichts ohne den Sachverstand, sie zu bedienen. Das ist zum Beispiel die Aufgabe von Anders Henke (32), der bei 1&1 als Administrator angefangen hat und heute Systemarchitekt Infrastruktur ist. Seine Aufgaben sind vielfältig und knifflig. Einfach zu erklären sind sie nicht, er versucht es trotzdem: „Im Grunde beschäftige ich mich viel mit Redundanzen. Oberstes Ziel ist die Datensicherheit mit möglichst geringem Aufwand, während gleichzeitig die Zahl der Daten enorm steigt.“ Klingt irgendwie nach Spagat.

Und das ist es auch: Henke muss es schaffen, die enorme Datenflut zu sichern und gleichzeitig den Einsatz von Hardware zu beschränken. Denn jede Festplatte mehr bedeutet zusätzliche Material- und vor allem Stromkosten.

„Und die machen mehr als 50 Prozent unserer Gesamtkosten aus“, erläutert Andreas Maurer, Pressesprecher Webhosting des Unternehmens. „ Unser Rechenzentrum verbraucht etwa zwei Prozent des Strombedarfs in Karlsruhe. Energieeffizienz ist für uns also enorm wichtig. Dazu gehört auch der Kampf gegen Spam. Denn jede Spam-Mail vergrößert die Datenflut und verbraucht Strom. So lächerlich das klingt, in der Masse ist das ein gewichtiger Kostenfaktor.“

Eine Studie im Auftrag des Bundesumweltministeriums hat ergeben, dass die 50 000 Rechenzentren in Deutschland für sich allein die Energie eines Atomkraftwerkes benötigen. Tendenz steigend.

Weil am Karlsruher Standort in der Brauer-Straße die Kapazitäten knapp werden, hat 1&1 im nahen Baden-Baden bereits vor zwei Jahren ein neues Rechenzentrum in Betrieb genommen. Allerdings nicht nur, um Kapazitäten zu erweitern, sondern auch wegen der Sicherheit. „Es reicht nicht aus, Daten nur redundant in einem Festplattenverbund zu speichern, sie müssen auch physikalisch getrennt vorhanden sein“, sagt Anders Henke. Sprich: an verschiedenen Orten.

Die Sicherheit und Verfügbarkeit der Daten ist für den Massenanbieter 1&1, der über Europa hinaus versucht zu wachsen, das A und O des Geschäfts. Deswegen mieten sich viele Unternehmen eigene, sogenannte dezidierte Server, dort an: „Was der Kunde mit dem Rechner macht, wissen wir nicht, der Kunde weiß aber, dass wir 24/7 unsere Kompetenz bereitstellen, also 24 Stunden an sieben Tagen die Woche, dafür sorgen, dass sie laufen“, sagt Anders Henke.Hardy Prothmann

Hardy Prothmann

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false