Zeitung Heute : Internet: Das Superhirn

Niko Deussen

Das nächste Internet kommt bestimmt. Schneller und kompakter soll es werden als der lose Zusammenschluss von Informationsnetzen bisher. Vorreiter für den Ausbau der Datenhighways zu regelrechten Rennbahnen ist, wie einst beim Web, die weltweite Forschergemeinde. Die Wissenschaftler haben die Vernetzung der Computer an den Universitäten und Forschungseinrichtungen zu einem einzigen weltumspannenden Superelektronenhirn ins Visier genommen.

Im Dezember 2000 bewilligte die Europäische Kommission für Technologien der Informationsgesellschaft knapp zehn Millionen Euro für das ehrgeizige Vorhaben. Mit dem Geld sollen "Supercomputer, Prozessorfarmen, Datenspeicher, umfangreiche Datenbanken, Vermittlungswerkzeuge und die Benutzer durch ein Hochgeschwindigkeitsnetz miteinander verbunden" werden, wie die Europäische Organisation für Kernforschung (Cern) vor kurzem in Genf mitteilte.

Das Cern hat beim Projekt "Datagrid" die Federführung übernommen. Schon im November hatte die EU-Kommission 80 Millionen Euro für die Entwicklung eines europaweiten Wissenschaftsnetzes bewilligt. Ein Konsortium aus 30 nationalen Forschungsnetzen, darunter auch das Deutsche Forschungsnetz (DFN), will in diesem Jahr die Kopplung ihrer Datenleitungen durch Hochgeschwindigkeitsbahnen realisieren.

Über "Géant", so der Name des paneuropäischen Netzwerkes, sind dann die Computer von rund 3000 Wissenschaftsinstitutionen miteinander verbunden und können Informationen im Gigabit-Takt austauschen: derzeit mit 2,5 Gigabit (2,5 Milliarden Bit) pro Sekunde, doch die Zehn-Gigabit-Hürde ist bereits angepeilt. "Géant" ist ein großer Schritt vorwärts für alle europäischen Forscher", sagt Fernando Liello, Vorsitzender des Verbundes. Solche Hochgeschwindigkeitsnetze sind Voraussetzung für den geplanten Grid-Großrechner.

Treibende Kraft für seine Realisierung sind die Massen an Messwerten, die schon jetzt in etlichen Wissenschaftsdisziplinen anfallen. So sind die Beobachtungsdaten etwa aus der Meteorologie oder der Astronomie selbst mit massiven Parallelrechnern nicht mehr bis in die Tiefen auszuwerten. Und die Datenlawine schwillt unablässig an. Etwa wenn 2005 im Cern der Large Hadron Collider anläuft. Bei bestimmten Experimenten des Teilchenbeschleunigers werden die Detektoren jede Sekunde 100 Gigabyte Daten (1 Byte entspricht 8 Bit) auswerfen. Cern-Physiker Fabrizio Gagliardi: "Müssten wir die anfallenden Daten auf CDs brennen und übereinander schichten, wäre der Stapel schon nach einem Jahr fünfmal so hoch wie der Eiffelturm."

Ohne den geplanten Grid-Computer lässt sich das drohende Info-Inferno kaum noch abwenden. Denn für das Verarbeiten solcher Datenberge wird die Rechenkapazität von 100 000 PCs benötigt. "Metacomputing" heißt daher das Zauberwort. Dabei läuft ein Programm zeitgleich auf verschiedenen, miteinander vernetzten Computern, holt sich seinen Input von unterschiedlichen Speichermedien, die an weit auseinander liegenden Plätzen lagern, und liefert schließlich das Ergebnis auf den Monitor des neugierigen Wissenschaftlers.

Dreh- und Angelpunkt für das weltweit verteilte Rechnen ist eine Software, die mit all den ungleichen Rechnerkolossen, den Crays, IBMs und Hitachis, umgehen kann. Sie muss die gewaltigen Datenströme sicher und effektiv lenken, die Anwendungsprogramme mit den unterschiedlichen Betriebssystemen kompatibel machen und die nutzbaren freien Ressourcen erkennen. Für solche Programmpakete hat sich inzwischen der Name Middleware eingebürgert. Java zum Beispiel ist eine klassische Middleware.

Das Vermittlungs-Programm des Cern wird jedem Nutzer über eine einheitliche Oberfläche eine eigene Workstation vorgaukeln. Um die dahinter verborgene Systemarchitektur braucht sich der einzelne Wissenschaftler nicht mehr kümmern. "Wenn ich den Toaster in die Steckdose stecke", so Grid-Experte Gagliardi, "weiß ich auch nicht, aus welchem Kraftwerk mein Strom gerade kommt."

Als so genanntes Austauschprotokoll, mit dem zwei Computer die Übertragungsmodalitäten festlegen, kommt der Asynchronous Transfer Modus (ATM) zum Einsatz. Mit dem für Glasfaserkabel ersonnenen Transportabkommen lassen sich vor allem genaue Laufzeiten und feste Lieferfristen vereinbaren. Denn beim Metacomputing nützt es wenig, wenn etwa eine Maschine in Manchester immer wieder auf die Zwischenergebnisse aus Zypern warten muss. Auch an das Zuweisen von Prioritäten ist gedacht. So sollen etwa zusammenhängende Bilder oder Sprechverbindungen Vorrang vor gewöhnlichen E-Mails haben.

Wissenschaftler des europäischen Teilchenbeschleunigers kreierten vor zehn Jahren auch das World Wide Web. Den nicht in Genf arbeitenden Kollegen sollte damit der rasche Zugriff auf Ergebnisse von Experimenten und die Diskussion untereinander ermöglicht werden. Die Bezeichnung Grid (englisch für Strom- oder Eisenbahnnetz) für die nächste Web-Generation soll an den industriellen Aufbruch in Amerika erinnern, der erst durch die überall verfügbare elektrische Energie möglich wurde.

Fans des American Football verstehen unter Grid auch das Spielfeld. Das neue Projekt wird von den beteiligten Forschern als erster Schritt in Richtung auf ein World Wide Grid gesehen. Rechnen und Recherchieren in riesigen Computer-Konföderationen werden eine neue Ära des wissenschaftlichen Arbeitens einläuten: E-Science, das elektronische Forschen.

Umdenken wird in dieser Hinsicht nötig sein. "Die Daten sind bisher als Eigentum des einzelnen Forschers betrachtet worden", sagt Stephen Strom, Astronom am amerikanischen nationalen Observatorium und eifriger Befürworter eines eigenen Astro-Grid, "uns fehlt die Kultur eines breiten öffentlichen Zugangs."

Tagesspiegel - Debatten


Hintergründe und Expertisen zu aktuellen Diskussionen: Tagesspiegel Causa, das Debattenmagazin des Tagesspiegels.

Hier geht es zu Tagesspiegel Causa!

0 Kommentare

Neuester Kommentar
      Kommentar schreiben