zum Hauptinhalt

Gesundheit: Das "Grid": Ein Supercomputer für jedermann

Das Internet ist nur die Vorstufe. Die neue Vision heißt "Grid", anders ausgedrückt: jedermanns Supercomputer.

Das Internet ist nur die Vorstufe. Die neue Vision heißt "Grid", anders ausgedrückt: jedermanns Supercomputer. Mit der weltweiten Vernetzung der Computer ist nämlich auch die Möglichkeit geschaffen worden, die Rechenleistung vieler PCs gleichzeitig von einem Ort aus zu nutzen. Dafür müssen sich deren Besitzer lediglich zusammentun und sich eine Software geben. Diese verwaltet dann sämtliche Daten und verteilt die Rechenjobs an die Kleincomputer.

Das "Grid", wie es von amerikanischen Computerexperten genannt wird, hat seinen Ursprung in den Bedürfnissen der Wissenschaft: der Biologen, die Millionen DNS-Bausteine sequenzieren, oder der Astronomen, die die Spektren abertausender Sterne gleichzeitig aufnehmen. Sie alle wollen nicht auf teure Supercomputer mit langen Entwicklungszeiten warten, sondern von den rasanten Fortschritten auf dem PC-Markt profitieren.

"Es gibt mindestens 300 Millionen PCs im Internet", schrieb Vijay S. Pande von der Universität Stanford in Kalifornien kürzlich im Wissenschaftsmagazin "Science". Aber 90 Prozent ihrer Rechenkapazität bleibe ungenutzt. Dieses Computer-Reservoir will der Biochemiker anzapfen.

Vor etwa drei Monaten rief Pande die Initiative Folding@home ins Leben. Er sucht Freiwillige, die ihn und seine Kollegen bei der Entschlüsselung von Proteinen und deren komplexer geometrischer Struktur mit Computerpower unterstützen. Pande hatte mit seinem Aufruf großen Erfolg. Inzwischen hat er bereits mehrere 10 000 PC-Besitzer gefunden, deren Geräte nun das Design der im menschlichen Körper produzierten Proteine nachzubilden trachten.

"Es ist allerdings nicht damit getan, jemandem 100 000 Computer an die Hand zu geben", sagt Pande. Das wäre dasselbe, wie 100 000 Sekretärinnen in ein Großraumbüro zu stecken. Jede Aufgabe müsse sorgfältig in kleine Abschnitte zerlegt werden, die ein einzelner Computer auch bewältigen kann.

Mit diesem Problem kämpft nicht nur das Internetprogramm Folding@home. Zahlreiche andere Computer-Netzwerke sind in den vergangenen Jahren mit dem Ziel der Entwicklung von Aids-Medikamenten oder besserer Krebstherapie entstanden.

Das Vorbild für all diese Zusammenschlüsse kommt sozusagen aus den Tiefen des Weltalls. Den Anfang nämlich machte SETI@home: die Suche nach Außerirdischen. SETI@home, mit Sitz im kalifornischen Berkeley, gibt jedem Internetnutzer die Möglichkeit, sich an dieser Suche nach intelligenten Wesen im All zu beteiligen.

Dem SETI-Forschungsprogramm ("Search for ExtraTerrestrial Intelligence") stehen riesige Radioteleskope zur Verfügung. Eine Aufgabe besteht daher darin, die unzähligen Radiosignale zu analysieren, die aus der Ferne des Kosmos zur Erde gelangen. Die potenziellen Botschaften ferner Zivilisationen haben inzwischen viele Menschen in ihren Bann geschlagen. SETI@home vereinigt mehrere 100 000 PCs und stellt jeden Supercomputer in den Schatten.

Außerirdische hat man bislang zwar auch so noch nicht entdecken können. SETI@home aber ist zum Modellprojekt geworden. In den USA und Europa bündeln Wissenschaftler nun in ähnlicher Weise ihre Computerkräfte. So startet am ersten Januar ein europaweites Projekt namens "DataGrid". Nutznießer dieses Netzes, dessen Drähte die Grenzen Skandinaviens wie Italiens umspannen, sollen zunächst Physiker sein, später auch Bioinformatiker oder Astronomen.

Im Herzen des "DataGrid" liegt das Rechenzentrum am Teilchenbeschleuniger Cern in Genf. Hier wurde einst auch das World Wide Web entwickelt. Die Versuchsapparaturen in dem europäischen Forschungslabor erstrecken sich über dutzende Kilometer, der Wunsch nach schneller Datenübertragung und -verarbeitung ist groß.

In den unterirdischen Experimentierhallen am Cern prallen Partikel wie Protonen oder Ionen mit nahezu Lichtgeschwindigkeit aufeinander. Mit der neuen Beschleunigeranlage, die im Jahr 2005 in Betrieb gehen soll, wird für die Auswertung zu bewältigende Datenmenge noch einmal drastisch steigen: auf einige Millionen Gigabyte pro Jahr. Die Daten sollen zur Analyse an rund 8000 Physiker verteilt werden. Dazu bedarf es zunächst etlicher größerer Regionalzentren mit Kapazitäten von mindestens 3000 Prozessoren. Als Standort für das Regionalzentrum Deutschland kommen das Forschungszentrum Karlsruhe oder das Konrad-Zuse-Zentrum in Berlin in Frage.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false