Teilchenphysik : Wie das Higgs in die Falle ging

Ohne riesige Rechenzentren in aller Welt und kluge Analysemethoden wäre der Durchbruch nicht gelungen.

von
Teilchenfeuerwerk. Simulation einer Protonenkollision, bei der zahlreiche Bruchstücke entstehen. Anhand solcher Rechnungen wissen Physiker, wo sie in den Daten des Detektors nach Hinweisen auf das Higgs-Teilchen suchen müssen.
Teilchenfeuerwerk. Simulation einer Protonenkollision, bei der zahlreiche Bruchstücke entstehen. Anhand solcher Rechnungen wissen...Foto: AFP

Die Entdeckung des neuen Elementarteilchens, wahrscheinlich des Higgs-Bosons, die am Mittwoch am europäischen Kernforschungszentrum Cern in Genf bekannt gegeben wurde, ist ein Durchbruch für die Physik. Offensichtlich wurde die fast 50 Jahre alte Theorie von Peter Higgs bestätigt, die als maßgeblicher Baustein des Theoriegebäudes der Teilchenphysik gilt. Sie erklärt, woher Elementarteilchen ihre Masse erhalten: durch ein spezielles Feld, das überall vorhanden ist und das man sich wie dünnflüssigen Honig vorstellen kann. Die Partikel werden von dem Higgs-Feld gebremst und dabei mit Masse „aufgeladen“.

Der gewaltige Beschleuniger Large Hadron Collider (LHC) hat nun wohl noch einige mehr von seinem Nutzen überzeugt. Genaugenommen ist er aber nur eine Hälfte der „Higgs-Falle“, die jetzt zuschnappte. Hinzu kommen zahlreiche Datenzentren in aller Welt, in denen die Messwerte der Detektoren ausgewertet wurden. Einige davon befinden sich auch in Deutschland.

Die Datenmenge, die der LHC produziert, ist so gewaltig, dass das Rechenzentrum am Cern hoffnungslos überfordert wäre. Daher wurde ein System entwickelt, bei dem die Daten verteilt und an verschiedenen Orten bearbeitet werden, das Worldwide LHC Computing Grid.

„Bei jeder Kollision von zwei Protonen entstehen verschiedene neue Partikel, die die Detektoren erfassen können“, erläutert Johannes Haller von der Universität Hamburg, der am LHC beteiligt ist. Dank Millionen kleiner Sensoren, die im Raum angeordnet sind, und einer speziellen Software lasse sich feststellen, welche Art von Teilchen in welcher Richtung infolge des Crashs davongeflogen ist. All diese Informationen müssen für spätere Analysen aufbewahrt werden. 1,5 Megabyte seien dafür nötig, sagt Haller. Um nicht im Datenwust zu ersticken, wird nicht jede Kollision gespeichert. Stattdessen wählt eine Software die 200 interessantesten Ereignisse pro Sekunde aus. Diese Daten werden zur Sicherheit am Cern gespeichert und dann an elf große Zentren in aller Welt verteilt. Eines davon steht am Karlsruher Institut für Technologie (KIT). Von dort können Daten weiter an untergeordnete Zentren gehen, etwa nach München, Wuppertal oder Hamburg.

„Die Idee des Grid ist, dass nicht mehr alle Daten überall hinkopiert werden, wo ein Forscher sie analysieren will, sondern dass sie in den Zentren bleiben und dort ausgewertet werden“, sagt Haller. „Wenn ich einen Rechenauftrag habe, schicke ich mein Computerprogramm zum Beispiel nach Karlsruhe, lasse es dort mit den Daten rechnen und erhalte ein Ergebnis.“

Die Speicher- und Rechenkapazitäten am KIT sind enorm. 19 Petabyte können auf Festplatte und Magnetband archiviert werden. Das entspricht rund hunderttausend 200-GB-Festplatten, wobei für die LHC-Daten nur gut die Hälfte zur Verfügung steht. Der Rest ist für andere teilchenphysikalische Experimente vorgesehen. Für Berechnungen sind am KIT 1000 Computer zu einem Cluster zusammengeschlossen, dessen Leistung entspricht etwa der von 10 000 Heim-PCs.

Über das Grid-System sind alle Daten des LHC jederzeit allen zugänglich. Für die Higgs-Forscher sind beispielsweise Kollisionsereignisse interessant, bei denen zwei Photonen entstanden. Denn diese werden laut Theorie unter anderem durch den Zerfall des gesuchten Higgs-Partikels erzeugt. Folglich lassen sie die Computer alle Photonen-Ereignisse separieren.

Um dem Higgs auf die Spur zu kommen, müssen die Physiker zudem wissen, welche Eigenschaften die Photonen haben, zum Beispiel in welchem Winkel zueinander sie durch den Detektor rasen. Dazu simulieren sie die Protonenkollisionen bis zum letzten Bruchstück und schauen, welche Sensoren des Detektors einen bestimmten Messwert anzeigen sollten. „Das gelingt nur, wenn der gesamte Detektor korrekt in der Simulation wiedergegeben wird“, sagt Haller. Zwei Jahre hätte es gebraucht, bis sich die virtuellen „CMS“- und „Atlas“-Detektoren genau so verhalten haben wie die realen Geräte am LHC.

Noch immer ist es ein weiter Weg bis zum Nachweis des gesuchten Teilchens. „Photonen können auch durch andere Prozesse entstehen, die mit dem Higgs nichts zu tun haben“, sagt Haller. „Es gibt sogar Objekte, die der Detektor als Photonen ausweist, die in Wirklichkeit aber etwas anderes sind, zum Beispiel sogenannte Jets.“ All diese Effekte müssen mithilfe einer klugen Statistik entfernt werden – was den Forschern nun offensichtlich gelang.

„Die Methoden, die wir dafür entwickelt haben, werden auch in anderen Bereichen genutzt, wo es komplexe Datensätze gibt“, sagt Haller. Wer sie beherrscht, habe gute Jobchancen. „Nicht wenige Doktoranden, die mit Datenanalyse in der Teilchenphysik beschäftigt waren, arbeiten später für Investmentfonds oder Versicherungen.“ Ralf Nestler

Autor

1 Kommentar

Neuester Kommentar
      Kommentar schreiben