Gesundheit : Teilchenphysik: Quarks hinter Gitter

Paul Janositz

Was die Welt im Innersten zusammenhält - diese Frage interessierte schon den wissensgierigen Doktor Faustus. Die Definition des griechischen Philosophen Demokrit, das "Atom" sei das kleinste, unteilbare Teilchen der Materie, hatte Jahrtausende lang Bestand. Dann zerfielen auch die Atome in die Bausteine Elektronen, Protonen und Neutronen. Seit der Atombombe und Tschernobyl kennen die Menschen die gewaltige Kraft des gespaltenen Atomkerns. Und seit dem Bau riesiger Teilchenbeschleunigern assoziiert man mit "Quarks" nicht unbedingt eine neue Milchspeise. Doch jetzt scheint es nicht mehr so einfach weiterzugehen mit der Spalterei. Die Quarks können - so jedenfalls das derzeitige Wissen - nicht isoliert und nicht einzeln beobachtet werden. Jetzt ist die Stunde der Rechner gekommen. Eine internationale Konferenz von etwa 400 Teilchenphysikern, die Höchstleistungsrechner einsetzen, findet derzeit an der Humboldt-Universität in Berlin (HUB) statt.

"Zum ersten Mal kommt das Symposium nach Berlin", erklärte Michael Müller-Preusker, Professor für Theoretische Physik an der HUB, bei Eröffnung der seit 1982 jährlich stattfindenden Tagung. Das wissenschaftliche Ansehen von "Lattice 2001" wird durch die internationale Teilnehmerschaft unterstrichen. Die größte Delegation kommt mit mehr als 90 Teilnehmern aus den USA, knapp 90 Wissenschaftler sind aus Deutschland, starke Kontingente stellen auch Japan, Großbritannien und Italien.

Die Kapazitäten der Rechner, mit denen die kleinsten Teilchen des Universums beschrieben werden, haben sich in den letzten 20 Jahren um das Millionenfache erhöht, sagte Akira Ukawa, von der japanischen Universität Tsukaba. Vor 20 Jahren etwa war auch die Geburtsstunde der numerischen Berechnungsmethoden in der Teilchenphysik. Die Gleichungen, die beispielsweise das Verhalten der sechs verschiedenen Quarks beschreiben, waren so kompliziert, dass sie nicht mehr analytisch zu lösen waren. Die Quantenchromodynamik, die die Eigenschaften der Quarks und der aus ihr aufgebauten Materie zu erklären versucht, erforderte vielmehr numerische Berechnungsmethoden.

Experimente mit Teilchenbeschleunigern, wie "Hera" bei Desy in Hamburg oder am Cern in Genf beispielsweise, liefern Ergebnisse, die von der Theorie zu erklären sind. Immer größere Anlagen werden gebaut, um in noch winzigere Dimensionen vorzustoßen. "Es ist noch völlig unklar, ob das in den sechziger Jahren entwickelte Standardmodell der Elementarteilchenphysik bei sehr kleinen Abständen überhaupt noch eine korrekte Beschreibung liefert", sagt Computerexperte Karl Jansen vom Desy Zeuthen. Man vermute mittlerweile, dass sich bei Abständen, die kleiner seien als der Millionstel Teile eines Milliardstel Millimeters, eine völlig neue Physik mit unerwarteten Eigenschaften zeigen könne.

Wie soll man nun eine Theorie überprüfen, deren Gleichnungen sich nicht mehr mathematisch lösen lassen? Einen brauchbaren Ansatz entwickelte der Nobelpreisträger Kenneth G. Wilson, der die kontinuierliche Raum-Zeit in einzelne Abschnitte zerlegte. Eine "diskrete, körnige Gitter-Raum-Zeit-Struktur" nennt das Jansen. Natürlich komme es darauf an, den "Trick wieder rückgängig zu machen, um den Kontakt mit der normalen Welt wiederherzustellen". Mit der "Gitter-Eichtheorie" seien schon große Erfolge erzielt worden.

Als Beispiel nennt Claudio Rebbi von der amerikanischen Boston-Universität den Nachweis, dass Quarks niemals aus dem Proton herauskommen können. Die Berechnungen hätten gezeigt, dass die Kraft, die die Quarks zusammenhält, unüberwindbar sei. Auch mit der Bestimmung der Temperatur, die im frühen Universum geherrscht habe, habe die Methode geglänzt. Zwei Billionen Grad heiß sei das Weltall damals gewesen. Auch die Frage, ob und warum bei der Verteilung von Materie und Anti-Materie im Weltall das Symmetriegebot verletzt worden sei und damit dei Entstehung des Universums überhaupt ermöglicht habe, könne dank der Gittermethode beantwortet werden, sagt Jansen.

Wie komplex die Rechner sein müssen, die derartige Gleichungen berechnen, verdeutlichte Rebbi. Derzeit bewege man sich im Bereich von mehreren Teraflops. Ein Teraflop ist eine Million mal einer Million Operationen pro Sekunde. Wenn jede Zahl dieses Rechenvorgangs auf einer Art Kassenbon ausgedruckt werden würde, bekäme man einen Zettel, der von der Erde zur Sonne reichen würde. Für solche Rechenleistungen braucht man Netzwerke zusammengeschalteter Computer. Fehler dürfen sich die massiv-paralellen Rechner auch im Dauerbetrieb über viele Wochen nicht leisten. In Deutschland beteiligt sich das Desy in Zeuthen an der Entwicklung neuer Parallelcomputer, die speziell auf die Bedürfnisse von Teilchenphysikern zugeschnitten sind.

0 Kommentare

Neuester Kommentar
      Kommentar schreiben