Die Vermessung des Universums

Kommentar zu dem Buch von Lisa Randall

 

Einleitung

Die Autorin behandelt zwar im wesentlichen, wie im Untertitel versprochen, das Thema: „Wie die Physik von morgen den letzten Geheimnissen auf der Spur ist“, liefert aber darüber hinaus  einige interessante Sichtweisen zur Evolution der Wissenschaften überhaupt. Letzterem Aspekt verdankt es die Eingliederung in diese Homepage „Nachdenken über Evolution“.

 

Die Vermessung der Wirklichkeit

In der kulturellen Evolution verkörpert die Wissenschaft das qualitative Wachstum des gesellschaftlichen Wissens über die Umgebung und die Bedingungen, unter denen sie stattfindet. Dieses Wissen macht deshalb ebenfalls einen Evolutionsprozess durch und verändert und erweitert sich ständig.

Die ersten Erkenntnisse über die Umgebungsbedingungen, in denen die Menschen leben mussten, wurden in „wissenschaftlichen“ Theorien zusammengefasst, die wir heute Religionen nennen. Diese waren notwendig, um das Leben und das  Zusammenleben der Menschen zu erleichtern, und sind es bis heute geblieben, wo der rationale Verstand nicht ausreicht, Vorgänge in der uns umgebenden Wirklichkeit zu verstehen, die für uns lebensnotwendig sind. Mit der zunehmend besseren und umfangreicheren Erklärung der Vorgänge in der Welt durch den Fortschritt der Wissenschaften geraten diese immer mehr in Widerspruch mit den ursprünglichen Erklärungen der Religionen. Die Religionen berücksichtigen zwar die neuen Erkenntnisse in ihren Lehren, haben aber grundsätzlich traditionell einen anderen Ausgangspunkt, der nicht das Streben nach neuen Erkenntnissen beinhaltet, sondern einen unveränderlichen Fixpunkt im Glauben an einen Gott verkörpert, der auch weiterhin Dinge erklärt, die den Wissenschaften (noch) nicht zugänglich sind. Nur wenn diese Tatsache berücksichtigt und toleriert wird, sind Wissenschaft und Religion miteinander vereinbar und ein kultureller Fortschritt möglich.

 

Die Vermessung der Materie

Die wissenschaftliche Erforschung unserer Umgebung begann in der Größenordnung, die durch unsere Körper vorgegeben ist  Hier wurden die Gesetze der klassischen Physik gefunden, formuliert und in Chemie und Biologie angewendet auf die Dimensionen, die unser Leben bestimmen. Dieser Bereich, in dem die Gesetze der klassischen Physik uneingeschränkt gelten, überstreicht 9 Größenordnungen von 1 Meter bis 1 Nanometer von der Größe der Organismen bis herab zu  den Zellen, Zellkernen und der Breite der DNA-Moleküle, die nur durch technische Hilfsmittel, wie Mikroskope, für uns wahrnehmbar werden.

Es darf uns nicht verwundern, dass bei noch kleineren Größenordnungen und bei sehr viel größeren Maßstäben Phänomene auftauchen, die nicht mehr mit den Vorstellungen und Gesetzen der Klassischen Physik erklärt und beschrieben werden können. Erst als der Mensch mit den Hilfsmitteln der klassischen Physik bis zu deren Grenzen vordringen konnte, wurden die Gesetze der Quantenmechanik gefunden, die im Bereich der Atome, Moleküle und subatomaren Teilchen in weiteren 9 Größenordnungen bis herab zu  10 (-18) m anwendbar sind und gelten. Wir müssen uns darüber im Klaren sein, dass in diesem Bereich auch unsere durch die klassische Physik geprägten Begriffe von Raum und Zeit nicht mehr real vorstellbar sind und unsere Vorstellungen nicht mehr der Realität entsprechen, wenn wir sie dennoch anwenden. Am unteren Rand dieses Bereiches liegt das Gebiet, dessen Strukturen heute mit Hilfe der modernsten Teilchenbeschleuniger erforscht wird. Darunter liegen noch 16 Größenordnungen, in denen bisher keinerlei empirische Forschungsergebnisse vorliegen und in denen spekulative Theorien wie die String- und Superstringtheorie die Entstehung von Kräften und subatomaren Teilchen zu erklären versuchen.

Die Größenskala endet bei der kleinsten theoretisch noch vorstellbaren Größe, der Plancklänge von 10(-35) m, bei der die Einstein’sche Gravitatiostheorie mit der Quantenmechanik unvereinbar zusammenstößt und eine befriedigende Quantengravitationstheorie noch nicht gefunden ist.

Durch die Quantenstruktur der Materie, charakterisiert durch das Plancksche Wirkungsquantum h, ist die Längenskala unlösbar mit einer Energieskala verknüpft. Die Auflösung und Aufklärung der Materiestrukturen im Bereich der klassischen Physik bis herab zu Abständen von einigen Nanometern erfordert Energiequanten bis zu 1 keV ,die mit konventioneller Technik (z.B. Elektronenmikroskop) erzeugbar sind. Die Entdeckung und Aufklärung subatomarer Strukturen begann mit der Erforschung der natürlichen Radioaktivität, die zur Entdeckung des Atomkerns mit einer Ausdehnung im Bereich von 10^(-14) m führte. Zur Auflösung der inneren Strukturen des Atomkerns und der darin wirksamen physikalischen Gesetze musste spezielle Forschungstechnik in Form von Teilchenbeschleunigern entwickelt werden, die stufenweise die zur Verfügung stehende Teilchenenergie bis heute auf 7000 GeV erhöhte. Mit dieser Technik wurden die subatomaren Teilchen (Leptonen, Quarks und Eichbosonen) entdeckt und ihre Wechselwirkungen und Eigenschaften bestimmt, die als Standardmodell der Teilchenphysik zusammengefasst in der Tabelle 2 bei Green dargestellt sind.

Das Standardmodell der Teilchenphysik kennt 3 Kraftarten (starke Kraft, schwache Kraft und elektromagnetische Kraft), die von den Eichbosonen (Gluonen, W+, W-, Z-Teilchen, Photon) vermittelt werden. Die Quarks unterliegen der Wirkung aller drei Kraftarten, die Leptonen unterliegen der schwachen Kraft und wenn sie Ladung tragen, auch der elektromagnetischen Kraft, und die Neutrinos nur der schwachen Kraft. Gemäß dem Standardmodell zerfallen die Teilchen der höheren Familien, die Eichbosonen und das Higgsboson unter dem Einfluss der jeweiligen Kraftteilchen bei Erhaltung von Impuls, Ladung und Energie (Masse) in leichtere Teilchen und deren Antiteilchen. Die Teilchen, die der starken Kraft unterliegen, treten nicht frei auf, sondern sind stets zusammen mit Gluonen zu Hadronen (Protonen, Neutronen, Pionen und Kaonen) gebunden. 

In den Teilchenbeschleunigern werden Elektronen, Protonen und deren Antiteilchen auf hohe Energien beschleunigt und zum Zusammenstoß gebracht, wobei alle instabilen Teilchen entstehen und wieder in stabile Teilchen zerfallen, deren Masse, Energie und Ladung den physikalischen Erhaltungssätzen genügt, wobei die schwereren Teilchen schneller zerfallen als die leichteren. Die verschiedenen Teilchen werden identifiziert und ihre Eigenschaften bestimmt, in dem man deren Impulse und Energien misst und zur Bestimmung der schwereren instabilen Teilchen aufsummiert. Auf diese Weise wurden bisher alle Teilchen des Standardmodells nachgewiesen, außer dem Higgsboson, das zu schwer ist und deshalb nicht erzeugt werden konnte. Um auch dieses Teilchen zu finden, wurde der LHC in Genf mit einer maximalen Beschleunigungsenergie von 14 TeV ausgelegt. Außerdem erhofft man sich, Hinweise auf die in der Kosmologie entdeckte rätselhafte „dunkle Materie“ und  „dunkle Energie“ zu finden. Nach Pressemeldungen vom 4.7.2012 gilt das Higgsboson nunmehr als gefunden.

Maschinen

Die Autorin beschreibt im Detail die in der Welt in jeder Hinsicht einzigartigen technischen Anlagen des größten Teilchenbeschleunigers der Welt in Genf. Der LHC ist die größte und teuerste Maschine, die je in der Welt gebaut wurde. Ihre Errichtung haben 20 Mitgliedsstaaten des internationalen Instituts finanziert und zu deren Betrieb über 1000 Physiker nach Genf entsandt. Mit der niedrigsten Temperatur von 1,9 Kelvin werden die supraleitenden Spulen der 1232 je 30 Tonnen schweren ausgedehntesten und stärksten Magnete mit supraflüssigem Helium gekühlt, um die Protonenstrahlen in der 27 Km langen unterirdischen Röhre im vollkommensten Vakuum zu halten und elftausend mal pro Sekunde im Kreis herumzujagen. Bemerkenswert ist, dass der Tunnel für den LHC bereits 20 Jahre früher für einen Elektronenbeschleuniger gebaut und benutzt wurde, aber bereits in den Abmessungen für den größeren LHC ausgelegt wurde. Dies und die damals entstandene Infrastruktur ermöglichten es dem Institut, einem in den USA geplanten noch größeren Beschleuniger den Rang abzulaufen, dessen Bau bereits begonnen, aber dann abgebrochen wurde.

Der LHC besteht eigentlich aus insgesamt 5 hintereinander geschalteten einzelnen Beschleunigern. Zunächst werden die Protonen von einem Linearbeschleuniger in den Proton Synchroton Booster mit 157m Umfang injiziert, der sie auf 1,4 GeV beschleunigt, dann erlangen sie im Proton Synchroton mit 628 m Umfang eine Energie von 26 GeV, gelangen in ein Super Proton Synchroton mit 7 km Umfang und treten mit 450 GeV in den eigentlichen LHC ein, der sie auf 7 TeV beschleunigen kann.

Die Autorin beschreibt die bei 13 Jahren Bau und 2 Jahren Inbetriebnahme des LHC aufgetretenen technischen, organisatorischen und finanziellen Schwierigkeiten und Probleme. Immerhin mussten die 20  Mitgliedsstaaten 9 Milliarden Dollar für den Bau aufbringen, Weitere 53 Nationen beteiligten sich mit 10 000 Wissenschaftlern an der Entwicklung, am Bau und an der Prüfung von Instrumenten. Durch dieses größte internationale Projekt wurde die wissenschaftliche Zusammenarbeit enorm gefördert. Es ist offensichtlich, dass sich die vertrauensvolle Zusammenarbeit der Nationen im globalen Maßstab hierdurch stark entwickelt hat und die nicht leicht aufzubringenden bedeutenden und deshalb heftig umstrittenen finanziellen Mittel hier besser verwendet worden sind, als wenn sie in die das Misstrauen zwischen den Völkern nährende Entwicklung von Militärtechnik und Rüstungsproduktion gesteckt worden wären.

 

Risiken

In diesem Abschnitt werden die Befürchtungen behandelt, die in den öffentlichen Medien eine Zeit lang breit diskutiert wurden, weil sich einige Leute Sorgen darüber machten, dass im LHC Schwarze Löcher entstehen und die Erde verschlingen könnten. Das Problem wurde selbstverständlich auch von entsprechenden Experten in einem Sicherheitsbericht gründlich untersucht, mit dem Ergebnis, dass die genannten Befürchtungen nicht wissenschaftlich begründet sind. Hierfür gibt es folgende Argumente:

·       Falls unser Universum nur die drei Raumdimensionen besitzt, die wir bisher kennen, würde für die Bildung des kleinsten möglichen Schwarzen Loches eine Energie benötigt, die um 15 Größenordnungen über derjenigen liegt, die jemals in Forschungseinrichtungen erzeugt werden könnte.

·       Nur wenn das Universum tatsächlich zusätzliche Dimensionen besitzt, was zwar derzeit theoretisch untersucht wird, aber noch niemals irgendwie empirisch detektiert wurde, könnten höherdimensionale Schwarze Löcher mit niedrigeren Energien überhaupt existieren.

·       Nach der in allen Fällen außer in Schwarzen Löchern gut empirisch bestätigten Quantentheorie senden die kleinsten Schwarzen Löcher die nach Hawking benannte Strahlung aus, in Folge der sie sich schneller auflösen, als sie durch Aufnahme von Materie weiter anwachsen könnten.

·       Selbst ohne Hawking-Strahlung könnten die kleinsten Schwarzen Löcher nur so langsam wachsen, dass sie erst nach Milliarden von Jahren eine gefährliche Größe erreichen würden.

·       In der natürlichen kosmischen Strahlung treten hochenergetische Teilchen auf, deren Energie ausreichen würde, kleine schwarze Löcher zu bilden. Wenn diese kleinen Löcher existieren könnten und gefährlich wären, hätten sie bereits die Erde zerstören können. Mit viel höherer Wahrscheinlichkeit hätten sie aber die kleinen weißen Zwergsterne und die Neutronensterne zerstören können, die eine um Größenordnungen höhere Dichte als die Erde haben und die es zahlreich im Universum gibt. Derartige Explosionen hätten wir beobachten müssen, wenn es sie je gegeben hätte.

Auf Grund aller dieser Argumente kommt der Sicherheitsbericht zu dem Ergebnis, dass die befürchtete Bildung Schwarzer Löcher am LHC keine Bedrohung für die Erde darstellt.

Während Schwarze Löcher kein Risiko darstellen, ist das Risiko von Klimaveränderungen und das Risiko der Finanzkrisen durchaus vorhersehbar und wird nicht berücksichtigt. Risikoanalysen haben nur Sinn, wenn alle Einflussgrößen angemessen berücksichtigt werden und dann auch entsprechende Schlussfolgerungen gezogen werden. Häufig werden dabei nur Nutzen und Kosten gegenübergestellt, aber es kommt sehr genau darauf an, wer den Nutzen hat und wer die Kosten trägt. Dies wird sehr oft verschleiert. Dann ist die Risikoaussage wertlos. Das Risiko wird nur herabgesetzt, wenn der die Kosten tragen muss, der auch den Nutzen hat. In der Wissenschaft kommt es darauf an, das Risiko mit bewährten Methoden zu berechnen und die Forschungsarbeiten auf eine Verminderung des Risikos auszurichten.

In der Wissenschaft sind Ergebnisse und Aussagen immer unsicher. Es kommt deshalb darauf an, exakt anzugeben, mit welcher Wahrscheinlichkeit das Ergebnis in einem bestimmten Intervall liegt. Damit ist nie ausgeschlossen, dass es auch außerhalb dieses Intervalls liegen könnte. Erst wenn ein Messergebnis mit einer großen Wahrscheinlichkeit außerhalb des Intervalls liegt, in dem es gemäß der zugehörigen Theorie liegen müsste, besteht Anlass, nach methodischen Messfehlern oder nach einer besseren Theorie zu suchen. Das gegenwärtig akzeptierte Standardmodell der Elementarteilchentheorie benennt Massen, Zerfallsschemata, Zerfallsraten und andere Eigenschaften aller bekannten Teilchen mit gewissen Unsicherheiten.  Infolge der im LHC zu erreichenden höheren Energien der Teilchen können entweder Messergebnisse erzielt werden, die mit höherer Genauigkeit in dem bisher angenommenen Bereich liegen und damit das Standardmodell bestätigen. Oder es werden Ergebnisse erzielt, die mit höherer Genauigkeit außerhalb dieses Bereichs liegen und damit Anlass geben, nach einem besseren Modell zu suchen.

 

Messungen

An zwei gegenüberliegenden Wechselwirkungspunkten des Beschleunigerringes stoßen die entgegengesetzt umlaufenden Protonenstrahlen zusammen. An diesen Punkten sind die 46m x 25m (Atlas) bzw. 21m x 15m (CMS) großen Detektionsmaschinen stationiert. Sie enthalten  mehrere Millionen in verschiedenen Schichten angeordnete Detektoren zur Registrierung von Teilchen sowie supraleitende Magnete, die starke Magnetfelder erzeugen. Durch die Vielzahl der Detektoren können aus dem Verlauf der durch das Magnetfeld gekrümmten Teilchenbahnen die Massen und Impulse der Teilchen bestimmt und die beim Zerfall der kurzlebigen Teilchen freiwerdende Energie ermittelt werden. Die unmittelbar an die einzelnen Detektoren angeschlossene rechentechnische Hardware filtert die bisher ausreichend gut bekannten mit etwa 1 Milliarde pro Sekunde auftretenden Ereignisse und Wechselwirkung automatisch aus und sendet nur noch die Daten von etwa 100 000 Ereignissen pro Sekunde an die in der Nähe stationierten Computer, in denen die Daten durch Softwarefilter auf wenige Hundert interessierende Ereignisse pro Sekunde reduziert und an das zentrale Rechenzentrum des CERN gesendet werden. Hier werden die Rohdaten zu einer Form verarbeitet, die für physikalische Analysen besser geeignet ist und über das CERN-eigene Rechennetz an etwa 1 Dutzend große nationale Rechenzentren verteilt, von wo aus etwa 50 Analysezentren von Universitäten darauf zugreifen können. Von diesen Analysezentren werden dann die für die physikalische Forschung relevanten Daten über das Internet bereitgestellt.

Die Forschungen konzentrieren sich darauf, aus den aufgezeichneten Spuren eines Ereignisses die Teilchen zu identifizieren, die sie hervorgerufen haben, wobei jedes Teilchen charakteristische Spuren oder auch nicht hinterlässt. Aus den für jedes Ereignis geltenden Erhaltungssätzen für die Gesamtladung, den Gesamtimpuls und die Gesamtenergie bestätigt sich dann entweder das bekannte Standardmodell oder es ergeben sich Hinweise auf die Existenz neuer, bisher unbekannter Teilchen.

 

Neue mögliche Modelle der Teilchentheorie

Es scheint so, als wären in der realen Welt einheitliche Grundprinzipien verwirklicht, die dann auch in der Kunst und in der Wissenschaft reflektiert werden müssten, um erfolgreiche schöne und richtige Theorien und Modelle zu kreieren. Deshalb muss ein als schön empfundenes Kunstwerk und eine richtige Theorie genügend Symmetrie aufweisen und erkennen lassen, aber auch  Elemente enthalten, die diese Symmetrie brechen. Nach Auffassung der Autorin muss dieser Gesichtspunkt bei der Ausarbeitung neuer physikalischer Modelle beachtet werden, wenn diese sowohl die bisher bekannten empirischen Daten neu ordnen und Hinweise für die Gestaltung neuer Experimente für die Erforschung der Wirklichkeit geben sollen. Das von Murray Gell-Mann begründete, erfolgreiche  Standardmodell der Teilchenphysik entspricht diesen Forderungen, indem es sowohl die weitgehende Symmetrie der auf Quarks und Leptonen wirkenden Kräfte enthält, aber auch die zunächst verblüffende, aber experimentell eindeutig nachweisbare Unsymmetrie der Schwachen Kraft, die auf rechts- und linksdrehende Teilchen unterschiedlich wirkt.

Im Standardmodell der Teilchentheorie werden den verschiedenen subatomaren Teilchen unterschiedliche Massen zugeschrieben, um die Energie- und Impulserhaltung bei deren Wechselwirkungen richtig darstellen zu können. Dies ist nur möglich, weil das Standardmodell den bisher nur theoretisch ausgearbeiteten Higgsmechanismus enthält. Für diesen Mechanismus wird ein hypothetisches Higgsfeld unterstellt, dass überall und auch im Vakuum von Null verschieden ist. Entsprechend den Gesetzmäßigkeiten der Quantenfeldtheorie sind diesem virtuelle Higgsbosonen als Träger einer schwachen Ladung zugeordnet, die mit den die schwache Ladung tragenden anderen subatomaren Teilchen wechselwirken. Im Ergebnis dieser Wechselwirkung wird Quarks und Leptonen ihre messbare Masse zugewiesen und schwache Ladung kann in das Higgsfeld abfließen. Die Masse der Teilchen ist bestimmt durch die Stärke ihrer Wechselwirkung mit dem Higgsfeld. Da das Photon und das Gluon keine schwache Ladung tragen und das Higgsboson keine elektrische, bleibt die Masse des Photons und des Gluons Null. Außerdem wird angenommen, dass auch hochenergetische Teilchen wegen ihrer kleinen Abmessungen nicht mit den Higgsbosonen wechselwirken und deshalb keine Masse erhalten. Durch das Vorhandensein des Higgsfeldes wird die sonst vorhandene Symmetrie der schwachen Kraft gebrochen, aber nur bei kleinen Energien. Die Masse der Eichbosonen schirmt deren schwache Ladung ab, weshalb die schwache Kraft nur eine sehr kleine Reichweite besitzt.

Während alle anderen Teilchen des Standardmodells in der kosmischen Strahlung und in den bisher benutzten Teilchenbeschleunigern empirisch nachgewiesen werden konnten, ist dies für das Higgsboson nicht der Fall. Erst dessen Entdeckung wäre der Beweis für die tatsächliche Existenz des Higgsfeldes und des Higgsmechanismus.

Ein Higgsboson könnte entstehen, wenn in dem überall existenten Higgsfeld eine Energie zur Verfügung steht, die mindestens seiner noch unbekannten Masse entspricht. Falls das Higgsboson eine Masse von über 800 GeV haben sollte, müssten sich im LHC bei über 1TeV  messbare Abweichungen vom Standardmodell zeigen, da dieses bei Hochenergie-Teilchen unrealistisch große Wechselwirkungswahrscheinlichkeiten voraussagt. Wenn das Higgsboson eine geringere Masse als 114GeV hätte, wäre es wahrscheinlich bereits an dem bis zum Jahre 2000 am CERN arbeitenden Elektronenbeschleuniger gefunden worden. Am 14.7.2012 wurde die Entdeckung des Higgsbosons am LHC mit einer Masse von 125 MeV gemeldet.

Um das Higgsboson entdecken zu können, müssen 2 Subatomare Teilchen zusammenstoßen, deren Masse und Energie mindestens das doppelte der Masse des Higgsbosons beträgt, damit es überhaupt entstehen kann. Da es instabil ist, müssen anschließend alle seine Zerfallsprodukte identifiziert und deren Energie und Masse bestimmt werden, um die Masse des Higgsbosons daraus bestimmen zu können. Hierzu sind alle seine theoretisch möglichen Zerfallsprozesse zu überwachen.

Es könnte aber auch sein, dass der Higgsmechanismus komplizierter als angenommen ist  und das erwartete Higgsboson kein Elementarteilchen ist, sondern ein gebundener Zustand mehrerer elementarer Teilchen und deshalb wesentlich schwerer ist. Dann gilt das Standardmodell nicht mehr und es kann derzeit nicht übersehen werden, was dann alles passieren könnte.

Wenn das Higgsteilchen gefunden wurde, ergeben sich neue Fragen. Warum hat es gerade die Masse, die man bestimmen wird ? Und was passiert auf den 16 Größenordnungen der Teilchenenergie, die noch darüber bis zur Plankmasse liegen?

Dem Standardmodell der Elementarteilchentheorie liegt die Vorstellung von punktförmigen Objekten und zugehörigen Feldern zugrunde, die den Gesetzmäßigkeiten der Quantenfeldtheorie unterliegen. Dies hat zur Folge, dass bei Abständen in der Größenordnung der Plancklänge (10(-35) m) und der ihr zuzuordnenden Planckenergie und Masse (10^(19) Protonenmassen) Unendlichkeiten auftreten, die das Modell nicht mehr anwendbar machen (sog. Hierarchieproblem). Deshalb erwartet man, dass bereits bei den im LHC erreichbaren hohen Teilchenenergien Abweichungen vom Standardmodell messbar sein werden. Zur Zeit sind 3 theoretische Modelle in der Diskussion, mit denen dieses Problem beseitigt werden könnte:

·       Das Supersymmetrie-Modell nimmt an, das zu jedem Teichen des Standardmodells ein supersymmetrischer Partner existiert, der die gleichen Kraft-Ladungen trägt, aber dessen Spin um ½ verschoben ist. Dadurch hätte jedes Fermion ein Boson als Partner und umgekehrt. Wenn die so definierte Supersymmetrie exakt erhalten wäre, müssten die supersymmetrischen Teilchen die gleiche Masse haben wie ihre Partner, dann hätte man sie aber schon finden müssen. Die Supersymmetrie muss deshalb „leicht“ gebrochen sein und die Masse der Superteilchen größer, aber nicht um Größenordnungen größer als die ihrer Partner sein, und sie müssen deshalb instabil sein und in die bekannten Teilchen zerfallen. Wenn das Modell realistisch ist, müsste man die Superteilchen in dem vom LHC überstrichenen Energiebereich finden und das Supersymmetriemodell damit bestätigen können.

·       Das Technicolormodell nimmt eine neue starke Kraft an, die aber nicht die Quarks, sondern die im Standardmodell der  schwachen Kraft zugeordneten Teilchen verbindet. Falls dieses Modell realistisch ist, müsste man im LHC statt eines einzelnen Higgsbosons im Energiebereich oberhalb der schwachen Kraft viele Teilchen in einem gebundenen Zustand finden.

·       In der Stringtheorie wurde die Vorstellung abgeleitet, dass es Extra-Dimensionen des Raumes geben könnte, die wir nicht sehen können und noch nicht bemerkt haben, weil sie entweder stark gekrümmt und zusammengerollt sind. Oder die bisher bekannte Materie liegt nur auf einer 3-dimensionalen Oberfläche eines mehrdimensionalen Raumes, durch den hindurch aber die Gravitation wirkt und deshalb im Vergleich mit den anderen Kräften so schwach ist. Das Graviton  ist dann in anderen Raumdimensionen sehr schwer und wirkt nur auf unserer Oberfläche schwach. Das Modell der mehrdimensionalen Räume sagt Kaluza-Klein-Teilchen mit einer Masse von etwa 1TeV voraus, die die Gravitation vermitteln und die man im LHC anhand ihrer Zerfallsprodukte nachweisen könnte, wenn die Theorie realistisch wäre.

Die Daten, die im LHC gemessen werden, haben so letztendlich darüber zu entscheiden, welches der vorgestellten Modelle das richtigere ist. Die Aufgabe der Modelle aber ist es, den Experimentalphysikern die Richtungen zu weisen, in denen sie suchen können und sollen. Mit Hilfe der  Modelle ist es erst möglich, die Versuchsdaten physikalisch zu interpretieren, und dies ist auch ihr eigentliches Ziel.

Im Gegensatz dazu geht die Stringtheorie in deduktiver Richtung vor. Sie definiert zunächst eine in sich logisch widerspruchsfreie Theorie über die Wechselwirkungen hochenergetischer Teilchen. Das entspricht dem reduktionistischen Paradigma der traditionellen Wissenschaften, die größeren Strukturen aus den Eigenschaften ihrer kleineren Bausteine zu erklären, denn die hochenergetischen Teilchen sind entsprechend der Quantentheorie mit den kleinsten räumlichen Abmessungen verbunden. Wie man aus den kleinsten Elementen die unterschiedlichsten größeren Strukturen aufbauen kann, so liefert die Stringtheorie im Ergebnis eine Vielzahl von Modellen, möglichen Raumdimensionen, Teilchen, Kräften und Wechselwirkungen, mehr als in der realen Welt verwirklich sind. Deshalb kann sie die Struktur des Universums erklären, aber sie kann nicht begründen, warum es so ist, wie es ist.

 

Die Vermessung des Weltalls

Astronomische und astrophysikalische Beobachtungen erforderten ein Modell des Weltalls, das seine Expansion aus einem Urknall heraus beschreiben müsste. Nach dem das Weltall eine gewisse Größe erreicht hat, liefert die Allgemeine Relativitätstheorie Einsteins eine gute Grundlage zur Beschreibung dieses Modells. In der Anfangsphase aber ist nach diesem Modell die Abmessung so klein und die Massendichte unendlich groß, so dass die Quantentheorie zu Rate gezogen werden muss. In diesem Bereich, in dem die Entstehung der Struktur der Materie erklärt werden muss, können nur die Modelle der Teilchenphysik weiterhelfen. Um die großräumige Homogenität und Flachheit des Universums begründen zu können, entwickelte Alan Guth die zunächst sehr spekulativ anmutende Inflationstheorie, die aber später vor allem durch die von Satelliten durchgeführten Messungen der Kosmischen Hintergrundstrahlung sehr genau bestätigt werden konnte. Aus der Inflationstheorie ergaben sich nun wiederum Forderungen an die Teilchenphysik, die dort angewendeten Modelle durch Messungen an den Teilchenbeschleunigern empirisch zu untermauern. Das betrifft insbesondere den Nachweis der realen  Existenz der dunklen Materie und die Aufklärung ihrer Struktur sowie die Natur der dunklen Energie. Auf grund der aus der Kosmologie abgeleiteten Vorstellungen sollte  die dunkle Materie nur der schwachen  Gravitationskraft unterliegen, aber nicht den anderen Kräften des Standardmodells der Teilchentheorie. Es könnten neue, bisher nicht bekannte stabile Elementarteilchen sein, die wegen ihrer äußerst schwachen Wechselwirkung mit anderen Elementarteilchen gleichmäßig im gesamten Universum verteilt vorkommen. Man erwartet, dass die Masse solcher Teilchen in dem Bereich liegt, den der LHC überstreicht, sodass dort Teilchen und Antiteilchen der dunklen Materie erzeugt werden könnten, die sich anschließend wieder vernichten und dabei Photonen oder Elektronen-Positronenpaare erzeugen, die in den Detektoren des LHC nachgewiesen werden könnten.

 Zum Nachweis solcher Teilchen werden auch in gut abgeschirmten Bergwerken gegenwärtig spezielle Detektoren installiert, um die gravitationsbedingten Zusammenstöße dieser Teilchen mit Atomkernen der Detektoren zu entdecken, falls dabei bei den hohen Geschwindigkeiten der Erde im Weltall andere nachweisbare Teilchen erzeugt werden. Von anderen störenden Ursachen müssten sich diese Ereignisse dadurch unterscheiden, dass erdbahnbedingte jahreszeitliche Veränderungen auftreten.

Man versucht auch mit Detektoren auf Satelliten die selten auftretenden Vernichtungsereignisse von Teilchen und Antiteilchen der dunklen Materie auszuwerten. Da dunkle Materie im Zentrum der Erde und der Sonne eine hohe Konzentration haben könnte, müssten dort besonders viele solcher Vernichtungsprozesse stattfinden. Falls dabei hochenergetische Neutrinos entstehen, welche die Erde oder die Sonne ungehindert durchdringen  und deshalb nachgewiesen werden könnten, was jedoch auch wiederum nur indirekt möglich wäre.

Die dunkle Energie liefert den Antrieb der inflationären Expansion des frühen Universums und wird für die beschleunigte Expansion des aktuellen Universums verantwortlich gemacht. Die Größenordnung dieser mit der Erzeugung virtueller Teilchen und mit dem Higgsfeld verbundenen Vakuum-Energie ist noch völlig ungeklärt.

 

Zusammenfassung

Die physikalische Grundlagenforschung bewegt sich stets am Rande unseres Wissens über die Welt, in der wir leben. Obwohl sie außer der Befriedigung unserer Neugier keine relevanten Ziele hat, ist sie dennoch ein bedeutender Zweig der Wissenschaft, der die kulturelle Evolution der Menschheit vorantreibt. Alle technisch-technologischen Fortschritte, die das Leben der Menschen der Gegenwart wesentlich bestimmen, haben ihren Ursprung in einer Grundlagenforschung, die zunächst ohne Ziel und Richtung betrieben wurde. Wenn die Menschheit nicht auch zukünftig bedeutende Mittel für Grundlagenforschung bereitstellen würde, könnte die kulturelle Evolution in geistigen und technischen Spielereien verarmen und einen wesentlichen Antrieb verlieren.