Missing Link: Die kosmische Inflation – der Knall des Urknalls

Wie kann aus einem dimensionslosen Punkt das gesamte Universum entstanden sein? Eine schöne Erklärung ist die kosmische Inflation, aber stimmt sie auch?

In Pocket speichern vorlesen Druckansicht 291 Kommentare lesen

Die kleine Sternenwolke Messier 24 im Schützen ist ein Ausschnitt des inneren Teils unserer Milchstraße, auf das wir durch ein Fenster in den Staubwolken der Milchstraßenscheibe blicken, welche 90% der Sterne unserer Spiralgalaxie verhüllen. Auch hier sieht man dunkle, sternenarme Zonen und solche, die durch Staub im Vordergrund rötlich verfärbt sind. Messier 24 vermittelt einen kleinen Eindruck von der Sternenfülle, die in der Milchstraße enthalten ist – eine von mehr als 100 Milliarden Welteninseln im beobachtbaren Universum.

(Bild: Roberto Colombari, CC BY-SA 4.0)

Lesezeit: 47 Min.
Von
  • Alderamin
Inhaltsverzeichnis

Wie groß ist das Universum? Woraus besteht es? Wie ist es entstanden und wie wurde es so, wie wir es heute kennen? Mit diesen Themen beschäftigt sich die Kosmologie, die Lehre von der Entstehung und Entwicklung des Universums. Sie ist derzeit eine der spannendsten Disziplinen der Naturwissenschaft, und sie spannt einen Bogen von der Physik des Allerkleinsten zu den größten Strukturen, die wir kennen. Die neue Artikelreihe skizziert den derzeitigen Stand des Wissens und legt dar, warum die große Mehrheit der Kosmologen scheinbar so absurden Ideen anhängt wie von leerem Raum mit abstoßender Gravitation, der Entstehung des Universums aus dem Nichts und dem unsichtbaren Stoff, aus dem 95 Prozent des Universums bestehen. Im Teil 5 geht es darum, warum es eigentlich etwas gibt - und nicht nichts.

"Sieh dir die Sterne an! Es muss Dutzende von ihnen geben", lässt Regisseur Tom Mankiewicz im Film Dragnet die Freundin des Detektivs Joe Friday (gespielt von Dan Aykroyd) in einer romantischen Szene im Cabrio unter dem Sternenhimmel von Los Angeles sagen – nicht nur in der 13-Millionen-Metropole sieht der nächtliche Himmel heutzutage leider so aus. Bei klarem Himmel in einer mondlosen Nacht im Gebirge scheint uns die Zahl der Sterne hingegen geradezu zu erschlagen. Dabei sind gerade einmal 6000 Sterne hell genug, um mit bloßem Auge gesehen zu werden, und zu jeder Zeit befindet sich nur die Hälfte von ihnen über dem Horizont. Das schimmernde Band der Milchstraße, das man nur fernab der Stadt bei guten Bedingungen sehen kann, besteht hingegen aus dem Summenlicht von Milliarden Sternen. Da wir uns innerhalb der Milchstraßenscheibe befinden, die von vielen Generationen von Sternen mit interstellarem Staub angereichert wurde, sehen wir von der Erde aus nur rund 10 Prozent der Galaxis.

Insgesamt kreisen ein paar hundert Milliarden Sterne mit der Sonne zusammen um das Zentrum der Milchstraße, die eine von mehreren hundert Milliarden Galaxien im beobachtbaren Universum ist – jenem Volumen des gesamten Universums, von dem uns bis zu seinem heutigen Alter von 13,8 Milliarden Jahren Licht erreichen konnte. Das ist in der Größenordnung von 1022 Sternen. Weiter können wir nicht schauen, aber nichts deutet darauf hin, dass es dort eine Grenze gäbe, hinter der nur noch sternenloser Raum folgen würde. Niemand kann sagen, wie viele Sterne es im Universum insgesamt gibt, aber schon ihre Zahl im beobachtbaren Universum ist unvorstellbar groß. Und dazu kommt höchstwahrscheinlich noch einmal das Fünffache ihrer Masse an Dunkler Materie, wie wir in den ersten Teilen der Serie erfahren haben.

Lesen Sie aus dieser Reihe auch bei heise online:

Woher aber stammt diese gewaltige Materiemenge? Wieso gibt es dies alles – und nicht einfach nichts? Vor dem Urknall-Modell erschienen diese Fragen einfach falsch gestellt, das Universum sei einfach schon immer da gewesen und habe ewig existiert. Das kann in einem expandierenden Universum aber nicht mehr stimmen. Es gab unvermeidlicherweise einen Anfang und Einsteins Gleichungen spucken als Ursprung einen Punkt mit unendlicher Dichte aus, wenn man die Expansion rückwärts in der Zeit extrapoliert. Aber das muss doch Unsinn sein – wie können aus einem dimensionslosen Punkt Trilliarden von Sonnenmassen hervorgegangen sein? Die Urknalltheorie kann doch schon aus diesem Grund keinesfalls richtig sein. Oder? ODER?

Auf die Spur einer möglichen Antwort auf diese Fragen kam Ende der 1970er der Physiker Alan Guth. Er hatte zu dieser Zeit allerdings mit Kosmologie überhaupt nichts am Hut – sein Interesse galt vielmehr der Teilchenphysik. 1979 hatten Sheldon Glashow, der erst im Juli 2021 verstorbene Steven Weinberg und Abdus Salam den Nobelpreis für die in den 1970ern experimentell bestätigte Erkenntnis erhalten, dass die elektromagnetische Kraft und die Schwache Wechselwirkung bei sehr hohen Temperaturen (das heißt Teilchenenergien) in einer einzigen Kraft aufgehen, der "elektroschwachen Kraft". Viele Physiker gingen (und gehen heute noch) davon aus, dass sich auch die starke Kernkraft, die dritte Grundkraft des Standardmodells der Quantenphysik, bei noch höheren Temperaturen mit der elektroschwachen Kraft zu einer einzigen Einheitskraft verbinden würde. Diese Theorien laufen unter dem Begriff "Große Vereinheitlichte Theorien" (Grand Unification Theories, GUTs).

Argumente für die Attraktivität dieser Theorien sind beispielsweise, dass sie begründen können, warum das Elektron bis auf das Vorzeichen exakt dieselbe Ladung wie das Proton besitzt, obwohl es als Elementarteilchen von vollkommen anderer Natur ist als das Proton, welches aus drei Quarks mit 2× +2/3 und 1× -1/3 Elementarladungen zusammengesetzt ist, denn sie stellen eine fundamentale Symmetrie zwischen dem Elektron und den Quarks her. Zum anderen scheinen die bei geringen Teilchenenergien sehr verschieden starken drei Grundkräfte des Standardmodells sich bei zunehmenden Energien immer mehr in ihre Stärken anzugleichen und diese sich bei sehr hohen Energien um 1016 GeV (oder Temperaturen von 1029 K) zu schneiden, wofür es im Standardmodell keine Erklärung gibt. Die GUTs liefern diese Erklärung, den Übergang in eine vereinheitlichte Grundkraft. Aus dieser Gesetzmäßigkeit lässt sich aus der Messung der Stärke zweier der Grundkräfte bei einer beliebigen Energie die Stärke der dritten voraussagen, und diese Vorhersagen stimmen mit einem Fehler von nur 0,25 Prozent mit der gemessenen Stärke der dritten Kraft überein.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Viele dieser GU-Theorien sagen die Existenz von Teilchen voraus, die ein Magnetfeld haben, aber kein gewöhnliches mit Feldlinien, die wie beim Stabmagneten in Bögen vom magnetischen Nordpol zum Südpol des Teilchens (der, weil er zwei Pole hat, Dipol genannt wird) verlaufen, sondern vielmehr radial in alle Richtungen vom Teilchen weg, analog zum elektrischen Feld von Proton oder Elektron, die isolierte elektrische Pole bilden: folglich wären solche Teilchen isolierte einzelne magnetische Pole, sogenannte "magnetische Monopole" – etwas, das bei gewöhnlichen Magneten niemals vorkommt, denn wenn man einen Stabmagneten teilt, erhält man zwei Stabmagneten mit jeweils Nord- und Südpolen. Der Nachweis magnetischer Monopole wäre ein starker Hinweis auf die Korrektheit der GUTs. Die Monopole sollten im Augenblick der Symmetriebrechung beim Abspalten der starken Kernkraft bei 1016 GeV entstehen und dieser Energie entsprechende Massen haben.

Es wäre damit allerdings illusorisch, solche Teilchen unter den Kollisionsprodukten in einem Teilchenbeschleuniger zu suchen. Ein Linearbeschleuniger müsste, um solche Teilchenenergien zu erzeugen, eine Länge von rund 670 Billionen Kilometern – 70 Lichtjahren – haben! So suchte Alan Guth nach einer anderen, natürlichen Quelle zur Erzeugung der magnetischen Monopole: dem Urknall.

In den frühesten Bruchteilen der ersten Sekunde, ca. 10-37 s nach dem Beginn des Urknalls, herrschten Temperaturen von 1029 K, und zu dieser Zeit sollten Monopole entstanden sein. Nach seinen Berechnungen, die er zusammen mit Henry Tye durchführte, kam er auf rund 10.000 Monopole je Proton oder Neutron im Universum. Das konnte schon deshalb nicht stimmen, weil Proton und Neutron je nur ungefähr 1 GeV/c² auf die Waage bringen, das heißt die Gesamtmasse aller Monopole wäre bei Monopolmassen um 1016 GeV um den Faktor 1020 höher als die der gewöhnlichen Materie. Nach einer Analyse des Physikers John Preskill hätte das Universum bei diesem Materieanteil zu Beginn erheblich schneller expandieren müssen, um auf die heutigen Distanzen zwischen den Galaxien zu kommen. So schnell, dass es erst 1200 Jahre alt sein dürfte!

Guth und Tye fanden in einer GUT von Howard Georgi und Sheldon Glashow, dass dort zwei Phasenübergänge stattfinden sollten, der erste bei 1016 GeV, der zweite erst bei niedrigeren Energien, und erst der zweite Übergang würde dann mit viel geringerer Häufigkeit Monopole erzeugen. Um auf eine plausible Zahl zu kommen, musste der zweite Übergang jedoch bei einer noch niedrigeren Temperatur stattfinden, als die Theorie eigentlich vorhersagte. Ein solcher Zustandsübergang lässt sich in gewisser Weise mit einem Phasenübergang in einer Flüssigkeit vergleichen, etwa beim Gefrieren von Wasser. Man kann Wasser bekanntlich um einige Grade unter den Gefrierpunkt abkühlen, ohne dass es friert, wenn es frei von Verunreinigungen ist und langsam abgekühlt wird. Man nennt dies "unterkühltes Wasser".

Im Falle der GUT von Georgi und Glashow betraf die Unterkühlung den Zustand des Higgs-Felds – oder vielmehr der Higgs-Felder, denn Guth und Tye gingen von der Existenz mehrerer solcher Felder aus. Wir haben heute (erst) eines nachgewiesen, dessen Anregungsteilchen das Higgs-Boson ist (alle Teilchen sind in der Quantenfeldtheorie Anregungszustände der ihnen zugrunde liegenden Felder, so wie etwa das Photon das Anregungsteilchen des elektromagnetischen Felds ist). Das Higgs-Feld interagiert mit den Elementarteilchen – außer dem Photon, dem Gluon und den Neutrinos – und verleiht ihnen ihre Ruhemassen. In einer GUT mit mehreren Higgs-Feldern kann man die Feldstärke eines jeden einzelnen von ihnen an jedem Ort des Raums durch einen eindimensionalen (skalaren) Wert an diesem Ort angegeben, analog dazu, wie man für jeden Ort eine Temperatur und einen Luftdruck angeben kann.

Der augenblickliche Zustand aller Higgs-Felder zusammen kann durch eine Koordinate in einem Koordinatensystem angegeben werden, das je eine Achse pro Higgs-Feld enthält (etwa Feld 1: x-Achse, Feld 2: z-Achse). Eine weitere Achse (y-Achse) bildet die Energie (besser: das Potenzial) ab, das sich aus der Kombination der Feldstärken auf x- und z-Achse ergibt. Dieses bildet eine gewölbte Oberfläche. (Dasselbe Konstrukt wäre auch mit 3 und mehr Higgs-Feldern mathematisch beschreibbar, aber nicht mehr in 3 Dimensionen anschaulich darstellbar). Die möglichen Kombinationen je zweier Higgs-Felder bilden in der Theorie eine Fläche, die ungefähr die Form eines mexikanischen Huts mit einer zentralen Hutspitze, einer umlaufenden Vertiefung und einer nach außen ansteigenden Krempe hat (tatsächlich geht die Krempe nach außen gegen unendlich).

Der aktuelle Zustand der Higgs-Felder an einem Ort kann dann durch eine Roulettekugel symbolisiert werden, die sich an der Oberfläche über der gerade am betreffenden Ort gültigen Kombination der Werte aller Higgs-Felder aufhält. Die Höhe der Kugel über der Grundfläche bestimmt gleichzeitig den Betrag der in den Higgs-Feldern steckenden Vakuumenergie, die an diesem Ort herrscht.

Das Potenzial der Higgs-Felder soll die Form eines Sombreros haben. Der Zustand der Higgs-Felder an einem beliebigen Ort im Raum kann durch eine Kugel dargestellt werden, die sich irgendwo auf der Oberfläche aufhält. Stabil sind nur der Mittelpunkt und alle Orte in der Vertiefung der "Krempe". Im angeregten Zustand bewegt sich die Kugel jedoch wild im Diagramm umher. Erst bei Abkühlung findet sie sich in einem der stabilen Zustände ein.

(Bild: Wikimedia Commons, gemeinfrei)

Der Zustand der Higgs-Felder sollte wie gefrierendes Wasser einen Zustandsübergang durchmachen können. Bei hohen Temperaturen rast die Roulettekugel, deren Ort die aktuell gültigen Feldstärken der Higgs-Felder charakterisiert, wild über die Fläche des "Sombreros", ähnlich wie sich Wassermoleküle mit allen möglichen Geschwindigkeiten in einer Flüssigkeit umherbewegen (mit einer mittleren Geschwindigkeit, die für die Wassertemperatur charakteristisch ist). Der mittlere Ort liegt auf der Hutspitze, wo alle Teilchen masselos sind. Nach fortgesetzter Abkühlung fällt die Kugel schließlich irgendwo in die Krempe hinein und rollt dort aus, bis sie irgendwo liegen bleibt und der Übergang vollzogen ist. Im Analogon gefrierenden Wassers hören die Moleküle auf, wild miteinander zu stoßen, sondern beginnen, sich zu einem Eiskristall anzuordnen und schwingen nur noch leicht um ihre neue Position.

Um einen unterkühlten Zustandsübergang hervorzubringen, wie Guth und Tye ihn benötigten, müsste der "Sombrero" in der Hutspitze eine Delle haben. So bestünde die Chance, dass die Roulettekugel statt in der Krempe zu enden zunächst in der Delle der Hutspitze landen könnte. Bei fortgesetzter Abkühlung reichte – klassisch betrachtet – seine Energie nicht mehr aus, die Delle zu verlassen, die Higgs-Felder würden in einem Zustand hoher Vakuumenergie gefangen bleiben. Die Physiker sprechen von einem "falschen Vakuum", da das Feld nicht die dem "echten Vakuum" eigentlich für diese Temperatur zustehende, geringst mögliche Vakuumenergie hätte, sondern einen viel höheren Wert.

In der Quantenphysik gibt es jedoch den sogenannten "Tunneleffekt", der es zum Beispiel Teilchen erlaubt, eine klassisch unüberwindbare Potenzialbarriere mit einer gewissen Wahrscheinlichkeit dennoch zu durchstoßen. So kann beispielsweise ein Kernteilchen eines radioaktiven Atomkerns diesem trotz seiner eigentlich unüberwindlichen Bindung an den Kern mit einer gewissen Wahrscheinlichkeit entkommen – so funktioniert Radioaktivität. Auch das Higgsfeld wäre nicht komplett eingefroren, sondern die Roulettekugel könnte irgendwo und irgendwann zufällig durch den Rand der Delle hindurch tunneln und an zufälliger Stelle die Hutspitze herunterrollen, um irgendwo in der Krempe in einem echten Vakuumzustand liegen zu bleiben.

Vielleicht haben Sie schon einmal eine unterkühlte Flasche aus dem Eisfach genommen und beim Öffnen begann ihr Inhalt vom Verschluss aus rasch nach unten hin zu gefrieren. Ähnlich würde das entstandene echte Vakuum die Higgs-Felder in seiner Umgebung auf den gleichen Zustand in der Hutkrempe herunterziehen und dieser Zustand sich mit Lichtgeschwindigkeit blasenförmig im Vakuum ausbreiten – man spricht vom Zerfall des falschen Vakuums. Beim Vakuumzerfall entstünden dann erst die Monopole. Bei verzögerter Abkühlung (niedrigerer Temperatur - wir reden hier über etwa eine Billionen Billionen Kelvin – 1024 K) würden weniger Monopole entstehen. So kamen Guth und Tye auf eine plausible Zahl von Monopolen in der GUT von Georgi und Glashow.

Guth grübelte an einem Wochenende vor der Veröffentlichung seiner Arbeit zum unterkühlten falschen Vakuum darüber, ob dieses einen Einfluss auf die Expansion des Universums haben würde und er kann sehr schnell zu dem Schluss, dass dies in der Tat der Fall wäre – und was für einen! Im letzten Teil über die Dunkle Energie (deren Entdeckung zur Zeit von Guths Arbeit noch fast 20 Jahre in der Zukunft lag) habe ich ausführlich dargelegt, dass eine Energiedichte des Vakuums einen negativen Innendruck und in dessen Folge eine abstoßende Gravitation verursacht, die das Weltall beschleunigt expandieren lässt (der stark negative Druck des falschen Vakuums ist übrigens genau der Grund, warum eine Blase normalen Vakuums sofort wachsen würde – in ihr ist der Druck viel weniger negativ, also viel größer, als im falschen Vakuum, und so drängt es das falsche Vakuum sofort in jeder Richtung zurück). Die Energiedichte der heutigen Dunklen Energie ist jedoch sehr klein – die Dunkle Energie macht 70 Prozent der kritischen Dichte für ein flaches Universum aus. Wir reden hier von einem Energieäquivalent von rund 5 Protonenmassen oder 10‑30 Gramm pro Kubikmeter.

Bei Guths falschem Vakuum sollte die Energiedichte hingegen bei 1080 g/cm³ liegen – das sind 65 Zehnerpotenzen mehr als die Dichte eines Protons, 1050 Sonnenmassen auf einem Kubikzentimeter, das sind folglich 1028 Mal mehr als die Masse aller Sterne im beobachtbaren Universum – pro Kubikzentimeter! Wobei das beobachtbare Universum zu dieser Zeit weitaus kleiner als ein Kubikzentimeter war.

Guth erkannte, dass diese unvorstellbar hohe Energiedichte laut Einsteins Allgemeiner Relativitätstheorie, wie im vorigen Artikel erläutert, zu einer immens starken abstoßenden Gravitation führen musste, die das falsche Vakuum rasant exponentiell wachsen ließ (anstatt es zu einem Schwarzen Loch kollabieren zu lassen): Alle 10‑37 Sekunden würde sich eine gegebene Strecke verdoppelt haben. Alle 2·10‑37 Sekunden vervierfacht. Alle 3·10‑37 Sekunden verachtfacht. Alle 10·10‑37 = 10‑36 Sekunden etwa vertausendfacht. Nach 2·10‑36 Sekunden um den Faktor eine Million vergrößert haben. Und so weiter. Nach 100 Verdopplungen oder 10‑35 Sekunden wäre es bereits um den Faktor 1030 gewachsen. Niemand kann sich solche Zeiträume vorstellen, die im Vergleich zu einer Sekunde viel kleiner sind als diese im Vergleich zum Weltalter – das Universum ist gerade erst 4,3·1017 Sekunden alt. Und auch beim Vergrößerungsfaktor versagen alle menschlichen Vergleichsmaßstäbe: Der Durchmesser eines Wasserstoffatoms würde um den Faktor 1030 vergrößert von der Erde bis etwa zum Zentrum der Milchstraße reichen.

Die Theorie der kosmischen Inflation besagt, dass das Universum binnen winziger Bruchteile einer Sekunde um einen Faktor von mindestens 1026-1052 anwuchs. Das lässt sich zwar in einem doppelt-logarithmischen Diagramm darstellen, trotzt jedoch jeglicher Vorstellungskraft.

(Bild: Mughal, Ahmad, Guirao, CC BY 4.0)

Die Theorie wird heute als "kosmische Inflation" bezeichnet. Der Urknall war definitiv keine gewöhnliche Explosion, aber wenn beim Urknall irgendetwas knallte, dann war es jedenfalls die kosmische Inflation.

Da das falsche Vakuum nicht mit Materie gefüllt war, sondern nur von Higgs-Feldern erfüllt, wurde seine Dichte bei der Expansion nicht verdünnt, wie es bei einer gewöhnlichen Explosion von Materie der Fall wäre, sondern es gebar fortwährend weiter falsches Vakuum mit derselben hohen Energiedichte. Betrachtet man ein Anfangsvolumen, das mit der Expansion wächst, so nimmt die in ihm enthaltene Energie (= Energiedichte × Volumen) mit der dritten Potenz seines Radius auf unermessliche Werte zu. Schließlich tunnelte das falsche Vakuum auf den echten Vakuumzustand bei weit geringerer Vakuumenergie. Was passierte nun aber mit der ganzen Vakuumenergie aus den Higgs-Feldern des unterkühlten falschen Vakuums? Sie wurde als Strahlung freigesetzt! Aus dem expandierenden, unterkühlten falschen Vakuum wurde ein enorm heißes, echtes Vakuum geboren – genau so eines, wie es zu Beginn des Urknalls erwartet wird, und aus dessen nun verfügbarer Energie Materie entstehen konnte. In der Kosmologie spricht man vom "Reheating", dem "Wiederaufheizen" des Vakuums.

Aber was ist mit der Energieerhaltung? Gilt die etwa nicht? Hier entsteht doch jede Menge Energie aus dem Nichts! Überraschenderweise ist die Energieerhaltung laut Guth trotzdem gewährleistet: Die Energie ist vom Gravitationsfeld nur geborgt, wie ein Baukredit, von dem man sich ein Haus baut, das den Gegenwert zum geliehenen Geld bildet (wobei man es allerdings versäumt, den Kredit mit Zinsen zurückzuzahlen). Die freigesetzte Energie verhält sich nicht mehr wie eine Vakuumenergie mit abstoßender Gravitation, sondern wie gewöhnliche Materie, die ein Gravitationsfeld mit anziehender Gravitation hervorbringt. Der Energiegehalt dieses Gravitationsfelds leistet einen negativen Beitrag zur Energiebilanz des Universums, wie folgendes Gedankenexperiment zeigt:

Zum Verständnis benötigen wir das "Newtonsche Schalentheorem", welches besagt, dass die Schwerkraft in einer Hohlkugel überall Null ist. Befindet man sich im Zentrum der Hohlkugel, dann zieht die Gravitation der Kugelschale aus allen Richtungen mit genau der gleichen Stärke, also hebt sie sich insgesamt auf. Aber auch an jedem anderen Ort innerhalb der Schale ist sie Null: nähert man sich der Schale von innen, so verkleinert man zwar den Abstand zur in einem bestimmten Raumwinkel eingeschlossenen Masse auf der näheren Seite und deren Anziehungskraft wächst mit 1/r² – dafür wächst die Kugeloberfläche im selben Raumwinkel auf der gegenüberliegenden ferneren Seite mit r². Das hebt sich genau auf und daher ist die Schwerkraft überall in einer Hohlkugel Null.

Nun zum Gedankenexperiment: man denke sich eine Hohlkugel, die außen ein Schwerefeld hat und innen mit obigem keines. Nehmen wir an, die Kugel sei nicht massiv, sondern kompressibel, wie ein Gas, das heißt, ihre Hülle könnte unter ihrem Eigengewicht schrumpfen und dabei dichter werden. Durch die Kompression würde das Gas verdichtet und aufgeheizt, das heißt die Schrumpfung setzt Energie frei (die als Wärmestrahlung die Kugel verlassen würde). Am Ende hat man eine kleinere Hohlkugel mit zusätzlichem Raum außerhalb, der nun mit einem Gravitationsfeld gefüllt ist, wo vorher keines war. Da wir dem System Energie entziehen konnten, muss das neu gebildete Gravitationsfeld einen negativen Energiebetrag enthalten, der so groß ist, wie die abgestrahlte Wärmeenergie.

Die im Schwerefeld der Vakuumenergie steckende Energie schlägt also negativ zu Buche. Man kann zeigen, dass sie genau so groß ist, wie der Betrag der frei gewordenen Vakuumenergie selbst, denn diese entstammt ja der abstoßenden Gravitation aus der Expansionsphase – beide addieren sich zu Null. Man spricht daher auch vom "Nullenergie-Universum". Lawrence Krauss ist heute einer der bekanntesten Proponenten des Null-Energie-Universums.

[Der Vollständigkeit halber sei erwähnt, dass nicht alle Kosmologen mit dem Nullenergie-Universum übereinstimmen und vielmehr den Standpunkt vertreten, dass in einer expandierenden Raumzeit überhaupt keine sinnvolle Definition der Energie möglich sei und diese daher auch nicht erhalten werde. Ich lasse das mal so nebeneinander stehen.]

Guth hatte somit einen Mechanismus entdeckt, mit dem er nicht nur sein Monopol-Problem lösen konnte, sondern gleichzeitig erklären konnte, wie beim Urknall die Materie und Strahlung eines kompletten Universums buchstäblich aus dem Nichts entstehen konnte. In Anlehnung an die Redewendung "there ain't no such thing as a free lunch" ("es gibt kein kostenloses Mittagessen"), dessen Aussage ist, dass sich hinter jedem vermeintlichen Geschenk ein versteckter Gegenwert verbirgt, oder allgemeiner formuliert, dass nichts von nichts kommt, nannte er die Inflation "the ultimate free lunch" – die ultimative kostenlose Mahlzeit.

Und mehr noch: die kosmische Inflation konnte nebenbei zwei heiß diskutierte Probleme der Urknalltheorie lösen: das Flachheits- und das Horizontproblem.

Im vorigen Artikel habe ich bereits angesprochen, dass das Universum laut Messung geometrisch flach ist. Dies ist es nur bei der exakt kritischen Dichte, das ist für eine gegebene Expansionsrate diejenige Dichte, bei der das Universum gerade nicht zum Stillstand kommt und wieder kollabiert. Eine geringe Abweichung nach oben, und das Universum würde kollabieren, das heißt die Dichte würde über die kritische Dichte wachsen (das gilt für den Fall ohne Dunkle Energie; durch das Hinzufügen der Dunklen Energie würde der Kollaps zwar unter Umständen verhindert, die Abweichung der Dichte vom kritischen Wert würde aber dennoch wachsen). Eine geringe Abweichung nach unten, und die Dichte würde genauso rasch unter die kritische Dichte fallen. Da wir heute noch ein im Rahmen der Messgenauigkeit flaches Universum beobachten, muss die ursprüngliche Dichte eine Sekunde nach dem Urknall auf 17 Nachkommastellen (!) genau der kritischen Dichte entsprochen haben – ein Feinabstimmungsproblem, für das die Kosmologie vor der Inflationstheorie keine Erklärung hatte.

Die Erklärung der Inflationstheorie ist, dass die inflationäre Expansion genau gegenteilig wirkt, sie füllt das Universum mit genau demjenigen Anteil an Energie, der es exakt flach macht, und zwar aus dem vorgenannten Grund der Energieerhaltung (ein Nullenergie-Universum ist immer flach). Etwas anschaulicher ist das Bild einer zunächst kleinen Kugel, deren lokal stark gekrümmte Oberfläche durch inflationäres Wachstum immens vergrößert wird und danach lokal flach erscheint, so wie uns die Erdkugel flach erscheint. Dies erweckt allerdings den möglicherweise falschen Eindruck, dass das Universum eine Art Kugeloberfläche in einem höheren Raum ist – die Inflation liefert kein Argument für diese Betrachtung. Aber sie hat das Universum gewissermaßen durch die Mangel gezogen.

Die Inflation löst das Flachheitsproblem des Urknallmodells, indem sie durch ihr unglaubliches Wachstum der Raumzeit jede noch so starke Krümmung so immens vergrößert, dass sie nicht mehr messbar ist.

(Bild: Guth & Kaiser)

Das zweite Problem, das die Urknall-Kosmologie plagte, war das Horizontproblem. Es war nicht plausibel, warum die kosmische Hintergrundstrahlung in entgegengesetzten Himmelsrichtungen bis auf die nur im Bereich von hunderttausendstel Kelvin liegenden Temperaturschwankungen ihrer Feinstruktur exakt die gleiche Temperatur haben sollte, denn bei gewöhnlicher Expansion nach dem Urknallmodell waren solche Orte sich nie nahe genug gewesen, um ihre Temperatur über den Austausch von Strahlung anzugleichen. Heute liegen die Orte, von denen die kosmische Hintergrundstrahlung ausging, 45 Milliarden Lichtjahre von uns entfernt – als die Hintergrundstrahlung sich auf den Weg machte, war die Entfernung 1000 Mal kleiner, 45 Millionen Lichtjahre, und der Abstand am Himmel gegenüber liegender Punkte folglich 90 Millionen Lichtjahre. Das Universum war damals jedoch erst 380.000 Jahre alt und das Licht konnte, den Anschub durch die kosmische Expansion mit eingerechnet, bis zu diesem Alter höchstens eine knappe Million Lichtjahre zurückgelegt haben – es gab folglich keine Chance, dass Strahlung von einem Ort am Himmel den aus unserer Sicht gegenüber liegenden hätte erreichen können.

Die Inflationstheorie löst das Horizontproblem, da das beobachtbare Universum vor dem Einsetzen der Inflation submikroskopisch klein war – in der Größenordnung von 10‑52 m und damit klein genug, um einen Temperaturausgleich mit Lichtgeschwindigkeit über Strahlung binnen 10‑60 s zu ermöglichen. Zeit genug vor dem Einsetzen der Inflation bei 10‑37 s. Erst während der rasanten Inflationsphase wurden Orte in gegenüberliegenden Richtungen des Himmels kausal voneinander isoliert, aber da sie mit der gleichen Temperatur und Dichte starteten, entwickelten sie sich in der Folge in gleicher Weise weiter. Nur die unvermeidlichen Schwankungen der Dichte aufgrund von Quantenfluktuationen des Higgs-Felds verblieben und sorgten für kleine Dichteschwankungen, aus denen die Struktur der Hintergrundstrahlung und schließlich auch diejenige der Verteilung der Galaxien hervorging.

Nebenbei sorgte die Inflation nicht nur dafür, dass sich weniger Monopole bildeten, sondern trieb diese auch weit auseinander, so dass sie weder eine Rolle für die Raumexpansion spielten, noch heutzutage ihr Auftauchen in irgendwelchen Experimenten zu erwarten wäre. Der britische Kosmologe Martin Rees meinte allerdings zum Monopolproblem, dass es Skeptiker exotischer Physik wohl kaum beeindrucken würde, dass ein theoretisches Argument die Abwesenheit von Teilchen erklären soll, deren Existenz selbst nur hypothetisch sei. Das Monopolproblem und die konkret betrachtete GUT von Georgi und Glashow spielten aber am Ende keine entscheidende Rolle mehr für die Inflation, denn die Berechnungen galten ganz unabhängig von der zugrunde gelegten GUT – die wesentlichen Zutaten der kosmischen Inflation waren der Zustand des falschen Vakuums zu Beginn, die Allgemeine Relativitätstheorie für die inflationäre Expansion und die Quantenfeldtheorie für deren Ende. Es ist nicht einmal ausgemacht, dass die zugrunde liegenden Felder das oder die Higgs-Felder sind. Allgemeiner spricht man heute vom Inflaton-Feld mit einem zugehörigen Teilchen namens Inflaton, dessen Existenz noch zu belegen wäre.

Die Veröffentlichungen über die Inflationstheorie machten Guth schnell bekannt und verschafften ihm bald schon einen Job als Assistenzprofessor am Massachusetts Institute of Technology. Seine Theorie hatte allerdings einen Schönheitsfehler, dessen Lösung ihm selbst nicht gelang: Die Inflation sanft ausklingen zu lassen (engl. "graceful exit problem" = "Problem des würdevollen Abgangs"). Zur Entstehung von Materieteilchen war es in seiner Theorie erforderlich, dass benachbarte Blasen gewöhnlichen Vakuums miteinander kollidierten, denn fast die gesamte frei werdenden Vakuumenergie steckte in den Blasenwänden, wo das Higgs-Potenzial steil abstürzte und nur bei Kollisionen von Blasen würde sie in Materie umgewandelt werden. Um den Raum so gleichmäßig mit Materie anzufüllen, wie es für die Entstehung des Plasmas der Hintergrundstrahlung notwendig war, mussten viele vergleichbar große Blasen miteinander kollidieren und sich gegenseitig mit Materie anfüllen.

Zwar ergab der Tunneleffekt, dass das falsche Vakuum an jedem Ort mit einer gewissen Halbwertszeit zerfallen sollte und die Wahrscheinlichkeit, dass es an einem bestimmten Ort noch nicht zerfallen war, exponentiell schnell abnahm – aber sein Volumen wuchs ja ebenso exponentiell und es kam auf die Wahl der Parameter an, die den "Sombrero" beschrieben, wie sich die Entstehung der Blasen zum inflationären Wachstum des umgebenden Raums verhielt. Je nach Wahl der Modellparameter wurden die entstehenden Blasen normalen Vakuums entweder rasch auseinander gerissen und konnten sich nie zu einem gemeinsamen Raum vereinigen, oder aber die zuerst entstehenden Blasen wurden im Vergleich zu den nachfolgenden extrem groß und überrollten die kleinen Blasen mit ihrer Größe entsprechend geringer Energie in ihren Hüllen einfach. So konnte der Raum nicht gleichmäßig mit Materie angefüllt werden. Nach den Berechnungen von Guth sollte eine Vakuumblase ohne Kollisionen nach 10 Milliarden Jahren eine Temperatur von nur 10-29 K haben – nicht 2,7 K, wie wir sie in der Hintergrundstrahlung messen. Die Materiedichte in der Blase läge in der Größenordnung von 10-86 der kritischen Dichte – nicht 0,3, wie in unserem Universum.

Im Dezember 1981 erreichte Guth ein Brief aus der Sowjetunion: der Physiker Andrei Linde, der damals am Lebedew-Institut für Physik in Moskau arbeitete, war fast zeitgleich ganz unabhängig auf die Inflationstheorie gekommen, hatte jedoch die darin implizierte Lösung des Horizont- und Flachheitsproblems übersehen und seine Arbeit zunächst als nicht veröffentlichungswürdig betrachtet. Linde war Guth namentlich bereits aus früheren Veröffentlichungen über die mutmaßliche Masse des Higgs-Teilchens bekannt und Guth hatte ihm im September seine Arbeit über die Inflation zugesendet, die Linde schon aus anderer Quelle kannte. Seine eigenen Berechnungen und die Ergebnisse von Guth überzeugten ihn dann, dass die Inflation für die Entstehung unseres Universums verantwortlich sein musste.

Nachdem er Guths Aufsätze gelesen und von dessen Unvermögen erfahren hatte, die Inflation komplett ausklingen zu lassen, schickte er Guth einen von ihm entwickelten Lösungsvorschlag. Lindes Lösung sah einen Sombrero ohne Delle und ohne Tunneleffekt vor, aber mit flacherem, breiterem Verlauf des "Kopfteils" – denn die genaue Form des Inflaton-Potenzials war ohnehin unbekannt. Die "Roulettekugel", die den Zustand des Inflatonfelds an einem Ort beschrieb, sollte bei Linde von der Mitte allmählich nach außen rollen und dann um die tiefste Stelle der Krempe herum auspendeln. Während des langsamen Rollens lief die inflationäre Expansion, die auf dem Weg zur Krempe ausklang, und während des Auspendelns um den finalen Zustand des echten Vakuums wurden die Teilchen gebildet. Durch diesen Verlauf konnte die freigesetzte Vakuumenergie in einer einzigen Blase ohne Kollisionen den Raum gleichmäßig mit Teilchen anfüllen, was die Homogenität (Gleichförmigkeit) und Isotropie (Richtungsunabhängigkeit) der Materieverteilung im Universum erklärte. Kurz nach Linde veröffentlichten auch die Amerikaner Andreas Albrecht und Paul Steinhardt diese Lösung, auf die sie unabhängig von ihm gekommen waren. Diese Variante der Inflationstheorie ist unter dem Namen "Slow Roll Inflation" oder auch "Neue Inflation", wie Linde sie selbst nannte, bekannt.

Im ursprünglichen Inflationsmodell von Guth befindet sich das unterkühlte Vakuum zu Beginn in einem Potenzialtrog des Inflatonfelds, aus dem es nur durch Quanten-Tunneln entkommt. Dabei zerfällt das Vakuum sehr rasch und endet im echten Vakuum. Da die Energie des Inflatonfelds zu schnell frei gesetzt und gleichmäßig verteilt wird, entstehen keine Teilchen, das entstehende Universum ist leer.
Im neuen Inflationsmodell, das unabhängig voneinander von Andrei Linde und den Amerikanern Andreas Albrecht und Paul Steinhardt gefunden wurde, befindet sich das falsche Vakuum zu Beginn auf einem Plateau des Inflatonfelds und rollt beim Vakuumzerfall langsam von diesem herunter in das echte Vakuum. Dieses wird nicht sofort eingenommen, sondern das Feld schwingt um den energieärmsten Vakuumzustand aus. Durch das Ausschwingen wird die Energie langsamer freigesetzt und bildet Teilchen, die das Universum gleichmäßig ausfüllen.

(Bild: Autor)

Steinhardt war auch der erste, der in einer Arbeit darauf hinwies, dass die Inflation nicht notwendig überall zum Ende kommen muss. Wie oben bereits angedeutet wächst der inflationäre Raum möglicherweise schneller, als er lokal in Blasen gewöhnlichen Vakuums zerfallen kann. In diesem Fall, "Ewige Inflation" genannt, würde er fortwährend eine wachsende Zahl von Vakuumblasen hervorbringen, ein "Multiversum", in welchem Universen wie das unsere entstehen könnten – oder auch ganz andere, je nachdem bei welchem Wert des Higgs-Felds die "Roulettekugel" in der betreffenden Blase zu liegen käme. Da das Higgs-Feld die Teilchenmassen beeinflusst, könnten sehr unterschiedliche Universen entstehen, deren Naturgesetze sich vom unsrigen deutlich unterscheiden – die Masse der W- und Z-Bosonen bestimmt beispielsweise entscheidend die Reichweite der Schwachen Wechselwirkung, die sich wiederum auf die Fusionsrate in den Sternen auswirkt.

Stabile Sterne könnten bei anderen Massen der Austauschteilchen der Schwachen Wechselwirkung womöglich gar nicht entstehen und es gäbe kein Leben in solchen Universen, das sich Gedanken über deren Entstehung machen könnte. Die bisher völlig rätselhaften, scheinbar willkürlichen Massen der Elementarteilchen könnten genau das sein: eine zufällig von der "Roulettekugel" unseres Universums erwürfelte Kombination der Higgs-Feld-Werte. Aufgrund unserer Existenz müssen wir uns notwendigerweise in einem Universum wiederfinden, in welchem die Kombination der Teilchenmassen unsere Entstehung ermöglichte, selbst wenn sie nur eine außergewöhnlich seltene Konstellation unter sehr vielen wäre. In einem Multiversum eines ewig inflationär expandierenden Raums wäre es jedoch unvermeidlich, dass jede noch so seltene, aber mögliche Konstellation der Higgs-Felder irgendwann, irgendwo entstehen müsste.

Nicht wenigen Kosmologen gehen diese Gedankengänge allerdings zu weit – das sei keine Physik mehr, da ein Multiversum weder falsifizierbar sei, noch irgendeine Erklärung der Teilchenmassen liefere (außer "Zufall"). Ihre Werte sollten vielmehr aus einer grundlegenderen Theorie heraus berechenbar sein. Die Multiversumstheorie habe keinen höheren Erklärungswert als "Gott hat das Universum erschaffen". Der Stringtheoretiker Brian Greene sieht das anders: "Wenn die experimentellen und beobachteten Belege, die eine Theorie stützen, einen dazu zwingen, diese anzunehmen, und wenn die Theorie auf einer so strikten mathematischen Struktur beruht, dass sie keinen Spielraum für Rosinenpickerei unter ihren Eigenschaften erlaubt, dann muss man sie in ihrer Gesamtheit akzeptieren. Und wenn die Theorie die Existenz anderer Universen impliziert, dann ist das die Realität, die man gemäß der Theorie zu akzeptieren hat." (Brian Greene, "The Hidden Reality", Penguin Books Ltd.)

Aber wie sieht es denn überhaupt aus mit der Evidenz für die kosmische Inflation? Wir erinnern uns, dass Guth von der Gültigkeit einer Großen Vereinheitlichten Theorie ausging und zur Lösung des mit ihr verbundenen Monopolproblems die Inflation postulierte. Ohne GUT kein Monopolproblem und keine Notwendigkeit für die Inflation. Bisher ist noch keine GU-Theorie belegt – welche Relevanz soll dann also die Inflation haben? Abgesehen davon, dass sie die Existenz der Materie erklärt, das Flachheitsproblem und das Horizontproblem löst und die Homogenität und Isotropie des Universums erklärt, könnte man sich fragen: Was hat die Inflationstheorie je für uns geleistet? Von einer Theorie wird verlangt, dass sie überprüfbare Vorhersagen macht. Welche überprüfbaren Vorhersagen macht die Inflation?

Guth macht in seinem Buch "The Inflationary Universe" aus dem Jahr 1997 folgende Vorhersage: Laut seiner Parameterwahl wuchs das Universum während der Inflation um den Faktor 1052. Wenn das Universum von einem Punkt als Ursprung ausging und die Inflation bei einem Weltalter vom 10‑37 s einsetzte, dann hätte es bis dahin bei Wachstum mit Lichtgeschwindigkeit schon 10‑29 m groß geworden sein können. Das ist 1023 Mal größer als das beobachtbare Universum bei einem Durchmesser von 10‑52 m. Da das Größenverhältnis seitdem gleich geblieben wäre, wäre bei Gültigkeit der kosmischen Inflation der Radius des gesamten Universums 1023 Mal größer als derjenige des beobachtbaren Universums - und der Rauminhalt dementsprechend (1023)3 = 1069 Mal größer!

Das Problem an dieser Vorhersage ist, wenig überraschend, die Überprüfbarkeit. Wir können trivialerweise nicht über das beobachtbare Universum hinausschauen. Wir können bestenfalls auf der Basis der Genauigkeit, mit der wir die Flachheit des Universums gemessen haben, eine Untergrenze für die Größe des gesamten Universums abgeben, und die liegt für die Messungen des Weltraumteleskops PLANCK (flach mit einer Genauigkeit von 0,2 Prozent) beim 17-fachen des beobachtbaren Universums. Es darf bezweifelt werden, dass wir jemals eine Messgenauigkeit erreichen, die auch nur annähernd den Faktor 1023 (100 Trillionen) bestätigen oder widerlegen könnte.

Eine andere mögliche Konsequenz der Inflation wäre, dass die Vakuumblase, aus der unser Universum entstand, mit einer eng benachbart entstandenen kollidiert sein könnte. In diesem Fall sollte eine kreisrunde Struktur an der Kollisionsstelle entstanden sein, die eine verbleibende Spur in der kosmischen Hintergrundstrahlung hinterlassen haben sollte. Die Suche nach solchen Strukturen ist im Gange, es gibt den einen oder anderen Kandidaten, aber bisher nichts Definitives.

Wie geschildert, sollte die Inflation wie eine Art Supermikroskop Dimensionen der Quantenwelt auf kosmische Ausmaße vergrößert haben. Dies gilt auch für die sogenannten Quantenfluktuationen, zufälligen Dichteschwankungen der Higgs-Felder in der Größenordnung der Planck-Skala (10-35 m). Solche Dichteunterschiede sollten sich in der Hintergrundstrahlung bemerkbar machen – sie wären die Ursache für die Dichteunterschiede, die die Baryonischen Akustischen Oszillationen angetrieben haben, und die man im Leistungsspektrum der Hintergrundstrahlung wiederfindet (siehe Teil 1 dieser Reihe). Aber wie kann man sicher sein, dass die Dichteunterschiede nicht völlig andere Ursachen haben? Indem man nach charakteristischen Eigenschaften Ausschau hält, die für Quantenfluktuationen zu erwarten sind. Diese sind vor allem

  • Gaußverteilte Amplitude: kurz umrissen heißt dies, dass kleine Abweichungen vom Mittelwert häufiger auftreten als größere. Die aus der Statistik und Wahrscheinlichkeitsrechnung wohlbekannte Gauß- oder Normalverteilung gibt hierbei genau an, wie die Häufigkeit der Abweichungen von ihrer Größe abhängt.
  • Skaleninvarianz: die Abweichungen sollten auf allen Größenskalen gleich stark sein, das heißt über kleinen Distanzen genauso groß wie über große. Diese Eigenschaft wird durch den "Spektralindex" ns angegeben, der das Verhältnis aus der Amplitude bei geringen Distanzen zu denen bei großen Distanzen angibt (gewissermaßen die Neigung des Graphen im Winkelspektrum, wenn man die Baryonischen Akustischen Oszillationen herausrechnet). Skaleninvarianz ist gegeben, wenn beide gleich groß sind, also ns=1 ist. Für die Inflation erwartet man einen Wert dicht unter 1, nicht exakt 1.
  • Adiabatische Verteilung der Energiedichte: damit ist gemeint, dass die Fluktuationen im thermischen Gleichgewicht sind, das heißt symmetrisch um einen überall gleichen mittleren Wert schwanken. Abweichungen nach unten (geringere Dichten) haben die gleiche mittlere Amplitude und sind von gleicher Ausdehnung wie Abweichungen nach oben (höhere Dichte).

Das Weltraumteleskop PLANCK konnte mit seinem Datensatz aus dem Jahr 2015 verifizieren, dass die Strukturen in der Hintergrundstrahlung adiabatisch mit Gaußscher Amplitudenverteilung und einem Spektralindex ns = 0.968±0.006 sind – also genau so, wie man es für aus Quantenfluktuationen hervorgegangene Strukturen erwartet. Dies wird als starker Beleg für die Inflation gewertet.

Eine andere Form der Quantenfluktuationen betrifft die Raumzeitkrümmung selbst. So soll die Raumzeit auf submikroskopischen Skalen örtlichen und zeitlichen Schwankungen ihrer Krümmung unterliegen. Dies bedeutet anders ausgedrückt, dass sie von winzigen Gravitationswellen durchzogen ist. Die Inflation müsste auch diese auf riesige Abmessungen vergrößert haben, die später das Plasma der Hintergrundstrahlung durchliefen. Aufgrund der Art, wie Gravitationswellen schwingen (sie stauchen und strecken einen Querschnitt des Raums, den sie durchlaufen, abwechselnd in Breite und in Höhe) sorgen sie dafür, dass sie an Elektronen gestreutes Licht in einer charakteristischen Weise polarisieren.

Polarisierung von Licht bedeutet, dass die Lichtwellen nur in einer Ebene schwingen. Normalerweise schwingen die Lichtwellen einer leuchtenden Quelle je Photon in beliebigen Ebenen, das Licht ist unpolarisiert. Begegnet ein Photon einem Elektron, so kann es an diesem abgelenkt, "gestreut" werden. Blickt man auf so ein Elektron und es kommen unpolarisierte Photonen von links, so können diese in beliebigen Ebenen mit auf-ab- und vor-zurück-Anteilen schwingen (siehe folgendes Bild). Wenn ein Photon dann am Elektron genau auf den Beobachter zu gestreut wird, fällt die Tiefenkomponente weg, weil die Schwingungsrichtung der Welle senkrecht zur Bewegungsrichtung liegen muss: Es bleibt nur die auf-ab-Komponente der Schwingung übrig, das Licht ist senkrecht polarisiert. Kommt das Photon von oben, so kann es links-rechts und vor-zurück-Komponenten haben und wenn es auf den Beobachter zu gestreut wird, verbleibt nur die links-rechts-Komponente. Das ist zunächst einmal die gewöhnliche Thomson-Streuung und die polarisiert zwar Licht aus einer bestimmten Richtung, aber nicht ein Gemisch aus allen Richtungen, wie in der Hintergrundstrahlung.

B-Moden der Polarisation sind wirbelförmige Polarisationsmuster, die durch primordiale Gravitationswellen, die durch die Inflation auf kosmologische Ausmaße vergrößert wurden, in der kosmischen Hintergrundstrahlung erzeugt werden sollten. Die drei Grafiken zeigen ihre Entstehung.
Oben links: Grundlage ist die Thomson-Streuung von Licht an Elektronen. Wenn Licht mit beliebiger Schwingungsebene am Elektron zum Beobachter hin gestreut wird, wird die Schwingungsrichtung in radialer Richtung (in Richtung des Beobachters bzw. von ihm weg) unterdrückt. Nur die tangentialen Komponenten (in der Bildebene) können gestreut werden. Wenn das Licht aus allen Richtung auf das Elektron trifft, hat das Summenlicht, das den Beobachter erreicht, keine bevorzugte Schwingungsrichtung, es ist nicht polarisiert.
Oben rechts: durchläuft das Licht jedoch eine Gravitationswelle, so staucht diese den Raum und mit ihm das durchlaufende Licht in einer Richtung und streckt es in dazu senkrechter Richtung. Gestauchtes Licht ist blauverschoben und hat mehr Energie als rotverschobenes. Dadurch dominiert im Summenlicht das blauverschobene Licht mit seiner Schwingungsrichtung. Es gibt eine bevorzugte Polarisationsrichtung.
Unten: Wegen der Ausdehnung der Gravitationswelle ist die Polarisationsrichtung ortsabhängig verschieden und es ergeben sich wirbelartige Muster (Abfolge gedrehter Pfeile, vergleiche folgendes Bild).

(Bild: Autor)

Kommt nun jedoch eine Gravitationswelle hinzu, die den Raum beispielsweise gerade in rechts-links-Richtung staucht, so werden Lichtwellen, die aus diesen Richtungen auf das Elektron zulaufen und zum Beobachter hin gestreut werden, blauverschoben, ihre Wellenlänge ist verkürzt und dies erhöht ihre Photonenenergie. Wellen, die von oben oder unten kommen, werden gleichzeitig gestreckt, also zu längeren Wellenlängen hin rotverschoben und haben geringere Energien. Dementsprechend erscheinen die aus Richtung der Stauchung kommenden gestreuten Wellen heller und ihre Polarisation überwiegt im Summenlicht. Betrachtet man die Gravitationswelle an der Oberfläche des Plasmas der Hintergrundstrahlung in ihrer gesamten Ausdehnung, so ergibt sich eine Art Wirbelmuster der Polarisation, das "B-Moden" genannt wird (daneben gibt es noch die "E-Moden", die kein Wirbelmuster zeigen, und die nicht auf Gravitationswellen, sondern auf schlauchförmig ausgedehnte Dichteschwankungen in der Materie zurückgehen).

Veranschaulichung der beiden möglichen Polarisationsmuster, die in der Hintergrundstrahlung erwartet werden. Oben die radialen und tangentialen E-Moden, die an linearen (schlauchförmigen) Verdichtungen in der Hintergrundstrahlung entstehen. Diese wurden beobachtet und haben nichts mit Gravitationswellen oder der Inflation zu tun.
Unten die wirbelförmigen B-Moden, nach denen noch gesucht wird. Sie würden Zeugnis über die Inflation ablegen.

(Bild: Kamionkowsky & Koletz, 2015)

Nach solchen B-Moden der Polarisation sucht man in der Hintergrundstrahlung und im März 2014 vermeldete das BICEP2-Radioteleskop in der Antarktis, es habe sie gefunden. Guth und Linde (inzwischen Professor an der Universität Stanford, Kalifornien) waren zur feierlichen Verkündung des Ergebnisses eingeladen, das als eindeutiger Beleg für die Korrektheit der Inflationstheorie gewertet wurde, und konnten ihr Glück kaum fassen, dass sie die experimentelle Bestätigung noch erleben durften. Leider hielt das Ergebnis nur bis zum Mai, als sich herausstellte, dass die Polarisation von Staub in der Milchstraße verursacht wurde, dessen längliche Teilchen sich wie Eisenfeilspäne im Magnetfeld der Milchstraße ausgerichtet hatten, was ebenso zu B-Moden-artigen Mustern von sie durchlaufenden Mikrowellen führt. Angesichts des großen Tamtams, das durch die Weltpresse gegangen war (inklusive auf Gravitationswellen surfenden Einsteins im ZDF Heute-Journal – weil es zugleich der erste direkte Nachweis von Gravitationswellen gewesen wäre) eine große Blamage für das BICEP2-Team.

Man hatte in der Folge gehofft, in den Messungen des PLANCK-Weltraumteleskops B-Moden nachweisen zu können, aber es konnte nur eine Obergrenze für den Anteil der B-Moden gefunden werden – ein Nullanteil ist dadurch nicht ausgeschlossen. Derzeit laufen weitere Beobachtungen (BICEP3 und Keck Array) am Südpol, um B-Moden nachzuweisen. Es gibt Hinweise auf einen kleinen Anteil von B-Moden, aber die Messdaten sind noch nicht signifikant genug.

Die Inflation ist also durchaus falsifizierbar, wie es sich für eine Theorie ziemt, aber der restlos überzeugende Beleg der Inflation steht noch aus. Dennoch wird sie von den meisten Kosmologen als beste Erklärung für die Entstehung des Universums betrachtet. Ist sie denn die einzig mögliche Lösung des Horizont- und Flachheitsproblems? Nein, es gibt mindestens drei Alternativen, die auch noch genannt werden müssen.

Erstens könnte die Lichtgeschwindigkeit im frühen Universum theoretisch viel höher gewesen sein – so hoch, dass ein Strahlungsaustausch und Temperaturabgleich auch über Entfernungen möglich war, die bei der heutigen Lichtgeschwindigkeit niemals in Kontakt getreten sein können. Dies würde allerdings nur das Horizontproblem lösen und es gibt im beobachtbaren Universum keinerlei Hinweis auf eine Veränderung der Lichtgeschwindigkeit. Messungen der Feinstrukturkonstante im Licht ferner Quasar, in die auch die Lichtgeschwindigkeit mit eingeht, erbrachten keinen eindeutigen Nachweis einer vor 10 Milliarden Jahren abweichenden Lichtgeschwindigkeit. Was allerdings sehr beschränkte Aussagefähigkeit über die Lichtgeschwindigkeit bei den extremen Temperaturen in den ersten Bruchteilen des Universums hat.

Vor der Entdeckung der Dunklen Energie waren Modelle eines zyklischen Universums sehr beliebt. In einem solchen Universum würde die Expansion irgendwann zum Stillstand kommen und das Universum wieder kollabieren, um danach aus dem Feuerball neu geboren zu werden. Während der Verlangsamung der Expansion vor dem Kollaps könnte das Vorgänger-Universum seine Temperatur durch Strahlung ausgleichen und bei einem "Big Crunch", der in den "Big Bang" des nächsten Universums übergeht, mit ausgeglichener Temperatur durchstarten und das Horizontproblem hätte sich erledigt. Wenn die Temperatur dabei nicht bis in die Größenordnung der GUT-Vereinheitlichung stiege, gäbe es auch kein Monopolproblem. Das Flachheitsproblem bliebe allerdings bestehen und ein zyklisches Universum hätte auch ein Problem mit der Entropie, die beim Crunch irgendwie von einem extrem hohen Wert wie durch Zauberhand auf einen extrem niedrigen reduziert werden müsste, denn unser Universum begann mit einer geringen Entropie, deren Entwicklung hin zu größeren Werten die Zeitrichtung bestimmt – und weder Kollaps noch Big Crunch verringern die Entropie (dazu mehr in einer späteren Folge).

Schließlich gibt es im Rahmen der M-Theorien (Varianten der Stringtheorien) die Idee, dass es zwei parallele Membranen in einer höheren Dimension gebe; eine davon sei unser Universum (mit seinen drei Raumdimensionen) und die andere ein Paralleluniversum, durch eine vierte Dimension vom unsrigen getrennt (in der M-Theorie gibt es hinreichend viele Dimensionen). Diese beiden Membranen sollen regelmäßig aufeinander zu pendeln und dann heftig voneinander abprallen, nur um das Spiel zu wiederholen. Wenn sie kollidieren, käme es zu einem Urknall in den Membranen. Da die Kollision auf der gesamten Membranfläche gleichzeitig stattfände, würde der Urknall überall im Raum stattfinden, so wie wir es beobachten. Dieses "Ekpyrotisches Universum" (altgriechisch "ekpyrosis" = "Feuersbrunst") genannte Modell von Paul Steinhardt, Neil Turok, Justin Khoury und Burt Ovrut soll imstande sein, eine kosmische Hintergrundstrahlung hervorzubringen, es wäre notwendig flach und die Temperatur in den Membranen hätte sich über ewige Zeiten thermisch längst ausgeglichen. Es benötigt keine Inflation und produziert kein Multiversum. Allerdings auch keine Strukturen, die vergrößerten Quantenfluktuationen gleichen. Stattdessen sollte es hochfrequente Gravitationswellen produzieren, die sich vielleicht nachweisen lassen.

Die Inflation ist extrem attraktiv, um einige Probleme der Kosmologie zu lösen, und ihre Ergebnisse zur Struktur der Hintergrundstrahlung sprechen für sie, aber sie ist noch nicht mit fliegenden Fahnen bestätigt, wie es der Nachweis von B-Moden wäre. Sie ist jedoch die einzige Theorie, die erklären kann, woher die unvorstellbar große Menge von Materie und Strahlung im Universum stammt, und ohne sie blieben das Horizont- und das Flachheitsproblem der Urknalltheorie offen und diese wäre nicht vollständig. Die Inflationstheorie liefert als potenzielle Multiversumstheorie sogar Erklärungsansätze für die Feinabstimmung unseres Universums, auch wenn viele Physiker diese nicht überzeugend finden – dies ist auch eine philosophische Frage.

Andrei Linde hat über die Inflation gesagt: "Es fiel schwer, diese einfache Erklärung zahlreicher kosmologischer Probleme zu verwerfen. Ich hatte einfach das Gefühl, dass es ausgeschlossen war, dass Gott diese hervorragende Möglichkeit zur Vereinfachung Seiner Arbeit, der Schöpfung des Universums, nicht genutzt haben soll." Tatsächlich braucht es als Zutat für ein inflationär wachsendes Universum nicht einmal einen Schöpfer, sondern nur ein winziges Stückchen falschen Vakuums. Und die Quantenfluktuationen.

Im Allerkleinsten ist womöglich nichts statisch, nicht das Higgsfeld und vielleicht auch nicht Raum und Zeit – nicht einmal ihre Abwesenheit, das Nichts. So könnte beständig Raumzeit spontan aus nichts entstehen und sofort wieder verschwinden, so wie virtuelle Teilchen im Vakuum entstehen und wieder vergehen. Das falsche Vakuum, das für die Inflation nötig ist, benötigt eine irrsinnig hohe Energiedichte, die Masse eines ganzen Universums in einem submikroskopischen Volumen. Zwar können gemäß der Heisenbergschen Unschärferelation Schwankungen der Energiedichte umso größer ausfallen, je kürzer sie bemessen sind, aber die Entstehungswahrscheinlichkeit für die eines falschen Vakuums ist unsagbar winzig. Wenn jedoch in ewiger Wiederholung immer wieder Raumzeit mit zufälliger Vakuumenergie entsteht, dann MUSS irgendwann unvermeidlicherweise auch der unwahrscheinlichste Fall eintreten und einmal ein winziges Quäntchen falschen Vakuums mit hinreichender Energiedichte aus dem Nichts hervorgehen, das sofort inflationär zu wachsen anfängt – und dann gibt es kein Halten mehr und es entsteht ein Uni- oder gar ein Multiversum. Man mache sich klar, was es bedeuten würde, wenn die Inflation nie endete und der Raum jenseits unseres Universums seit mindestens 13,8 Milliarden Jahren alle 10-35 s um den Faktor 1030 wüchse.

So ist die Antwort auf die Frage, "warum ist da etwas und nicht nichts?" vielleicht einfach: Weil Nichts instabil ist und in der Ewigkeit alles mögliche Wirklichkeit werden muss. Vielleicht war unser Universum unvermeidlich. Diese Schlussfolgerung liegt nun aber wirklich außerhalb der empirischen Naturwissenschaft und ist als reine Gedankenspielerei zu betrachten.

Quellen:

(mho)