Missing Link: Urknalltheorie – wie ein Priester die Kosmologie revolutionierte

Seite 2: Immer Ärger mit der Unendlichkeit

Inhaltsverzeichnis

Ein unendliches, unveränderliches Universum hat gleich mehrere Probleme: Zunächst leben Sterne nicht ewig, sondern es muss stets frisches Gas nachgeliefert werden, um neue Sterne hervorzubringen. Nach der Entdeckung der Kernfusion als Energiequelle war klar, dass die Sterne das Gas mit schweren Elementen anreichern und es zunehmend mehr von ihnen enthalten muss, wenn es über mehrere Sterngenerationen recycelt wurde. Anhand des Metallgehalts kann man erkennen, welche Sterne in der Milchstraße die ältesten sind und welche zuletzt gebildet wurden. Die Milchstraße kann demgemäß schon einmal nicht ewig existiert haben.

Selbst auf der Basis, dass die Energiequelle der Sterne hydrostatische Kompressionswärme wäre, welche im Prinzip reversibel ist (das Gas verändert sich dabei nicht), bekommt man Probleme mit der Thermodynamik, nämlich mit dem zweiten Hauptsatz: Die Entropie eines abgeschlossenen physikalischen Systems kann nur zunehmen. Ohne hier in die Details des Entropiebegriffs einzusteigen, geht es darum, dass sich ein physikalisches System ohne Austausch mit der Umgebung stets zu einem wahrscheinlicheren Makrozustand hin entwickelt, aus dem es dann nicht mehr heraus kommt. Gravitation von Massen wirkt anziehend, was die hydrostatische Kompression antreibt, und es gibt keinen Prozess, der das Gas eines solchen Sterns wieder ins All befördern könnte.

Zwar wissen wir heute, dass es Supernovae gibt, die das bei einigen wenigen Sternen leisten könnten, aber sie erfordern Kernprozesse, die ihrerseits nicht umkehrbar sind und für die Anreicherung von Metallen im interstellaren Gas sorgen, und auf diese Weise könnte das Gas in kompressionsgeheizten Sternen nicht wieder in den Kreislauf der Sternentstehung gelangen. Fazit: Der erste Hauptsatz der Thermodynamik verhindert zuverlässig, dass ein Weltall ohne Materienachschub ewig in einem unveränderten Zustand verharren kann.

Für ein unendlich altes, unendlich großes Universum greift schließlich noch das nach Heinrich Wilhelm Olbers benannte Paradoxon: Warum ist es nachts dunkel? Denn gäbe es unendlich viele Sterne seit unendlicher Zeit, dann würde jede Sichtlinie in jeder Richtung zwangsläufig auf einer Sternenoberfläche enden. Zwar werden Sterne mit dem Quadrat der Entfernung dunkler, aber die Helligkeit pro Flächenelement bleibt gleich. Es ist der von der Sternenoberfläche ausgefüllte Raumwinkel, der mit der Entfernung quadratisch schrumpft, der zur Helligkeitsabnahme führt. Verdoppelt man die Entfernung, dann ist ein Stern nur noch ¼ so hell. Aber in der doppelten Entfernung befinden sich achtmal so viele Sterne, weil das Volumen mit der dritten Potenz des Radius wächst, das heißt es kommt in Summe doppelt so viel Licht aus der doppelten Entfernung an. Die Helligkeitszunahme findet erst ein Ende, wenn die Sternenscheiben sich gegenseitig zu bedecken beginnen, und dann blickt man in jeder Richtung auf ein Stück Sternenoberfläche, so als ob die Sonne den gesamten Himmel ausfüllte.

Das Argument greift übrigens genauso für Galaxien, falls man argumentiert, zwischen diesen sei ja sehr viel sternenfreier Raum. Und auch Staub und Gas, der das Licht dahinterliegender Stern abschwächt oder ganz absorbiert, kann das Paradoxon nicht lösen, denn die gewaltige Strahlungsleistung des Lichts würde nicht einfach durch Absorption verschwinden, sondern sie würde Gas und Staub aufheizen, bis diese im Temperaturgleichgewicht mit ihrer Umgebung wären. In einem statischen, unendlichen Universum wäre es überall so heiß wie auf einer Sternenoberfläche. Der Himmel wäre nicht nur nachts nicht dunkel – die Erde selbst wäre so heiß, dass sie hell wie die Sonnenoberfläche leuchten würde!

In den 1940er-Jahren setzte sich allmählich die Idee eines expandierenden, in einem Urknall entstandenen Universums durch. Allerdings bestand eine große Diskrepanz zwischen dem Weltalter auf der Basis des damals gemessenen Werts der Hubble-Lemaître-Konstanten (1,8 bis 2 Milliarden Jahre) und radiometrischen Untersuchungen des Alters der Erde (mindestens 3 Milliarden Jahre nach damaligem Wissensstand, 4,5 Milliarden nach dem heutigen) – diese war demnach mehr als doppelt so alt wie das Hubble-Lemaître-Universum. Daher entwickelten einige Kosmologen eine alternative Theorie.

Geht die moderne Kosmologie vom "kosmologischen Prinzip" aus, welches annimmt, dass das Weltall auf großen Skalen isotrop (in jeder Richtung gleich) und homogen (gleichförmig ausgefüllt) sei, also entlang der drei Raumdimensionen unveränderlich, so postulierte die von Hermann Bondi, Thomas Gold und Fred Hoyle 1948 formulierte "Steady-State-Theorie", dass das Universum auch zeitlich unveränderlich sei – Bondi und Gold nannten dies das "perfekte kosmologische Prinzip". Wenn es nicht gelte, dann sei die Konstanz der physikalischen Gesetze nicht mehr gewährleistet, schrieben Bondi und Gold, ja beliebig modifizierbar und die Kosmologie damit gar keine exakte Wissenschaft mehr.

Die Steady-State-Theorie ging dabei nicht von einem statischen Universum aus, sondern sie erkannte an, dass sich die Galaxien voneinander entfernten, wie es die Messungen belegten, und wie es die Relativitätstheorie forderte (die Steady-State-Theorie erkennt die Allgemeine Relativitätstheorie an). Als Ursache der Expansion sah sie eine kosmologische Konstante vor, die das Universum mit gleichbleibender Rate überall expandieren lässt. Diese Expansion sollte eigentlich langfristig zu einer abnehmenden Dichte führen, da sie die Galaxien auseinandertreibt. Um die mittlere Dichte des Universums konstant zu halten, sollte jedoch der Theorie zufolge beständig Materie aus dem Nichts erzeugt werden.

Hoyle betrachtete die Zentren von Galaxien, die deutlich heller leuchteten, als mögliche Materiequellen, während Bondi und Gold vermuteten, dass die Materie überall im Raum mit einer Rate von einem Wasserstoffatom pro Kubikmeter alle 300.000 Jahre aus dem Vakuum entstünde – wie sie sagten, eine viel zu geringe Rate, als dass sich dies direkt beobachten lassen würde. Einen plausiblen Mechanismus zur Erzeugung der Materie hatten sie nicht, aber die Urknalltheorie zum damaligen Zeitpunkt auch nicht, und auch sie musste ja irgendwie zu Beginn Materie aus nichts hervorbringen; das war also kein hinreichendes Gegenargument.

Das Problem der Anreicherung der Materie mit Metallen würde durch die Entstehung frischer Materie und die Verdünnung durch die fortwährende Expansion ebenso gelöst, wie das Alter der Sterne in der Milchstraße, weil stets neue, junge Galaxien entstehen würden. Die Entropie würde endlos steigen, weil stets neue Teilchen hinzukämen – mehr Teilchen bringen mehr mögliche Zustände mit und damit mehr Möglichkeiten für ungeordnete Mikrozustände (siehe Teil 2 dieser Reihe). Und das Olberssche Paradoxon würde gelöst, weil das Licht mit zunehmender Entfernung stärker rotverschoben wäre und damit an Intensität abnähme. Jenseits einer gewissen Entfernung würde die Expansion schließlich so schnell werden, dass Licht von dort niemals gegen die Raumexpansion bis zur Erde vordringen würde – trotz des unendlichen Alters und der unendlichen Größe hätte das Universum an jedem Ort einen Horizont, über den der Blick niemals hinaus reichen würde.

Alles zusammen genommen war dieses Modell in den 1950/60ern nicht weniger plausibel als die Urknalltheorie. Und es machte ĂĽberprĂĽfbare Vorhersagen. Genau wie die Urknalltheorie.

Wenn das Weltall zeitlich unveränderlich ist, so sollten die beobachteten Objekttypen in jeder Entfernung die gleiche Häufigkeit haben, denn ein Blick in die kosmologische Ferne ist stets ein Blick in die Vergangenheit. Ende der 1950er-Jahre begann man ernsthaft mit der Radioastronomie und fand "aktive Galaxien", die im Radiobereich deutlich "lauter" als andere Galaxien waren, und ab 1963 die sogenannten "Quasare", was die Kurzform für "quasistellare Radioquellen" ist: sternartige (= punktförmige) Objekte mit extrem großen Rotverschiebungen ihrer optischen Gegenstücke – so groß, dass ihre Spektrallinien zunächst gar keinen Elementen zugeordnet werden konnten, bis sie sich als Linien aus dem Ultravioletten erwiesen.

Es war lange nicht klar, was der Prozess war, der diese Objekte eine so starke Radiostrahlung aussenden ließ, aber Zählungen der Objekte ergaben bald, dass sie in zunehmender Entfernung häufiger wurden. Heute wissen wir, warum: es sind Galaxienkerne, in deren Zentrum ein supermassereiches Schwarzes Loch einfallende Materie mit hoher Rate verschlingt, die sich in einer sogenannten "Akkretionsscheibe" um das Schwarze Loch sammelt und dort durch Verdichtung und Reibung auf Millionen Kelvin aufheizt, was den optischen (und kurzwelligeren) Anteil der Quasarstrahlung liefert. Sie sind so hell, dass sie die umgebende Galaxie von teils mehreren hundert Milliarden Sternen völlig überstrahlen, so dass Kameras geblendet werden und nur den hellen Punkt im Zentrum abbilden können.

Das heiße Gas ist vollständig ionisiert, das heißt seine Elektronen und Kernteilchen bewegen sich aufgrund ihrer unterschiedlichen Massen und Ladungen unabhängig voneinander und bilden Ströme und Magnetfelder, die senkrecht zur Scheibenebene keulenförmige Jets ausformen. In den Magnetfeldern vor allem dieser Jets werden Teilchen beschleunigt und beschleunigte Ladung strahlt Radiostrahlung ab. Bei Objekten, deren Akkretionsscheibe von umgebendem Gas verdeckt ist, oder welche nicht mehr so hell leuchten, sodass die umgebende Galaxie erkennbar ist, spricht man von aktiven Galaxien; der zugrunde liegende Prozess ist derselbe und Quasare sind schlussendlich nichts anderes als Radiogalaxien mit extrem großen Materieeinfallsraten in ihre zentralen supermassereichen Schwarzen Löcher.

Wir wissen heute auch, dass so gut wie jede Galaxie ein zentrales, supermassereiches Schwarzes Loch enthält, welches potenziell ein Quasar sein könnte, wenn nur genug Materie hinein fiele. Genau dies passiert jedoch, wenn eine Galaxie entsteht und sich das sie umgebende Gas einverleibt. Wenn die Zahl von Radiogalaxien und Quasaren mit der Entfernung, sprich, mit abnehmendem Alter des Universums zunimmt, so sind vor Milliarden Jahren offenbar mehr neue Galaxien entstanden als heute. Und dies widerspricht eklatant der Steady-State-Theorie.

Die nächste Vorhersage der Steady-State-Theorie ist, dass neu entstehende Materie in Form von Elementarteilchen entsteht, die nur einfache Wasserstoff-Atome bilden können – zur Entstehung von Helium, Lithium, Beryllium und schwereren Atomkernen braucht es folglich die Kernfusion in den Sternen. Das heißt, alle Elemente außer Wasserstoff müssten in Sternen entstanden sein.

Nun weiß man sehr gut über die Kernprozesse in Sternen Bescheid. Generell gibt es eine lineare Beziehung zwischen den Häufigkeiten und den Atomgewichten der entstehenden Kerne: je mehr leichte Kerne entstehen, desto mehr schwere Elemente werden gebildet, nur relativ zum Wasserstoff umso weniger, je schwerer sie sind. Das bedeutet insbesondere, dass in jungem, unverändertem Gas mit einem Sauerstoffanteil, der gegen 0 geht, auch der Anteil anderer Elemente gegen Null gehen sollte – auch der von Helium. Trägt man die relative Häufigkeit von Sauerstoff und Helium gegeneinander auf, so sollte in der Steady-State-Theorie eine Gerade entstehen, die durch den Nullpunkt geht: wo kein Sauerstoff, da auch kein Helium.

Die Häufigkeit von Helium zu Wasserstoff (y-Achse, in Prozent der Teilchenzahl) aufgetragen über derjenigen von Sauerstoff zu Wasserstoff (x-Achse, in Zehntausendstel Anteilen der Teilchenzahl) für verschiedene Orte im Universum von der Sonne (gelbes Symbol), den Gasnebeln ("HII-Regionen") M17 und M42 in der Milchstraße, der kleinen und großen Magellanschen Wolken (SMC und LMC) bis zu extragalaktischen Gasnebeln (EG HII). Sauerstoff entsteht bei Fusionsprozessen in Sternen, und für die verschiedenen Quellen schwankt der Sauerstoffanteil sehr stark. Nicht so der Heliumanteil, der mit steigendem Sauerstoffanteil (also häufigerer Fusion in Sternen) nur geringfügig wächst und für einen Sauerstoffanteil nahe 0 nicht unter 7,5 Prozent fällt. Dies bedeutet, dass das Helium nicht in Sternen entstanden ist. Gemäß der Urknalltheorie entstand das meiste Helium in den ersten Minuten nach dem Urknall im Feuerball, entsprechend der durchgezogenen Linie, während die Steady-State-Theorie voraussagt, dass der Heliumanteil bei weniger Fusion in den Sternen gegen 0 streben sollte (gestrichelte Linie) – das ist offensichtlich nicht der Fall.

(Bild: Edward L. Wright, )

Das ist aber nicht der Fall: Wenn der Sauerstoffgehalt gegen 0 geht, verbleiben etwa 7,5 Prozent Mengenanteil an Heliumkernen. Primordiales Gas enthält also bereits Helium, und im Teil 2 dieser Reihe habe ich erklärt, wie es beim Urknall entstanden ist. Steady-State-Mitbegründer Fred Hoyle erkannte an, dass das Helium nicht in Sternen entstanden sein kann, und veröffentlichte 1964 eine Arbeit, in welcher er Fusionsprozesse bei Explosionen massiver Objekte als Ursprung des Heliums vermutete (quasi "little bangs"). Wir sehen heute Spektrallinien von Helium im Vordergrund von Quasaren und in völlig sternenfreiem, unberührtem Raum, in dem noch keine Sternentstehung und erst recht keine Explosion massiver Objekte stattgefunden haben können.

Den letzten Sargnagel fĂĽr die Steady-State-Theorie schlug dann die Entdeckung der kosmischen Hintergrundstrahlung ein. George Gamow, Ralph Alpher und Robert Herman hatten 1948 vorhergesagt, dass den Weltraum eine Mikrowellenstrahlung erfĂĽllen sollte, die aus der Zeit stammen sollte, als das heiĂźe Plasma des Urknalls zu neutralem Wasserstoff- und Heliumgas rekombinierte und das Weltall erstmals transparent wurde, sodass sich die Photonen von nun an geradlinig durch das All bewegen konnten. Da der Urknall ĂĽberall stattgefunden habe und das gesamte Universum mit diesem heiĂźen Gas angefĂĽllt gewesen sei, sollte die Strahlung von ĂĽberall her am Himmel kommen - egal in welche Richtung man schaut, schaut man gleichzeitig in die Vergangenheit und schlussendlich endet der Blick durch das transparente Universum an diesem Feuerball des Urknalls.

Dieser habe eine Temperatur von 3000 Kelvin gehabt, derjenigen einer kühlen Sternenoberfläche, und die Energieverteilung über die Wellenlängen wäre diejenige eines Temperaturstrahlers mit dieser Temperatur, eine perfekte Plancksche Strahlungskurve. Aufgrund der kosmologischen Rotverschiebung des Lichts sollte die Wellenlänge allerdings deutlich gestreckt sein und somit kein sichtbares Licht der Hintergrundstrahlung mehr im heutigen Universum unterwegs sein, sondern Mikrowellenstrahlung. Aufgrund der 1948 noch viel zu hoch geschätzten Hubble-Konstanten und damit eines deutlich jüngeren Universums prognostizierten Alpher, Herman und Gamow eine Strahlung von 28 K, entsprechend einer Rotverschiebung von ungefähr 110.

Plancksche Strahlungskurven für verschiedene Temperaturen zeigen die Verteilung der Energiedichte über der Lichtwellenlänge (hier in Nanometer) für das Licht eines Temperaturstrahlers, das heißt eines Objekts, das durch seine Temperatur selbst leuchtet (auch als Schwarzkörperstrahlung bezeichnet, da perfekt schwarze Objekte dem Spektrum kein zusätzliches reflektiertes Licht beimischen). Für abnehmende Temperatur verschiebt sich das Maximum der Kurve zu größeren Wellenlängen und die Intensität nimmt insgesamt ab.

(Bild: Wiens_law.svg:Wikimedia Commons, 4C, CC BY-SA 3.0)