Missing Link: Das Rätsel Dunkle Materie – auf der Jagd nach einem Gespenst

Nachdem deutlich ist, warum wir wissen, dass es Dunkle Materie geben muss, stellt sich die nächste Frage: Woraus besteht sie und wie können wir sie nachweisen?

In Pocket speichern vorlesen Druckansicht 361 Kommentare lesen

Der Galaxienhaufen MACS J0416.1–2403 im Sternbild Eridanus. Der Aufnahme des Hubble Weltraumteleskops wurde in Blau die Dichte der Dunklen Materie überlagert, die aus den deutlich sichtbaren Abbildungsverzerrungen der Hintergrundgalaxien rekonstruiert wurde.

(Bild: NASA, ESA, D. Harvey (École Polytechnique Fédérale de Lausanne, Switzerland), R. Massey (Durham University, UK) and HST Frontier Fields, CC BY 4.0)

Lesezeit: 41 Min.
Von
  • Alderamin
Inhaltsverzeichnis

Wie groß ist das Universum? Woraus besteht es? Wie ist es entstanden und wie wurde es so, wie wir es heute kennen? Mit diesen Themen beschäftigt sich die Kosmologie, die Lehre von der Entstehung und Entwicklung des Universums. Sie ist derzeit eine der spannendsten Disziplinen der Naturwissenschaft, und sie spannt einen Bogen von der Physik des Allerkleinsten zu den größten Strukturen, die wir kennen. Die neue Artikelreihe skizziert den derzeitigen Stand des Wissens und legt dar, warum die große Mehrheit der Kosmologen scheinbar so absurden Ideen anhängt wie von leerem Raum mit abstoßender Gravitation, der Entstehung des Universums aus dem Nichts und dem unsichtbaren Stoff, aus dem 95 Prozent des Universums bestehen. In den ersten drei Teilen wird es um die Dunkle Materie gehen – den unsichtbaren Elefanten der Kosmologie.

Wie im ersten Teil über Dunkle Materie erläutert, gibt es eine ganze Reihe von Beobachtungen, die darauf hindeuten, dass die sichtbaren Galaxien nur der Schaum auf einem Meer aus unsichtbarer Materie sind. Aber welche Art von Materie könnte das sein? Der einfachste Ansatz wäre natürlich, dass es sich um gewöhnliche Materie aus Atomen in irgendeiner nichtleuchtenden Form handelt. Das Weltall war nach der Entstehung angefüllt mit Gas, das beim Urknall entstand, den Löwenanteil gebildet von Wasserstoff mit einem Anteil der Masse von 76 Prozent gemischt mit 24 Prozent Helium, Spuren von Deuterium, Lithium und Beryllium, die beim Urknall entstanden sind. Vielleicht gibt es noch große Mengen Gas, das die Galaxien umgibt und die Zwischenräume zwischen ihnen ausfüllt?

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Tatsächlich findet man mit Hilfe von Röntgenteleskopen heißes Gas zwischen den Galaxien, sogar ein Mehrfaches der Masse der Galaxien selbst, aber nur 1/6 der Menge, die nötig wäre, um die Galaxienhaufen zusammenzuhalten. In der Milchstraße entstehen aus Gas und Staub neue Sterne, die die Spiralarme blauweiß leuchten lassen. Gegen die Silhouette der Milchstraße kann man mit bloßem Auge schon dunkle Bänder erkennen, in denen Staub früherer Sterngenerationen die Sterne im Hintergrund abdunkelt. Anhand der Verfärbung und Verdunklung des Lichts dahinterliegender Sterne kann man die Teilchengröße und -dichte bestimmen und damit ihre Masse.

Kaltes Wasserstoffgas verrät sich wiederum durch seine 21-cm-Strahlung und erzeugt im Durchlicht vor Sternen Absorptionslinien im Spektrum, die leicht von denen einer heißen Sternoberfläche zu unterscheiden sind. Fazit: der Staub macht nur 1 Prozent der Masse des interstellaren Mediums aus und dieses wiederum nur einen Bruchteil der gesamten Masse. In den Galaxien wiederum ist das Verhältnis zwischen der Gesamtmasse und derjenigen von Gas und Staub noch extremer als in Galaxienhaufen: lediglich 1/20 bis 1/400 der Masse im Kernbereich einer Galaxie entfällt auf Gas und Staub. Gerade dort ist die Schwerkraft der Dunklen Materie am größten.

Auch der im letzten Teil vorgestellte Bullet-Cluster spricht gegen Gas und Staub als Träger der Dunklen Materie. Dort stießen zwei Galaxienhaufen zusammen, wobei allerdings nur das großräumig verteilte Gas miteinander kollidierte, während die viel kompakteren Galaxien und Sterne einfach aneinander vorbei flogen – wie auch die Dunkle Materie, deren Gravitationslinsenwirkung auf Hintergrundobjekte verrät, dass sie bei den Galaxien geblieben ist und nicht an der Kollision des Gases teilgenommen hat.

Es ist viel leichter, Staubteilchen oder Wasserstoffgas nachzuweisen, als massivere Objekte wie Asteroiden und Planeten, denn erstere haben eine sehr viel größere Oberfläche und Ausdehnung bei gleicher Masse. Den Bullet-Cluster könnte man problemlos erklären, wenn die Dunkle Materie aus zahllosen unentdeckten Neutronensternen, Schwarzen Löchern, Braunen Zwergen oder Planemos (Planetary Mass Objects – Objekte planetarer Masse) bestünde. Zwischen ihnen wäre genug Zwischenraum, um sich kollisionsfrei passieren zu können. Der Astronom Kim Griest prägte für diese Objekte den Begriff MACHOs – "Massive Compact Halo Objects", um sie von der konkurrierenden Theorie schwach wechselwirkender Teilchen abzugrenzen (WIMPs – Weakly Interacting Massive Particles, wobei "wimp" auf Englisch "Schwächling" bedeutet).

Ende der 1980er schlugen Bohdan Paczynski und Robert Nemiroff vor, dass man den Gravitationslinseneffekt nutzen könne, um MACHOs aufzuspüren und ihre Anzahl zu schätzen. Ähnlich wie beim Gravitationslinseneffekt von Galaxien lenken auch kleinere Objekte das Licht von weiter entfernten Lichtquellen (zum Beispiel Hintergrundsternen) geringfügig durch ihre Gravitation ab. Durch Lichtbündelung erscheinen diese während ihres Wochen bis Monate dauernden Transits heller, was als "Mikrolinsen-Ereignis" bezeichnet wird. Die Astronomen errechneten, dass man auf diese Weise Objekte zwischen 100 Sonnenmassen und etwa der Masse des Mondes im Halo der Milchstraße würde aufspüren können, wenn man ein hinreichend dichtes Sternfeld im Hintergrund hätte, wie etwa die Magellanschen Wolken, zwei Satellitengalaxien der Milchstraße. Bestünde die gesamte Dunkle Materie im Halo aus solchen Objekten, dann befände sich zu jeder Zeit im Schnitt einer von 1 bis 2 Millionen Hintergrundsternen gerade in einem Mikrolinsen-Ereignis.

Das Prinzip eines Gravitations-Mikrolinsen-Ereignisses: ein dunkles Vordergrundobjekt lenkt das Licht eines dahinterliegenden Sterns ab und bündelt es kurzfristig in Richtung des Beobachters. Dadurch nimmt die Helligkeit des Sterns zu (Lichtkurve unten rechts).

(Bild: NASA Ames/JPL-Caltech/T. Pyle)

Drei Beobachtungsprojekte, (MACHO, 1992-1999), EROS (Experience pour la Recherche d'Objets Sombres, 1990-2003) und OGLE (Optical Gravitational Lensing Experiment, seit 1992) machten sich auf die Suche nach Mikrolinsen-Ereignissen in der Großen Magellanschen Wolke und wurden bald fündig. Nach den ersten Entdeckungen glaubte man 1993, das Dunkle-Materie-Problem sei gelöst. Projekt MACHO fand alleine in 5,7 Jahren rund 15 Ereignisse, eine Ereignisdichte, die konsistent mit bis zu 50 Prozent der Halomasse der Milchstraße war. EROS fand jedoch in 6,7 Jahren nur ein einziges Ereignis und schloss daraus, dass höchstens 8 Prozent der Halomasse aus MACHOs bestehen können. OGLE dauert bis heute an und das Projekt MOA (Micolensing Observations in Astrophysics) startete 2006, beide mit dem eigentlichen Ziel, nach Exoplaneten zu suchen, aber ihre zusätzliche Ausbeute an MACHOs blieb so mager, dass diese mittlerweile als Erklärung für die Dunkle Materie vom Tisch sind.

Und wenn es noch kleinere Objekte wären? Asteroiden und Kometen wären beispielsweise zu klein, um einen messbaren Gravitationslinseneffekt zu verursachen. Eine Bewertung dieser Hypothese kommt aus einer völlig anderen Ecke.

Woher stammt eigentlich das zweithäufigste Element Helium in der Sonne? Es macht 25 Prozent der Sonnenmasse aus. Zwar erbrütet die Sonne bei der Wasserstofffusion in ihrem Kern Helium, aber nur ein kleiner Teil der Sonnenmasse nimmt an der Fusion teil und es gibt keine Umwälzung bis hinauf an ihre Oberfläche, wo wir das Helium im Spektrum beobachten. Tatsächlich enthält schon das interstellare Gas einen Anteil von 25 Prozent Helium. 1995 wies die vom Space Shuttle Endeavour durchgeführte Mission Astro-2 das Helium im Vordergrund eines Quasars in einer Lichtlaufzeitentfernung von 11,3 Milliarden Lichtjahren nach. Das Gas befindet sich zwischen dem Quasar und dem Beobachter und verursacht rotverschobene Absorptionslinien im Quasarspektrum, aus deren Tiefe sich die Teilchendichte bestimmen lässt. Auch Deuterium, schwerer Wasserstoff mit einem Neutron und einem Proton im Kern, sowie kleine Mengen Lithium finden sich im ursprünglichen ("primordialen") Gas. Deuterium und Lithium werden nicht in Sternen gebildet, sondern in deren Fusionsprozessen sogar zerstört.

Helium, Deuterium und Lithium müssen also schon beim Urknall entstanden sein; man spricht von der "Big Bang Nukleosynthese" (BBN) oder "primordialen Nukleosynthese". Mit Hilfe des Standardmodells der Quantenphysik (mehr dazu später), kann man rekonstruieren, wie sie gebildet wurden. Eine Millionstel Sekunde nach dem Urknall kondensierten bei Temperaturen von einer Billion Kelvin Protonen und Neutronen aus dem vorherigen Quark-Gluonen-Plasma. Zunächst sorgten Prozesse der schwachen Wechselwirkung dafür, dass sie sich ständig im gleichen Verhältnis ineinander umwandelten und auf jedes Proton ein Neutron kam. Mit zunehmender Abkühlung überwog zunehmend der Prozess, der Neutronen in Protonen umwandelte, gegenüber dem Umkehrprozess.

Eine Sekunde nach dem Urknall war das Universum auf 10 Milliarden Kelvin abgekühlt und die Umwandlungsprozesse verebbten bei einem Verhältnis von sechs Protonen je Neutron. Kollidierende Neutronen und Protonen begannen, sich zu Deuteriumkernen (²H) zu vereinigen, die oberhalb von 3 Milliarden Kelvin jedoch immer wieder zerstört wurden, denn gemäß der Planckschen Strahlungskurve war bei dieser Temperatur jedes zehnmilliardste Photon so energiereich, dass es die Bindungsenergie von Proton und Neutron aufbrachte (2,2 Megaelektronenvolt) und jeden Deuteriumkern, der ihm in den Weg kam, sofort zertrümmerte. Bei etwa 10 Milliarden Photonen pro Kernteilchen gab es nur kurzlebiges Deuterium.

Entstehung der Elemente bis zum Beryllium bei der Urknall-Nukleosynthese. Die Farben der Pfeile symbolisieren die Häufigkeiten der Fusionsreaktionen gemäß der Legende rechts. Die schwarzen Quadrate zeigen die stabilen Elemente an, während die grauen für radioaktive Isotope derselben stehen. Das "n" steht für freie Neutronen, ihrerseits instabil. Die Zahl der Protonen im Kern ist pro Zeile gleich, ganz unten beim Neutron 0, dann 1, 2, 3 und 4. Die hochgestellten Zahlen vor den Elementen zeigen ihr Atomgewicht in Kernteilchenmassen an. ²H ist Deuterium, ³H ist Tritium. Diese Zahl minus der Protonenzahl ergibt die Zahl der Neutronen im Kern.

(Bild: Hou et al.)

Ohne Deuterium mit seinem Neutron als Klebstoff können aber keine schwereren Elemente gebildet werden, denn zwei Protonen stoßen sich aufgrund ihrer positiven elektrischen Ladungen zu stark voneinander ab, um durch die ihn ebenfalls innewohnende anziehende starke Kernkraft zusammenhalten zu können. Erst 10 Sekunden nach dem Urknall bei unter 3 Milliarden K begann das Deuterium lange genug zu überleben, um entweder mit einem weiteren Proton das Isotop ³Helium zu bilden, oder mit einem weiteren Neutron das radioaktive Tritium, auch als überschwerer Wasserstoff bekannt (³H). Das instabile Tritium gibt sein nur lose gebundenes zweites Neutron bereitwillig wieder an einen vorbei kommenden ³Helium-Kern ab, der sich somit in stabiles 4Helium wandelt, während das Tritium wieder zu Deuterium mutiert.

Nach etwa drei Minuten, waren fast alle Neutronen verbraucht und in 4Helium-Kernen gebunden. Freie Neutronen, die nicht in einem Atomkern gebunden sind, sind instabil. Sie zerfallen mit einer Halbwertszeit von rund 10 Minuten zu einem Proton (plus einem Elektron und einem Neutrino). Wie bei jeder Form von Radioaktivität kann ein bestimmtes Neutron der Zerfall auch sehr viel früher (oder sehr viel später) ereilen, so dass der Zerfall freier Neutronen in den ersten drei Minuten das Verhältnis aller Neutronen zu Protonen auf ca. 1/7 fallen ließ. Das heißt, zwei von 16 Teilchen waren Neutronen, die zum größten Teil zusammen mit je zwei Protonen in einem 4He-Kern verbaut waren. Verblieben 12 ungebundene Protonen – das macht 12/16=75 Prozent Massenanteil Wasserstoff und 4/16=25 Prozent Anteil 4Helium. Außerdem verblieben 1/100.000 Restanteil Deuterium, 1 Millionstel ³Helium und 1/10 Milliardstel Lithium.

Das geht allerdings nur so auf für ein Verhältnis von Protonen zu Neutronen von 1/7. Dafür ist wesentlich, wie viele Photonen 10 Sekunden nach dem Urknall, als das Deuterium entstand, auf jeden Deuteriumkern kamen. Bei der damaligen Temperatur hatte statistisch eines von 10 Milliarden Photonen genug Energie, einen Deuteriumkern zu zertrümmern. Hätte es weniger Photonen gegeben, so hätte Deuterium länger überlebt, weniger freie Neutronen wären zerfallen, und mehr Helium wäre gebildet worden. Mehr Photonen hätten entsprechend weniger Helium entstehen lassen. Die Photonen gingen nicht verloren, sondern blieben im Plasma gefangen, sie wurden unzählige Male gestreut, absorbiert und wieder emittiert, aber sie wurden nicht weniger. Sie wurden mit der Raumexpansion immer langwelliger und energieärmer und endeten schließlich als kosmische Hintergrundstrahlung, die wir heute als Mikrowellen auffangen können. Somit können wir bestimmen, wie viele Photonen es damals gegeben hatte.

Man kann ausrechnen, dass auf jedes Kernteilchen ungefähr 10 Milliarden Photonen kommen mussten, um das beobachtete Verhältnis von Wasserstoff zu Helium (plus übrige Kerne) hervorzubringen. Somit folgt sofort die Dichte der Baryonen, die bis heute erhalten blieben.

Theoretische Abhängigkeit des Anteils von ³Helium, 4Helium, Deuterium und Lithium (relativ zum Wasserstoff) von der Baryonendichte (x-Achse) während der primordialen Nukleosynthese. Das gelb-blaue senkrechte Band gibt den Bereich an, in dem die relativen Häufigkeiten aller 4 Elemente den heutigen Messwerten entsprechen. Gelb und Blau unterscheiden die Messungen zweier verschiedener Teams. Die schmale senkrechte Linie rechts gibt die für die heute beobachtete Expansion des Weltalls notwendige Materiedichte an. Die bayronische Materie reicht bei weitem dafür nicht aus, es fehlt ungefähr ein Faktor 20.

(Bild: Schramm & Turner)

Rechnen wir die Masse der Baryonen zusammen, so finden wir, dass sie nur 1/5 der Masse ausmachen können, die wir in den Galaxienhaufen vorfinden. Da aber alle gewöhnliche Materie aus Atomen und damit Baryonen besteht, die fast ihre gesamte Masse bilden (die leichten Elektronen spielen kaum eine Rolle), kann die Dunkle Materie keine gewöhnliche Materie sein – kein Staub, keine erloschenen Sterne und auch keine Asteroiden.

Wie sieht es aus mit Schwarzen Löchern? Im heutigen Universum entstehen Schwarze Löcher aus Riesensternen von mehr als 20 Sonnenmassen, die am Ende ihres Lebens einen Kernkollaps erleiden, oder bei der Verschmelzung von zwei massereichen Neutronensternen, wie wir dank der Messungen der LIGO- und Virgo-Gravitationswellen-Teleskope wissen. Solche Objekte begannen als baryonisches Gas, das sich zu Sternen formte und scheiden mit obiger Begründung für die Dunkle Materie aus.

Anders sähe es aus, wenn die Schwarzen Löcher schon vor der primordialen Nukleosynthese entstanden wären, denn dann hätten sie an dieser nicht teilgenommen. Schon 1974 schlugen Stephen Hawking und Bernard Carr vor, dass in der ersten Sekunde nach dem Urknall, als das Universum im Wesentlichen von Strahlung erfüllt war, lokale Verdichtungen aufgrund ihrer eigenen Schwerkraft die Raumexpansion überwunden haben und zu sogenannten "primordialen Schwarzen Löchern" kollabiert sein könnten. Auf diese Weise könnten, je nach dem gewählten Zeitpunkt, Schwarze Löcher von 10 Mikrogramm bis zu 100.000 Sonnenmassen entstanden sein – eine riesige Spanne. Allerdings müssten Schwarze Löcher von weniger als einer Milliarde Tonnen (etwa die Masse eines 1000 Meter durchmessenden Asteroiden) heute bereits durch Hawking-Strahlung zerfallen sein, oder gerade im Begriff sein, dies zu tun, was zum Beispiel im Halo der Milchstraße zu messbaren Gammastrahlenausbrüchen führen müsste. Das Fermi Gammastrahlen-Weltraumteleskop der NASA war darauf ausgelegt, solche Ausbrüche zu finden, entdeckte jedoch keine.

Die zuvor genannten Mikrolinsen-Beobachtungskampagnen schließen einen Bereich zwischen etwa der Mondmasse und 10 Sonnenmassen aus – darüber hinaus wären die Schwarzen Löcher so dünn gesät, dass die Beobachtungszeit der MACHO-Suchen zu kurz gewesen wäre, um genug davon aufzuspüren, denn ihre mutmaßliche Gesamtmasse in Form der Dunklen Materie ist ja bekannt. Je größer sie sind, desto weniger von ihnen kann es geben.

Durch verschiedene Beobachtungen ausgeschlossene Massen primordialer Schwarzer Löcher als Träger der Dunklen Materie. Auf der x-Achse unten die Masse in Gramm, oben in Sonnenmassen. Auf der y-Achse der Anteil an der Dunklen Materie – ein Faktor deutlich über 10-1 ist gesucht. Nur in den Bereichen A und D könnten Schwarze Löcher die gesamte Dunkle Materie bilden, wobei D für Galaxienhalos schon viel zu groß ist. Die Bereiche B und C könnten einen signifikanten Anteil von über 10% beitragen, aber nicht die gesamte Dunkle Materie erklären. Die übrigen Buchstaben stehen für die verschiedenen Beobachtungen, z.B. GC für Zerfallsstrahlung aus dem galaktischen Zentrum, GW für Gravitationswellenteleskope, O und EM für die OGLE-, EROS und MACHO-Beobachtungen, WB für weite Binärsysteme etc. (siehe verlinkte Arbeit).

(Bild: Bernard Carr & Florian Kuhnel)

Im Bereich 10-100 Sonnenmassen setzt die Häufigkeit der von den Gravitationswellen-Teleskopen LIGO und Virgo beobachteten Verschmelzungen Schwarzer Löcher denselben eine Grenze – diese Teleskope überblicken einen nennenswerten Teil des beobachtbaren Universums und wenn die Dunkle Materie aus Schwarzen Löchern stellarer Masse bestünde, dann müssten sie eine mindestens 10-fach höhere Rate an Ereignissen beobachten, als sie es tun.

Bei 10.000 Sonnenmassen schweren Objekten müssten diese als Gravitationslinsen von Supernovae in weit entfernten Galaxien statistisch ins Gewicht fallen, was nicht beobachtet wird. Außerdem würden sie als große Schwerkraftsenken im Plasma den kosmischen Mikrowellenhintergrund messbar beeinflusst haben. Noch höhere Massen sind aufgrund von dynamischen Effekten ausgeschlossen: beginnend bei 10 Sonnenmassen würden sie bei der nötigen Anzahl weite Doppelsterne bei dementsprechend häufigen Begegnungen nach kurzer Zeit voneinander trennen (was sich aufgrund der Häufigkeit solcher Systeme ausschließen lässt) bis hin zu Billionen Sonnenmassen, bei denen sie ganze Galaxien durch ihre Gezeitenkraft aufreiben würden.

Bliebe als vielversprechendster Bereich eine Masse von 1016 bis 1017 Kilogramm, im Massebereich großer Asteroiden. Die berechtigte Frage danach, wie viele solcher Objekte sich statistisch gesehen im Sonnensystem aufhalten sollten, lässt sich anhand der mittleren Dichte der Dunklen Materie von 6·10-28 kg/m³ berechnen. Im Volumen der Neptunbahn würde man demnach im Mittel etwa 1017 Kilogramm Dunkle Materie erwarten. Man müsste also durchaus mit 1 bis 100 von ihnen zu einer gegebenen Zeit im Sonnensystem rechnen. Sie wären allerdings mikroskopisch klein, 1 Picometer bis 0,1 Nanometer, in der Größenordnung von Atomen. Würden sie die Erde durchschlagen, so würde dies ein sehr kleines Erdbeben auslösen. Viel an Masse gewinnen würden sie dabei wegen ihrer submikroskopischen Abmessungen nicht, und sie hätten die Erde in weniger als einer Minute durchquert. Dergleichen hat man allerdings noch nie beobachtet und bei bestenfalls in der Größenordnung von 100 Stück im riesigen Sonnensystem braucht man auch nicht darauf zu warten.

Es ist folglich nicht ausgeschlossen, dass die Dunkle Materie aus primordialen Mini-Black-Holes von Asteroidenmasse besteht. Sie würden sich exakt so verhalten, wie es von der Dunklen Materie erwartet wird: sich kollisionsfrei durch den Raum bewegen, mit Photonen nicht wechselwirken (selbst Photonen des sichtbaren Lichts zu verschlucken wäre ihnen bei Abmessungen weit unterhalb der Lichtwellenlänge nicht möglich), sie hätten die primordiale Nukleosynthese nicht beeinflusst, sie wären im Sonnensystem wie auch insgesamt eher dünn gesät und mit den bisherigen Beobachtungsmöglichkeiten kaum nachzuweisen. Vorgeschlagene Prozesse ihrer Entstehung sind bisher allerdings höchst spekulativ.

Im Laufe der 1980er meldeten sich zunehmend Teilchenphysiker zu Wort und schlugen vor, dass beim Urknall neben der gewöhnlichen baryonischen Materie noch weitere Teilchenarten entstanden sein könnten, die uns bisher vollkommen entgangen sind. Das ist weniger weit hergeholt, als es zunächst klingt. Das Standardmodell der Teilchenphysik mit seinen 17 Elementarteilchen – Teilchen, bei denen wir davon ausgehen, dass sie nicht weiter zusammengesetzt, sprich "elementar", sind – wurde seit den 50er-Jahren des vergangenen Jahrhunderts entwickelt. Erst 1983 wurden die W- und Z-Bosonen experimentell nachgewiesen. Das schon 1964 vorgeschlagene Higgs-Teilchen wurde gar erst 2013 am CERN aufgespürt. Das Modell ist in sich vollständig und erlaubt extrem genaue Berechnungen einiger physikalischer Größen wie etwa des magnetischen Moments des Elektrons, das wie ein kleiner Stabmagnet wirkt.

Dieser Wert wird der Theorie gemäß von Interaktionen mit virtuellen Teilchen in seiner Umgebung modifiziert; das sind solche, die spontan im Vakuum entstehen und wieder vergehen. Man muss alle denkbaren Interaktionen mit virtuellen Vertretern des Standardteilchen-Zoos gewichtet mit ihrer statistischen Häufigkeit berücksichtigen, um das magnetische Moment korrekt zu berechnen. Etwa 10.000 verschiedene mögliche Interaktionen werden dafür berücksichtigt, alles darüber hinaus wird aufgrund von Insignifikanz ignoriert. Theorie und Messung unterscheiden sich dabei erst in der 11. signifikanten Stelle, wobei die heutigen Messungen auf sagenhafte 13 Stellen genau sind.

Die Elementarteilchen des Standardmodells mit ihren Quanteneigenschaften. Links Fermionen mit halbzahligem Spin (½), wobei die Generation I (linke Spalte) die gewöhnliche Materie bildet. Rechts die Bosonen, Teilchen der Wechselwirkung mit ganzzahligem Spin (1 oder 0). Violett die schweren Quarks, grün die leichte Leptonen, orangefarben die Bosonen der gerichteten Grundkräfte (Eich- oder Vektorbosonen), gelb das Higgs-Boson, das die ungerichtete Masse erzeugt (daher Skalarboson).

(Bild: Wikimedia Commons)

Das Standardmodell beschreibt die Elementarteilchen und ihre Wechselwirkungen. Es unterscheidet zunächst zwischen Fermionen (das sind die Teilchen der Materie, die halbzahligen Spin haben) und Bosonen (das sind die Teilchen, die die Grundkräfte zwischen den Fermionen vermitteln, denn im Standardmodell ist zum Beispiel die elektrostatische Kraft mit dem Austausch von Photonen verbunden; Bosonen haben ganzzahligen Spin). Die Fermionen unterteilen sich weiter in die schweren Quarks und leichten Leptonen. Diese bilden 3 Generationen: Das Up- und Down-Quark, aus denen Protonen und Neutronen zusammengesetzt sind, das Elektron und ein ihm zugeordnetes Neutrino (beide Leptonen) bilden die erste Generation, aus der unsere wohlvertraute Materie besteht. Die beiden anderen Generationen bestehen aus schwereren Teilchen mit höheren Massen, die nur kurzlebig sind und die in der Wildbahn lediglich als vorübergehende Zerfallsprodukte oder virtuelle Teilchen vorkommen.

Zu den Bosonen gehören die Gluonen, welche die Quarks in den Kernteilchen über die "starke Wechselwirkung" zusammenhalten, die Photonen, die die elektromagnetische Kraft vermitteln, sowie die W- und Z-Teilchen, die für die "schwache Wechselwirkung" zuständig sind, welche bei den Prozessen der Radioaktivität, Kernfusion oder Umwandlung von Teilchen eine Rolle spielt.

Wie etwa dem zuvor erwähnten Neutronenzerfall, bei dem sich ein Down-Quark unter Aussendung eines Elektrons und eines (Anti-) Elektron-Neutrinos in ein Up-Quark umwandelt, so dass aus dem Neutron ein Proton wird. Zu den Bosonen gehört auch das Higgs-Teilchen, ein Anregungszustand des Higgs-Felds, welches den (meisten) anderen Elementarteilchen ihre Ruhemassen gibt (bis auf die masselosen Photonen und Gluonen). Möglicherweise gibt es auch ein Boson der Gravitation, genannt Graviton, das bisher hypothetisch ist und über das Standardmodell hinaus geht.

Zu allen Fermionen gibt es Antiteilchen mit umgekehrten Ladungen und ansonsten gleichen Eigenschaften. Die Antiteilchen der Bosonen sind andere Bosonen oder sie selbst. Damit ist das Standardmodell komplett und man kann damit so gut wie alle Prozesse der Quantenwelt erklären. Bis auf wenige Ausnahmen.

Zum Ersten wäre da die Asymmetrie von Materie und Antimaterie (Baryonenasymmetrie). Beim Urknall waren die Temperaturen in der ersten zehnmilliardstel Sekunde so hoch, dass nur Strahlung existieren konnte. Mit zunehmender Expansion bildeten sich aus der Strahlung Teilchen-Antiteilchen-Paare – die Umkehrreaktion zur bekannten Paarvernichtung von Teilchen und Antiteilchen zu Strahlung. Nach der Standardtheorie hätte mit weiterer Abkühlung und Ausdünnung der Strahlung die Paarvernichtung schließlich die Oberhand gewonnen und alle entstandene Materie wieder in Strahlung zurückverwandelt, und dann gäbe es heutzutage nur Hintergrundstrahlung, aber keine Sterne, keine Planeten, keine Leute und keine Giraffen. Dass es Giraffen gibt, zeigt jedoch, dass das Standardmodell nicht die ganze Wahrheit sein kann, denn offenbar ist ein kleiner Überschuss von etwa einem Milliardstel Anteil Materie verblieben, der keine Antimaterie zur Paarvernichtung mehr fand.

Zum Zweiten sagt das Standardmodell voraus, dass Neutrinos in gleicher Anzahl rechts- oder linkshändig sein sollten. Teilchen sind "rechtshändig", wenn ihr Spin, eine Art quantenmechanische Rotation, in der gleichen Richtung orientiert ist wie ihre Bewegungsrichtung. Formt man mit der rechten Hand eine Daumen-Hoch-Geste, zeigt der Daumen in Bewegungsrichtung und die übrigen Finger in Rotationsrichtung. Weist der Spin in die Gegenrichtung, dann zeigt die linke Hand mit Daumen-Hoch-Geste die Rotationsrichtung mit vier Fingern an, also ist das Teilchen "linkshändig". Alle drei Neutrinoarten sind aber Linkshänder.

Und zum Dritten passen die Massen der Elementarteilchen von der Größenordnung nicht zu den Werten der physikalischen Konstanten des Universums, namentlich die Lichtgeschwindigkeit, das Plancksche Wirkungsquantum, die Boltzmann-Konstante, die Coulomb-Konstante und die Gravitationskonstante. Auf ihrer Basis lässt sich ein ganzes System von elementaren Einheiten für Zeit, Länge, Ladung, Temperatur und Masse zusammenstellen. Man würde erwarten, dass die Masse der Elementarteilchen in der Nähe der Planck-Masse liegt. Diese ist mit 1,221·1022 MeV/c² jedoch ganze 17 Zehnerpotenzen größer als die des Higgs-Teilchens, und da es die Masse der anderen Elementarteilchen bestimmt, sollten deren Massen vergleichbar groß sein (Hierarchieproblem).

Wenn man über das Standardmodell hinaus gehen will, braucht man neue Teilchen, da es in sich abgeschlossen ist. Ihre Postulierung ist deshalb nicht abstrus, sondern im Gegenteil natürlich. Sie werden regelrecht benötigt. Es gibt es ganze Palette von vorgeschlagenen Erweiterungen, mit denen man die obigen Probleme (und weitere) erklären könnte. Dass wir diese Teilchen nicht schon lange kennen, lässt sich damit begründen, dass sie mit den bekannten Teilchen nicht oder nur sehr selten interagieren. Die größte Reichweite unter den in der Quantenwelt wirkenden Kräften hat die elektromagnetische Kraft. Deswegen verraten sich Teilchen, die elektromagnetisch wechselwirken, sofort – sie interagieren mit Protonen, Neutronen (die im Kern elektrisch geladene Quarks enthalten) oder Elektronen, stoßen und streuen sie, sorgen oft für das Aussenden von Licht oder schlagen Elektronen aus Atomen oder Kernteilchen aus Atomkernen.

Erheblich kleiner ist die Reichweite der schwachen Wechselwirkung, an der alle bekannten Teilchen partizipieren, allerdings nur, wenn sie sich extrem nahe kommen. Alle Fermionen spüren die elektromagnetische Kraft – außer den Neutrinos, die nur für die schwache Wechselwirkung empfänglich sind. Sie sind in diesem Sinne "dunkel". Und genau deswegen ist das Neutrino so schwer nachzuweisen. Ein Neutrino könnte im Mittel einen Block aus Blei mit einer Länge von einem Lichtjahr (10 Billionen Kilometer!) durchfliegen, bevor es einem Blei-Atomkern nahe genug käme, um mit ihm über die schwache Wechselwirkung zu interagieren. Und dazu muss die Teilchenenergie auch noch passend sein; wie bei den Elektronen in den Schalen von Atomen mögen die Teilchen im Kern nicht mit Teilchen beliebiger Energie interagieren. Es ist also durchaus möglich, dass es schwach wechselwirkende Teilchen gibt, die wir bisher noch in keinem Experiment gesehen haben. Und solche Teilchen könnten in hinreichender Zahl die Dunkle Materie bilden.

Aber wie sieht es mit den Neutrinos selbst aus? Könnten sie nicht die Dunkle Materie bilden? Die Idee ist verlockend. Es gibt sie in extrem großer Zahl und sie haben genau die gesuchte Eigenschaft, mit Materie so gut wie nicht zu interagieren und stabil zu sein. Sie könnten bei der Materie-Antimaterie-Zerstrahlung in großer Zahl übrig geblieben sein. Hätten sie eine Masse von nur 10 Elektronenvolt/c², dann wären sie schwer genug, um die Dunkle Materie zu bilden (Elektronen haben hingegen eine Masse von 511.000 eV/c²). Diese Theorie wurde bis in die 1980er ernsthaft diskutiert.

Wir wissen heute, dass Neutrinos eine Ruhemasse haben müssen, aber die letzten Messungen schließen bereits einen Wert von mehr als 0,8 eV/c² aus – das ist so wenig, dass sie sich aus quantentheoretischen Gründen nicht einmal dicht genug packen lassen würden, um die gemessene Dichte der Dunklen Materie aufzubringen (Pauli-Prinzip der Fermionen). Außerdem sind sie stets mit fast Lichtgeschwindigkeit unterwegs, sodass kein Galaxienhaufen sie festhalten könnte. Man spricht bei schnellen Teilchen von "heißer Dunkler Materie". Gesucht wird "kalte" oder höchstens "warme" mit langsamen, schweren Teilchen. Und die findet man nicht im Standardmodell.

Im Frühjahr dieses Jahres ging eine Meldung durch die Presse, dass das magnetische Moment des Myons mit hoher Präzision am Fermilab gemessen wurde und es in der achten signifikanten Stelle vom theoretischen Wert laut Standardmodell abweiche – Myonen sind kurzlebig und die Messung ihres magnetischen Moments ist schwieriger als beim Elektron, aber die Abweichung vom theoretischen Wert ist hier 1000-Mal größer als beim 200-Mal leichteren Elektron und sie ließe sich durch neue, nicht im Standardmodell enthaltene Teilchen erklären – oder alternativ dadurch, dass der numerisch ermittelte theoretische Wert bislang falsch berechnet wird. Aber vielleicht ist dieses Experiment der erste Hinweis auf neue Teilchen jenseits des Standardmodells.

Um neue Teilchen zu finden, muss man eine Theorie darüber haben, welche Eigenschaften sie haben sollen, damit man Experimente entwerfen kann, mit denen man gezielt nach ihnen suchen kann. Die Supersymmetrie (SuSy) erschien ursprünglich als vielversprechender Ansatz. Ihre Motivation ist die folgende: Das Elektron ist im Rahmen der Messgenauigkeit punktförmig. Es hat ein elektrisches Feld, dessen Feldstärke mit fallendem Abstand zunimmt. In einem elektrischen Feld steckt Energie. Wenn das Elektron ein Punkt ist, müsste das elektrische Feld an der Stelle des Elektrons unendlich stark werden und unendlich viel Energie enthalten, was nicht stimmen kann. Rechnet man die Ausdehnung aus, die das Elektron gemäß seiner Energie (511 kev/c²) eigentlich haben müsste, kommt man auf einen Durchmesser, der größer als derjenige des Protons ist – was auch falsch ist. Tatsächlich rettet die Existenz seines Antiteilchens, des Positrons, die Kalkulation.

In der Quantenfeldtheorie produziert das Elektron sein Antiteilchen als virtuelles Teilchen mit umgekehrter Ladung, das sein eigenes Feld teilweise kompensiert, ohne ansonsten in Erscheinung zu treten. Virtuelle Teilchen "borgen" sich im Rahmen der Heisenbergschen Unschärferelation kurzfristig Energie aus dem Vakuum, die sie, je größer die Energie ist, nach umso kürzerer Zeit wieder durch ihre Auflösung zurückgeben müssen. Löst man die Quantenfeldgleichungen unter Berücksichtigung des virtuellen Positrons, ergibt sich die winzige Größe.

Ein ähnlicher Mechanismus könnte das Hierarchieproblem lösen, warum die Teilchenmassen so viel kleiner sind als die Planck-Masse. Dazu bedürfte es zu jedem Fermion eines "Superpartners" mit gleichen Quantenzahlen, aber mit ganzzahligem Spin, also eines Bosons (Austauschteilchen), sowie zu jedem Boson eines entsprechenden Partners mit halbzahligem Spin, eines Fermions (Materieteilchen). Virtuelle Superpartnerteilchen würden die Massen der Standardmodell-Teilchen bis auf einen kleinen Restbetrag kompensieren können. Mit SuSy ließe sich zudem die Materie-Antimaterie-Asymmetrie sowie weitere Probleme der Quantenphysik lösen, wie etwa die so unterschiedlichen Stärken der vier Grundkräfte, die in den "Großen Vereinheitlichenden Theorien" bei hohen Temperaturen in einer einzigen Kraft aufgehen sollen.

Die Superpartner wären alle vergleichsweise massereich, deswegen hätten sie sich in Beschleunigern noch nicht blicken lassen. Denn diese müssten die zu ihrer Erweckung als nicht-virtuelle Teilchen nötige Energie durch die Kollision viel leichterer Standardmodellteilchen aufbringen. Unter ihnen wären einige elektrisch neutrale Fermionen, die nur die schwache Wechselwirkung spürten und somit als Dunkle-Materie-Teilchen infrage kämen, etwa die elektrisch neutralen Superpartner des Photons (Photino), des Z-Bosons (Zino), oder des Higgs-Bosons (Higgsino), zusammen auch als "Neutralinos" bezeichnet. In der Natur entstanden, würden die meisten von ihnen rasch in leichtere Teilchen zerfallen. Zumindest das leichteste Neutralino (welches von den genannten Kandidaten es auch immer sei) sollte jedoch stabil sein.

Die Standard- und SuSy-Teilchen des "Minimalen Supersymmetrischen Standardmodells" MSSM, einer einfachsten vorgeschlagenen Variante der Supersymmetrie. In dieser gibt es noch ein zweites, schwereres Higgs-Teilchen auf der Standardmodell-Seite. Die Superpartner der Fermionen heißen Squarks und Sleptonen (allen Standard-Teilchen wird im Namen des Superpartners ein S vorangestellt, z.B. Sup-Quark, Selektron, Stau-Neutrino), diejenigen der Bosonen enden auf ~ino (Photino, Gluino, Zino, Wino, Higgsino).

(Bild: Dmitry Kazakov)

Der Nachweis dieser Teilchen sollte ähnlich wie bei den Neutrinos über die schwache Wechselwirkung erfolgen. Wenn die Dunkle Materie aus Elementarteilchen bestünde, dann müsste es zum Aufbringen der nötigen Masse so viele davon geben, dass man sie auch auf der Erde finden sollte. Neutralinos sollten in geeigneten Detektoren hin und wieder mit einem Atomkern oder einem Elektron interagieren, wenn sie ihm nur nahe genug kämen; man spricht vom energieabhängigen "Wirkungsquerschnitt" eines Teilchens, das ist die gedachte Kreisfläche um das Teilchen herum, innerhalb deren ein passierendes anderes Teilchen der entsprechenden Energie mit dem Teilchen interagieren kann.

Eine ganze Reihe von Detektoren wurde gebaut, tief unter der Erde oder im Inneren von Bergen, um gewöhnliche Standardmodell-Teilchen der kosmischen Strahlung abzuschirmen, überwacht von Sensoren für ultraviolette Tscherenkow-Strahlung, radioaktive Strahlung, Ionisation und bei Zerfällen freiwerdende Wärme. Einige verwenden als Detektormedium knapp unter die Temperaturschwelle der Supraleitung gekühlte dotierte Kristalle, so dass eine Reaktion die Supraleitung lokal messbar unterbricht, wie etwa CDMS (Cryogenic Dark Matter Search), EDELWEISS (Experience pour DEtecter Les Wimps En Site Souterrain) oder CRESST (Cryogenic Rare Event Search with Superconducting Thermometers), andere setz(t)en auf flüssiges Xenon als Detektormedium, z.B. LUX (Large Underground Xenon experiment), LZ (LUX-ZEPLIN) und XENON.

Durch wachsende Detektorvolumina und empfindlichere Sensorik wurde der für Interaktionen noch zulässige Wirkungsquerschnitt über die Jahrzehnte immer weiter verkleinert, aber keine schwachen Interaktionen mit supersymmetrischen Teilchen nachgewiesen. Auch mit dem LHC-Beschleuniger am CERN, mit dem man fest erwartet hatte, wenigstens das leichteste supersymmetrische Teilchen erzeugen zu können, fand man nichts.

Entwicklung des messbaren Wirkungsquerschnitts für ein hypothetisches 50 GeV/c² Dunkle-Materie-WIMP-Teilchen. Seit 1985 haben Experimente den noch möglichen Querschnitt auf ein 10 bis 100 Millionstel verkleinert: innerhalb dieser Fläche um ein hypothetisches Teilchen traten keine messbaren Wechselwirkungen mit den Teilchen im Detektormedium ein. Die unterschiedlichen Symbole spiegeln die verwendeten (gefüllte Symbole) bzw. 2013 geplanten (hohle Symbole) Detektortechnologien wider, von einfachen Kristallen (Quadrate) über supraleitende Kristalle (Kreise), flüssiges Xenon (Dreiecke), flüssiges Argon (Rauten) bis zu Schwellwert-Detektoren (umgedrehtes orangefarbenes Dreieck). Bis heute hat auch keines der 2013 noch geplanten Experimente ein WIMP-Teilchen nachgewiesen.

(Bild: Dmitry Kazakov, 2013)

Lediglich das Experiment DAMA/NaI (heute: DAMA/LIBRA) am Gran Sasso Laboratorium in der italienischen Region Abruzzen östlich von Rom konnte eine heute noch beobachtete jahreszeitliche Variation eines Signals vermelden, wie man sie erwarten würde, wenn die Erde sich beim Umlauf um die Sonne mit variierender Geschwindigkeit durch die Dunkle Materie der Milchstraße bewegte. Ein anderes, gleichartiges Experiment ANAIS konnte das Ergebnis jedoch nicht reproduzieren und da auch die vorgenannten, empfindlicheren Experimente nichts gesehen haben, dürfte es sich bei DAMA um irgendeinen anderen Effekt oder Fehler handeln. Die Supersymmetrie gilt vielen Physikern mittlerweile als tot. Tatsächlich könnten die Superpartner auch einfach viel zu massiv sein, um mit heutiger Beschleunigertechnik nachgewiesen zu werden. Beides sind Gründe dafür, warum sich viele Physiker und Kosmologen derzeit von ihr abwenden.

Die Quantenchromodynamik (QCD) ist eine Disziplin der Quantenphysik, die sich mit der von den Gluonen vermittelten starken Wechselwirkung zwischen den Quarks beschäftigt und diese mit hoher Präzision beschreibt. Sie hat allerdings einen Schönheitsfehler, denn sie sagt voraus, dass das Neutron eigentlich ein elektrischer Dipol sein müsste. Das Neutron besteht aus einem Up-Quark mit +2/3 Elementarladungen und zwei Down-Quarks mit je -1/3 Elementarladung. Die Anordnung der Quarks lässt sich durch einen Winkel θ (kleines griechisches Theta) charakterisieren (siehe Bild). Bei fast allen Werten von θ wäre das Neutron ein Dipol, das heißt eine Seite (wo sich das Up aufhält) wäre positiv geladen, die gegenüberliegende Seite entsprechend negativ.

(Bild: Anson Hook))

Allen Messungen gemäß hat das Neutron jedoch kein Dipolmoment, und das bedeutet, dass die Anordnung der Quarks im Schnitt nahezu so aussehen muss:

(Bild: Anson Hook)

θ ist hier 180°. Aber warum sollte dieser Winkel stabil sein? Roberto Peccei und Helen Quinn schlugen 1977 vor, dass der Wert von θ von einem Quantenfeld bestimmt wird, das bei 180° seinen kleinsten, stabilsten Wert hat. Wie alle quantenphysikalischen Felder hat auch dieses Feld ein zugehöriges Anregungsteilchen, genannt Axion. Das Axion wäre ein weiteres Boson mit einer winzigen Masse in der Größenordnung von vielleicht 10 bis 1000 Millionstel eV/c². Axionen wären stabil und könnten in sehr großer Zahl beim Urknall gebildet worden sein. Als Bosonen unterliegen sie nicht dem Pauli-Prinzip und könnten beliebig dicht gepackt werden. Sie könnten sogar in solcher Dichte entstanden sein, dass das frühe Universum an den meisten Orten gleich wieder kollabierte und nur wenige Zonen mit geringerer Dichte könnten expandiert sein und ein Universum hervorgebracht haben, in dem es uns geben kann.

Das Axion wäre kein WIMP, sondern ein "WISP" (Weakly Interacting Sub-eV Particle), es würde die schwache Wechselwirkung spüren, aber wegen seiner geringen Energie dennoch nicht mit Kernteilchen oder Elektronen interagieren. Es wäre auch nicht vollkommen "dunkel", sondern könnte durchaus elektromagnetisch interagieren, allerdings ähnlich selten wie das Neutrino schwach wechselwirkt. In einem sehr starken Magnetfeld könnten Axionen sich zu Photonen umwandeln und umgekehrt. Ein Prinzip von Experimenten versucht, kosmische Axionen extrem hohen Magnetfeldern auszusetzen, um daraus nachweisbare Mikrowellen-Photonen entstehen zu lassen, die in einem Resonanzgefäß festgehalten und so aufaddiert werden.

Bei HAYSTAC (Haloscope At Yale Sensitive To Axion CDM) und ADMX (Axion Dark Matter Experiment) lauscht (oder besser spinkst) man nach den Axionen des Milchstraßenhalos; bei ALPS II (Any Light Particle Search II) und OSQAR (Optical Search for QED Vacuum Bifringence, Axions and Photon Regeneration) am CERN versucht man hingegen, die Axionen zum Nachweis in ausreichender Menge selbst zu produzieren: starke Laserstrahlen sollen bei großen Magnetfeldstärken einige Photonen in Axionen umwandeln, die im Gegensatz zum Laserlicht eine massive Wand durchdringen können, hinter der sie wieder rückgewandelt in Photonen detektiert werden sollen. Schließlich gibt es Vorschläge, nach der Strahlung von im Magnetfeld von Neutronensternen umgewandelten Axionen zu suchen – insbesondere Magnetare übertreffen die Feldstärken der stärksten irdischen Magnete teils um das Hundertmillionenfache.

Im vergangenen Jahr ließ jedoch das bereits genannte XENON-Experiment die Fachwelt aufhorchen, dem der Nachweis von besonders energiereichen Axionen (1-7 keV/c²) aus dem Inneren der Sonne gelungen sein könnte. Allerdings könnte auch eine Verunreinigung des Detektormaterials mit radioaktivem Tritium ein ähnliches Signal produzieren – hier müssen noch weitere Daten mit dem aktuellen, empfindlicheren XENONnT-Detektor gesammelt werden, um sicher zu sein.

Und wenn sie nicht einmal schwach wechselwirken? Nach dem Standardmodell gibt es drei Arten von Neutrinos (auch Flavours – Geschmäcker – genannt): Elektron-, Myon- und Tau-Neutrinos. Sie heißen so, weil sie bei Prozessen entstehen, bei denen die selbigen Teilchen zusammen mit ihnen entstehen. Ursprünglich hielt man die drei Neutrinoarten für voneinander unabhängige Teilchen, die wie das Photon keine Ruhemasse haben und daher immer mit Lichtgeschwindigkeit unterwegs sein müssen. Als man mit großen Detektoren Neutrinos auffing, die aus den Kernfusionsreaktionen im Inneren der Sonne hervorgegangen waren, fand man jedoch nur 1/3 der erwarteten Elektron-Neutrinos (die Detektoren waren blind für die anderen Neutrinoarten).

Das Rätsel konnte Ende der 1990er gelöst werden, als Experimente ergaben, dass die Neutrinoarten sich ineinander umwandeln: Die in der Sonne erzeugten Elektron-Neutrinos haben sich auf dem Weg zur Erde zum Teil in die anderen Flavours umgewandelt und nur ein Drittel von ihnen befindet sich im Detektor gerade im Zustand "Elektron-Neutrino". Der Wandel-Mechanismus erfordert, dass sie eine Ruhemasse haben, und die spezielle Relativitätstheorie verlangt von Teilchen mit Ruhemasse, dass sie langsamer als das Licht unterwegs sein müssen.

Neutrinos sind ein typisches Beispiel dafür, was Quantenobjekte von klassischen Objekten unterscheidet: Sie sind nicht kleine Kügelchen mit festen Eigenschaften wie etwa einer bestimmten Masse, sondern sie befinden sich in einem quantenmechanischen Zustand der Überlagerung. Und zwar überlagern sich bei ihnen sogenannte "Eigenzustände" der Masse, deren Mischungsverhältnis oszilliert (schwingt), so dass mal der eine und mal die anderen beiden Flavours in der Überlagerung zum Vorschein kommen. Die Neutrinoflavours wandeln sich über eine Strecke ineinander um, die umso kleiner ist, je größer die Differenz der Quadrate ihrer Massen-Eigenzustände ist (wären zwei Neutrinomassen Null, dann wäre die Differenz ihrer Massenquadrate 0 und diese Strecke unendlich, ergo würden sie sich nicht umwandeln können, daher wissen wir, dass mindestens zwei Neutrinomassen größer als 0 sein müssen).

Veranschaulichung der Oszillation von frisch produzierten Elektron-Neutrinos (schwarz) in Myon- (blau) oder Tau-Neutrinos (rot). Auf der y-Achse die Wahrscheinlichkeit jedes Neutrino-Flavours, ihn in einer bestimmten Entfernung von der Quelle anzutreffen, und auf der x-Achse die Entfernung von der Quelle dividiert durch die Energie der Neutrinos in Gigaelektronenvolt. Da die Neutrinomassen noch nicht bekannt sind, beruht das errechnete Diagramm auf hypothetischen Werten, siehe Link zur Bildquelle.

(Bild: Wikimedia Commons)

Durch Messung der Umwandlungsstrecken versuchen Physiker, auf die Massen rückzuschließen, so zum Beispiel mit dem MiniBooNE-Experiment am Fermilab in der Nähe von Chicago. Dort misst man mit einer 500 Meter vom Detektor entfernten Myon-Neutrinoquelle, wie viele Myon- und Elektron-Neutrinos im Detektor aufgefangen werden, um so über die Statistik auf die Umwandlungsstrecke zu schließen. Über diese kurze Strecke sollte sich nur eine kleine Zahl von Myon-Neutrinos in Elektron-Neutrinos umwandeln. 2018 fand das Fermilab-Team jedoch deutlich mehr Elektron-Neutrinos als erwartet.

Dies ließe sich durch mindestens eine vierte Neutrinoart mit großer Masse erklären, die zusätzliche Umwandlungen verursacht, und es gibt Theorien, die die kleine Masse der drei leichten Neutrinos mit drei schweren (1-100 keV/c²) rechtshändigen Neutrinos erklären (vgl. Hierarchieproblem oben). Diese können zudem nicht schwach wechselwirken, denn sonst gäbe es zusätzliche Quarks und Leptonen, mit denen sie entsprechend den Elektron-, Myon- und Tau-Neutrinos spezifische Interaktionen der schwachen Wechselwirkung eingehen würden – und die hätte man längst gefunden. Deswegen nennt man sie "sterile Neutrinos", im Gegensatz zu den drei bekannten "aktiven" Neutrinos.

Nicht schwach wechselwirkende Neutrinos hoher Masse wären in keinem herkömmlichen Neutrinodetektor nachzuweisen, sondern nur über ihre Schwerkraftwirkung auf kosmologische Objekte, was es sehr schwer machen würde, sie als Träger der Dunklen Materie dingfest zu machen. Das Experiment Katrin versucht, Neutrinos zu "wiegen", die beim radioaktiven Zerfall entstehen, indem die Energien der außerdem entstehenden Teilchen gemessen werden – was bei diesen an Differenz zur bekannten Zerfallsenergie fehlt, muss im Neutrino stecken, und hier sucht man die untere Grenze. Dabei könnten auch sterile Neutrinos entstehen und sich wiegen lassen.

Möglicherweise sind sie auch nicht stabil; dies sagen einige Theorien voraus, denen gemäß sie mit einer Halbwertszeit von weit mehr als dem Alter des Universums in 2 Photonen zerfallen können. Statistisch gesehen müsste ein kleiner Teil von ihnen dann auch schon heutzutage zerfallen und wir könnten die Strahlung theoretisch aufspüren. 2014 beobachteten mehrere Teams tatsächlich mit den Weltraum-Röntgenteleskopen Chandra, XMM-Newton, NuStar und Suzaku eine nicht-thermische Strahlungsspitze von 3,55 keV an Photonenenergie in der Andromeda-Galaxie, mehreren Galaxienhaufen und dem Zentrum der Milchstraße, was für die Existenz eines sterilen Neutrinos von 7,1 keV/c² sprechen könnte. Falls sich keine einfachere Erklärung findet.

Es gibt also durchaus ein paar Kandidaten für die Dunkle Materie, aber vielleicht ist das entscheidende Teilchen auch noch gar nicht erdacht. Manche werfen den Quantenphysiker vor, sie hätten sich mit ihren Modellen verrannt und ihre Suche nach einfachen, symmetrischen Lösungen sei voreingenommen – die Welt sei nicht notwendigerweise einfach, schön und symmetrisch. Wir können aber ziemlich sicher sein, dass das Standardmodell der Teilchenphysik nicht das letzte Wort in Sachen Elementarteilchen sein wird. Vielleicht stehen wir kurz vor einem Durchbruch, vielleicht erlebt auch niemand unserer Zeitgenossen die Entdeckung des oder der Dunkle-Materie-Teilchen. Die meisten Kosmologen halten an der Teilchentheorie fest, weil zusätzliche Teilchen fast unvermeidlich sind, um einige quantenphysikalische Probleme zu lösen. Vielleicht sind es auch mikroskopische primordiale Schwarze Löcher. Oder eine Kombination aus beiden. Vielleicht gibt es sie aber auch gar nicht und die beobachteten Effekte haben eine ganz andere Erklärung. Mit möglichen Alternativen beschäftigen wir uns im dritten und letzten Teil über die Dunkle Materie.

Quellen:

(mho)