Produktiver Pragmatismus

Die Theorie der Quantenmechanik gibt viele Rätsel auf. Nützlich ist sie trotzdem: Mikroelektronik, moderne Werkstoffwissenschaft, Chemie oder die Manipulation von Nano-Strukturen wären ohne sie nicht möglich

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 16 Min.

Der Preis der Erkenntnis

Ob Mikroelektronik, moderne Werkstoffwissenschaft, Chemie oder Nanotechnologie - ohne Quantenmechanik wäre vieles nicht möglich. Die Theorie gilt als geradezu sprichwörtlich rätselhaft - und bildet doch eine unser wichtigsten technologischen Grundlagen. Das ist nur deshalb möglich, weil die Physik den Streit darum, was die Theorie wirklich bedeutet, seit Jahrzehnten ad acta gelegt hat. Das könnte sich jedoch auch wieder ändern.

Am Anfang war das Bit: "Information ist der Urstoff des Universums", sagt Anton Zeilinger. Und der Mann ist kein Prediger, religöser Guru oder durch höhere Spähren schwebender Esoteriker sondern ordentlicher Professor der Experimentalphysik an der Technischen Universität Wien. In seinem Institut, in der Boltzmanngasse 9 stehen solide optische Bänke mit tonnenschweren Fundamenten, auf denen ernsthafte junge Wissenschaftler konzentriert an Lasen, Sensoren, Spiegeln, Strahlteilern und komplizierter Elektronik werkeln. Trotzdem wirft Zeilinger in seinem Buch "Einsteins Schleier" allen Ernstes die Frage auf ob der Mond wirklich existiert wenn wir nicht hinsehen.

Macht die Beschäftigung mit Quantenmechanik ein wenig verschroben? Der Deutsche Atomphysiker Werner Heisenberg hat Mitte der fünfziger Jahre geschrieben, das "Konzept der objektiven Realität" habe in der Atomphysik "keine Bedeutung", der Erfinder des Quantencomputers, Seth Tissue, hält den Kosmos selbst für einen gigantischen Quantencomputer und David Deutsch, Professor für theroretische Physik an der britischen Elite-Uni Oxford ist davon überzeugt, in einem "Multiversum" zu leben (siehe auch das Interview mit Deutsch), das sich in jeder Sekunde weiter aufspaltet. Und das mit gutem Grund: Deutsch glaubt, erst die erneute Beschäftigung mit den Grundlagen der Quantenphysik hätte zu solch aufregenden Entwicklungen wie dem Quantencomputer geführt. Auch Anton Zeilinger ist über grundlegende Experimente mit "verschränkten Photonen" zur Quantenkryptographie, der absolut sicheren Übertragung verschlüsselter Daten gekommen.

Wer sich in den Bibliotheken, Seminaren und Hörsälen umsieht, gewinnt jedoch einen ganz anderen Eindruck: Quantenmechanik ist solides, schweres mathematisches Handwerk. Nach anfänglich heftigem Streit um die Deutung der Quantenmechanik hat die große Mehrheit der Physiker den Kampf um das physikalische Verständnis dieser Theorie aufgegeben und sic auf einen "Konsens" der Interpretation geeinigt. "Es kommt immer darauf an, was sie unter verstehen verstehen", sagt Professor Gernot Alber von der TU Darmstadt. "Wenn ein Physiker etwas abbilden kann auf eine mathematische Struktur, und diese mathematische Struktur ist widerspruchsfrei, dann ist er zufrieden. In diesem Sinne haben wir die Quantentheorie sehr wohl verstanden." Stimmt schon, ohne diesen mathematischen Apparat wäre die moderne Festkörperphysik kaum denkbar - und mit ihr Elektronik, Computer und Nanotechnologie. Und keiner andere Theorie ist experimentell so heftig auf den Zahn gefühlt worden. Der so genannte Landé-Faktor eines Elektrons, der das Verhältnis zwischen dem Drehimpuls und dem magnetischem Moment eines Teilchens beschreibt, wurde bis auf zwölf Stellen genau gemessen - und stimmt mit der Theorie überein.

Was ist also dran, am Geheimnisvollen der Quantenwelt? Das ganze Dilemma lässt sich an einem klassischen Experiment zeigen, mit dem der englische Arzt Thomas Young erstmals 1802 an die Öffentlichkeit trat. Der Aufbau kommt recht unschuldig daher: Licht fällt auf eine Platte, in der zwei Spalten angebracht sind, und trifft dann weiter hinten auf einen Schirm. Beide Spalten kann man mit einem Schieber schließen. Öffnet man einen Spalt, sieht man auf dem Schirm einen verschwommenen hellen Strich. Schließt man den ersten und öffnet man den zweiten Spalt, sieht man wieder den hellen Strich - diesmal ein wenig verschoben. Öffnet man aber beide Spalten, sieht man nicht zwei verschwommene helle Streifen, sondern ein ein regelmäßiges Muster. Deckt man eine der beiden Spalten ab, verschwindet dieses so genannte Interferenzmuster wieder.

Nichts besonderes, wird der naturwissenschaftlich gebildete Leser einwenden. Licht ist halt eine Welle. Doch diese Vorstellung ist keineswegs unumstritten. Bereits im 17ten Jahrhundert tobte ein heftiger Streit um die Natur des Lichtes unter den Naturforschern. Zunächst konnte sich Isaac Newton mit der Auffassung durchsetzen, Licht bestehe aus Teilchen. Youngs Experiment schien nun denjenigen Recht zu geben, die glaubten, Licht sei eine Welle. Zu Beginn des zwanzigsten Jahrhunderts erklärte Einstein jedoch den photoelektrischen Effekt damit, Licht werde in Form von kleinen Teilchen, so genannten Photonen, von einer Quelle ausgesandt. Wenn man diese Vorstellung zu Grunde legt, gerät man in Erklärungsnöte: Wenn das Photon durch einen Spalt fliegt, woher sollte es dann wissen, ob der zweite Spalt auch offen ist oder nicht? Doch die Sache sollte noch schlimmer kommen: 1927 konnten Clinton Davisson und Lester Germer nachweisen, dass auch ein Elektronenstrahls die charakteristischen Beugunsgmuster der Interferenz zeigt, wenn er durch einen Nickel-Kristall hindurch geschickt wird. Später wurde das Experiment mit Neutronen wiederholt, in den neunziger Jahren gelang es sogar mit für atomare Maßstäbe geradezu riesenhaft großen fußballförmigen Molekülen aus 60 Kohlenstoffatomen - den so genannten Bucky Balls.

Die Interferenz von Teilchen am Doppelspalt zeigt eine weitere für die Quantenwelt ganz charakteristische Eigenart: Wenn man einzelne Teilchen durch einen Doppelspalt schickt, werden sie scheinbar zufällig abgelenkt. Es gibt keine Methode, um vorherzusagen, auf welcher Bahn ein Teilchen hinter dem Doppelspalt Richtung Schirm fliegt. Wenn man viele Teilchen hinter dem Doppelspalt sammelt, sieht man jedoch im Laufe der Zeit wieder das charakteristische Streifenmuster.

Max Born rettete die Physik mit einer kühnen Hypothese: Er ging davon aus, dass man die Bahn eines einzelnen Teilchens nicht berechnen kann. Die Wahrscheinlichkeit jedoch, das ein Elektron an einem bestimmten Ort gemessen wird, lässt sich sehr wohl berechnen - und zwar als Wurzel aus dem Quadrat einer komplexen Zahl. Diese Zahl nannte er Wahrscheinlichkeitsamplitude. Wenn ein Ereignis auf mehrere verschiedene Arten eintreten kann - wenn also das Elektron auf seinem Weg entweder durch das rechte oder das linke Loch geflogen ist -, dann ist die Wahrscheinlichlichkeitsamplitude dafür einfach die Summe der Wahrscheinlichkeitsamplituden der Einzelereignisse (Φ = Φ₁+Φ₂). Die Wahrscheinlichkeit P(Φ) für dieses zusammen gesetzte Ereignis bekommt man jedoch aus der Wurzel des Quadrates der Summe (P(Φ)=√(Φ₁+Φ₂)²=√(Φ₁²+Φ₂²+2Φ₁Φ₂)) Die zusammengesetzte Wahrscheinlichkeit entspricht also nicht einfach der Summe der Einzelwahrscheinlichkeiten - sie kann durch den dritten Ausdruck in der Klammer vergrößert oder verkleinert werden.

Und wohlgemerkt, die Rede ist hier nur noch von Wahrscheinlichkeiten. "Die Quantenmechanik kann nicht erklären, warum es an der einen oder anderen Stelle klick macht", sagt Brigitte Falkenburg, Professorin für Philosophie an der Universität Dortmund und Leiterin des Arbeitskreises Physik und Philosophie der Deutschen Physikalischen Gesellschaft. Die alte Prämisse, nach der jede Wirkung auch eine eindeutige Ursache haben muss, scheint in der Welt der kleinen Teilchen nicht mehr zu gelten. Und wenn beide möglichen Wege des Elektrons in die Rechnung mit eingehen, wieso kann man am Schluss das Elektron nur an einem Ort messen? Die Anhänger des so genannten "Kopenhagener Konsenses", der mittlerweile von den meisten Physikern akzeptiert wird, gehen davon aus, dass in der Messung des Elektrons an einem bestimmten Ort gewissermaßen die Lösung steckt. Beim Messprozess "kollabiert" die Überlagerung der verschiedenen möglichen Zustände in einen - den gemessenen - Zustand, der so "objektiviert" wird.

Dem Österreicher Erwin Schrödinger wollte diese These gar nicht gefallen - zur Widerlegung ersann er ein mittlerweile berühmtes Gedankenexperiment: In einem geschlossenen undurchsichtigen Kasten befindet sich radioaktives Material, das innerhalb einer bestimmten Zeitspanne mit 50 Prozent Wahrscheinlichkeit zerfällt. Der Zerfall eines radioaktiven Atoms setzt eine "Höllenmaschine" in Gang, die - per Giftgas oder Pistolenkugel - eine im Raum befindliche Katze tötet. Wenn die Quantenphysik auch auf makroskopische Systeme anwendbar ist, ist die Katze im geschlossenen Kasten innerhalb dieses Zeitraums also gleichzeitig lebendig und tot - eine Folgerung, die offensichtlich absurd scheint.

Die Sache wird noch komplizierter: In der Quantenmechanik lassen sich manche Größen grundsätzlich nicht gleichzeitig beliebig genau gemeinsam messen. Je genauer man die eine Größe messen kann, desto ungenauer wird die andere - das berühmteste Beispiel sind Ort und Geschwindigkeit eines Teilchens. Der Däne Niels Bohr - von vielen als einer der maßgeblichen Köpfe hinter dem Kopenhagener Konsens betrachtet - sah dahinter gar ein übergreifendes Prinzip der "Komplementarität" wirken. Wenn ich aber eine Größe nicht genau messen kann, welche physikalische Wirklichkeit kann ich ihr dann zuschreiben? Das klassische Konzept der "Bahn" eines Teilchens, die über Ort und Geschwindigkeit beschrieben wird, wird so komplett sinnlos. Macht nichts, sagen die Anhänger der Kopenhagener Deutung. Das ist nun mal so: Nur diejenigen Größen sind physikalisch real, die ich prinzipiell messen kann. Während ein Elektron also in einer Blasenkammer eine klar definierte Bahn zieht, soll diese Vorstellung von einer Elektronenbahn in einem Atom völlig sinnlos werden.

Das hat zu heftigen philosophischen Debatten geführt. Denn kann man noch von einer "objektiven Realität" sprechen, wenn diese offenbar erst durch den Messprozess erzeugt wird? Die Frage von Zeilinger wird so verständlich: Ist der Mond also tatsächlich nur dann da, wenn wir hinsehen? "Es gibt Leute, die sagen, dass die Quantentheorie nun mal eine probabilistische Theorie ist, und keine Aussagen über Einzelereignisse macht", sagt Falkenburg. "Dann gibt es die Möglichkeit daraus zu schließen, es gibt keine objektive klassische Welt, sondern die klassische Welt ist Illusion. Das ist Peter Mittelstaedts Alternative. Oder es gibt ganz viele Realitäten. Das ist meiner Meinung nach aber hochspekulative Metaphysik." Einige Wissenschaftler wie der Teilchenphysiker Fritjof Capra folgerten gar, erst das beobachtende Bewusstsein lasse die Welt entstehen - eine Schlussfolgerung, die die Physik-Philosophin Falkenburg jedoch scharf zurückweist: "Das Beobachter-Bewusstsein spielt aus der Sicht der Physiker keine Rolle", sagt Falkenburg. "Diese Verwechslung zwischen Beobachtung und Messung, die haben wir übrigens Einstein zu verdanken. Dass erst das Bewusstsein des Beobachters dazu führt, dass ein Ereignis objektiviert wird, ist eine Extremdeutung. Das gehört aus meiner Sicht eigentlich in die Esoterik-Ecke."

Bei der Berechnung der Wahrscheinlichkeiten wird oft eine Abstraktion verwendet, die der britische Physiker Paul Dirac in den zwanziger Jahren des zwanzigsten Jahrhunderts erfunden hatte: Die eckige Klammer |Φ> steht ganz abstrakt für einen quantenmechanischen Zustand - ganz unabhängig davon, wie dieser Zustand berechnet oder physikalisch interpretiert wird. Die Quantenmechanik beschreibt, wie man mit diesen abstrakten Symbolen rechnen kann - also welche mathematischen Beziehungen zwischen ihnen bestehen. Diese Beziehungen sind unter anderem dadurch vorgeben, dass die Zustände sich als Vektoren darstellen lassen, also als Größen, die sich aus Basiskomponenten zusammensetzen lassen. Eine der grundlegendsten Gleichungen der Quantenmechanik - die so genannte Schrödinger-Gleichung - beschreibt, wie sich der Zustand eines quantenmechanischen Systems mit der Zeit verändert: Die Änderung pro Zeiteinheit ist demnach proportional zum Einwirken des so genannten Hamilton-Operators auf das System: Der verknüpft die Komponenten des Eingangszustandes zu einem neuen Ausgangszustand.

Die Welt so zu sehen, verleitet Physiker wie David Deutsch und Seth Tissue zu einer interessanten Analogie: Ein Computer ist eine Maschine, die Input nach vorgegeben Regeln verarbeitet, um daraus Output zu generieren. Ein physikalisches System, das in einem Anfangszustand vorliegt, wird nach Bewegungsgesetzen nach einer gewissen Zeit in einem Endzustand vorliegen. Man kann das Verhalten pyhsikalischer Systeme also als Spezialfall von Informationsverarbeitung betrachten: Die Welt ist eine Art von Quantencomputer. "Sie und ich bestehen also nicht aus Partikeln, sondern aus Matrizen, die Messungen durchführen, auf die Welt einwirken und so weiter", erklärt David Deutsch in seiner Vorlesung zur Verschränkung. "Sie mögen diesen Gedanken vielleicht nicht - ich mag die Idee sehr - aber so funktioniert die Welt".

Und besteht nicht auch der Mond letztendlich aus mikroskopischen Teilchen, die der Quantenmechanik gehorchen - also erst Wirklichkeit werden, wenn sie gemessen werden? "Ich gehe davon aus, dass es eine klassische Welt gibt. Das ist sozusagen eine Annahme des naiven Alltagsrealismus. Das muss man voraussetzen, wenn man Physik betreiben will", sagt Falkenburg. "Ich gehe auch davon aus, dass es Atome und ihre Bestandteile in der Materie gibt. Ich gehe aber nicht davon aus, dass man die Materie vollständig von unten her erklären kann - von den Atomen und Elementarteilchen. Da steht eben das Messproblem der Quantenmechanik dahinter."

Für David Deutsch und die Anhänger der Viele-Welten-Theorie ist das eine Schein-Debatte. Deutsch ist überzeugt davon, dass die sich überlagernden Wellenfunktionen nicht kollabieren, sondern unabhängig voneinander weiter existieren. "Je tiefer und allgemeiner eine Theorie ist, desto weiter ist sie von unseren Alltagserfahrungen entfernt. Es ist also nicht erstaunlich, dass die zwei grundlegendsten Theorien der modernen Physik, die Quantentheorie und die allgemeine Relativitätstheorie sehr fremdartige, gegenintuitive Vorstellunggen beeinhalten", argumentiert Deutsch.

Die von ihm propagierte Viele-Welten-Interpretation geht auf den Physiker Hugh Everett zurück, der sie erstmals 1957 formulierte. Demnach ist der Raum, der uns umgibt ist nur ein kleiner Ausschnitt einer mehrdimensionalen Welt. Jedes Objekt erstreckt sich über mehrere Universen in einem Multiversum und die Phänomene, die wir als Quanteninterferenz kennen, beruhen auf der Wechselwirkung dieser Komponenten. Bei jedem Messprozess wird diese Überlagerung zerstört, und das Multiversum trennt sich in voneinander unabhängige Komponenten auf. "Tatsächlich ist das Multiversum die einzige Erklärung, die wirklich Sinn macht", um die objektive Realität zu erhalten meint Deutsch.

Der Amerikaner David Bohm war dagegen davon überzeugt, dass die Quantenmechanik nicht die ganze Wahrheit enthüllt. So wie Gene dafür sorgen, dass eineiige Zwillinge gleich aussehen, man diese Gene aber normalerweise nicht sehen kann, sollten auch so genannte "verborgenen Variablen oder verborgenen Parameter" das Verhalten von Quantensystemen eindeutig bestimmen. Das heisst nicht, dass verborgene Parameter prinzipiell nicht gemessen werden können - bis in die sechziger Jahre des 20ten Jahrhunderts war jedoch kein Verfahren bekannt, mit dem man diese Annahme testen konnte. Immerhin konnte der Teilchenphysiker John Bell 1961 einen Weg aufzeigen, wie man eine wichtige Frage klären konnte: Seit Einsteins Relativitätstheorie sind die Physiker davon ausgegangen, dass es nur lokale Wechselwirkungen gibt. Die Quantenmechanik funktioniert jedoch nicht unter der Annahme lokaler Variablen - sie ist nichtlokal.

Das hat verblüffende Konsequenzen: Man kann nämlich spezielle Quantensysteme erzeugen, die sich in einem überlagerten Zustand aus zwei möglichen Zuständen befinden, die nicht von ihrem Ort abhängig sind. John Bell hat dieses Phänomen anschaulich mit der "Farbe von Bertelmanns Socken" erklärt: Einer Seiner Kollegen am internationalen Teilchenforschungszentrum CERN, Reinhold Bertelmann, pflegte stets Paare von verschiedenfarbigen Socken zu tragen. Die möglichen Farbkombinationen waren aber immer festgelegt. Kam der Kollege um die Ecke, konnte man bei einem Blick auf die eine Socke bereits sagen, welche Farbe die andere Socke haben muss. Regt man beispielsweise ein zweiatomiges Molekül mit einem Eigendrehimpuls (Spin) von Null mit einem Laser derartig hoch an, dass es zerfällt, sind die beiden freiwerdenden Atome wegen der Drehimpulserhaltung bezüglich ihres Spins verschränkt. Bei einer entsprechenden Messung wird eins von ihnen den Spin +1/2 zeigen, das andere -1/2. Es ist aber zwar nicht vorhersagbar, welches der beiden Atome den positiven und welches den negativen Spin haben wird. Misst man aber den Spin eines der beiden Atome, wird dadurch der Spin des anderen festgelegt - auch wenn sich das zweite Atom am anderen Ende des Universums befindet.

Und das lässt sich mit der allgemeinen Relativitätstheorie vereinbaren? Tatsächlich kann man zeigen, dass bei der Messung an verschränkten Teilchen keine Information übertragen wird. Dennoch lassen sie sich hervorragend nutzen - beispielsweise in der Quantenkryptographie. Wer sich mit der Deutung der Quantenmechanik beschäftigt, stolpert an allen Ecken und Enden über solche scheinbaren aber auch echte Paradoxien. "Der Preis für die Anwendung der Quantenmechanik ist der Verlust der Einheit der Physik", sagt Falkenburg. "Die einheitliche Beschreibung der Physik ist meiner Auffassung nach ein Traum. Das lehrt einen auch Bescheidenheit, aber die Schönheit eines Kunstwerkes kann die Wissenschaft ja auch nicht erklären." (wst)