Quantenmechanik

Die Quantenphysik umfasst die Quantenmechanik und die Quantenfeldtheorie. Sie beschreibt alle Phänomene und Effekte, die auf Max Plancks Quantenhypothese zurückgehen, das heißt bei denen bestimmte Größen nur diskrete Werte annehmen können (siehe z.B: Welle-Teilchen-Dualismus).

Die Quantenmechanik (unscharf: neue Quantentheorie) ist eine Theorie der Physik, welche die Eigenschaften und Gesetzmäßigkeiten der materiellen Objekte im atomaren und subatomaren Bereich beschreibt. Ihre konzeptionellen und begrifflichen Grundlagen wurden zwischen 1926 und 1935 u.a. von Werner Heisenberg, Erwin Schrödinger, Max Born, Pascual Jordan, Wolfgang Pauli, Niels Bohr und Paul Dirac erarbeitet.

Die Begriffe und Konzepte der Quantenmechanik entziehen sich oftmals dem Anschauungsvermögen und widerstreben Prinzipien, die in der klassischen Physik als fundamental oder selbstverständlich gelten. Zu diesen klassischen Prinzipien zählen insbesondere: Realismus, Lokalität, Determinismus, Beobachter-unabhängigkeit und kontinuierliche Zustandsentwicklung. Durch Anwendung der Korrespondenzregeln und der Dekohärenztheorie kann aber zumindest erklärt werden, weshalb der alltägliche Mesokosmos den klassischen Prinzipien gehorcht, obwohl er aus Teilchen und Feldern besteht.

Der mathematische Formalismus der Quantenmechanik geht auf John von Neumann zurück. Alles in allem ist die Quantenmechanik - zusammen mit der Relativitätstheorie – die (1) mathematisch präziseste und (2) empirisch am besten bestätigte erfahrungswissenschaftliche Theorie überhaupt. Alle bisherigen Beobachtungen werden von ihr korrekt beschrieben und kein Experiment konnte sie bislang falsifizieren. Aber aus (1) und (2) geht noch nicht eindeutig hervor, was für eine mikroskopische Realität die Quantenmechanik beschreibt. Die ontologischen und epistemologischen Interpretationen der Quantenmechanik sind in der Regel experimentell ununterscheidbar und von daher Gegenstand der Wissenschaftsphilosophie oder Metaphysik. Einige Wissenschaftler und insbesondere Positivisten halten sie deshalb für unwissenschaftlich. Es hat sich aber herausgestellt, dass sich genuin-physikalische Begriffe wie Messung, Beobachter oder Wahrscheinlichkeit ohne intertepretativen Rahmen nicht definieren lassen. Andere Köpfe sehen die Formulierung einer einheitlichen Deutung deshalb als sinnvollen, oder gar notwendigen Bestandteil der QM an.

Die Quantenmechanik bildet die Grundlage zur Beschreibung der Phänomene der Atomphysik, Festkörperphysik sowie der Kern- und Elementarteilchenphysik, aber auch verwandter Wissenschaften wie der Quantenchemie, Quantenbiologie und Quantenfeldtheorie. Eine wichtige offene Frage ist die Beziehung der Quantenphysik zur allgemeinen Relativitätstheorie, dem zweiten Grundpfeiler der modernen Physik. Einige Phänomene im Universum, wie der Urknall oder schwarze Löcher, benötigen eine Vereinheitlichung dieser beiden Theorien beziehungsweise der vier Elementarkräfte in einer Quantengravitationstheorie. Die heißesten Anwärter dafür sind gegenwärtig die Schleifenquantengravitation und die Stringtheorie.

1. Geschichte

Die Entwicklung der Quantenphysik begann Anfang des 20. Jahrhunderts zunächst mit den sogenannten alten Quantentheorien. Diese erklärten einzelne Phänomene in mikroskopischen Größenordnungen, bei denen bestimmte Größen wie Energie oder Impuls nur bestimmte Werte annehmen konnten. Dies wurde als "Quantisierung" der Größenwerte bekannt. Max Planck stellte 1900 bspw. die Hypothese auf, dass ein Oszillator Energie nur in ganzzahligen Vielfachen des Energiequantums aufnehmen oder abgeben kann (siehe: Plancksches Wirkungsquantum). Und Albert Einstein erklärte 1905 den photoelektrischen Effekt damit, dass Strahlung und Materie nicht beliebige Energiemengen, sondern immer nur diskrete Energiepakete austauschen kann (siehe: Quantenhypothese). 1913 entwickelte Niels Bohr das nach ihm benannten Atommodell, in dem Elektronen nur Zustände von ebenfalls ganz bestimmten Energien einnehmen können (siehe: Bohrsches Atommodell).

Im Jahr 1924 veröffentlichte Louis de Broglie seine Theorie der Materiewellen, wonach Materie einen Wellencharakter und Wellen umgekehrt auch immer Teilcheneigenschaften aufweisen können (siehe: Welle-Teilchen-Dualismus). Diese Arbeit führte die bisherigen Entdeckungen auf eine gemeinsame Erklärung zurück, die aber noch heuristischer Natur war und keine genauen und damit falsifizierbaren Vorhersagen ermöglichte. Die neue Quantentheorie fand ihren Beginn erst 1925 mit der Formulierung der Matrizenmechanik durch Werner Heisenberg, Max Born und Pascual Jordan. Wenige Monate später stellte Erwin Schrödinger die Schrödingergleichung auf, mit deren Hilfe sich die Wellenfunktion lösen und in Folge das Verhalten von Teilchen beschreiben lässt.

Dabei lässt sich das Verhalten einzelner Teilchen nicht eindeutig vorhersagen, sondern immer nur Wahrscheinlichkeiten für die Messung bestimmter Messwerte angeben. Auch aufgrund dessen formulierte Werner Heisenberg 1927 die Heisenbergsche Unschärferelation und Niels Bohr und Werner Heisenberg noch im selben Jahr die Kopenhagener Interpretation der Quantenmechanik. Ab etwa 1927 vereinigte Paul Dirac die Quantenmechanik mit der Speziellen Relativitätstheorie in der sogenannten Dirac-Gleichung. Zur gleichen Zeit formulierte John von Neumann einen strengen Beweis für die Quantenmechanik und legte damit ihre mathematische Grundlage.

Weitere wichtige Entdeckungen auf dem Gebiet der Quantenphysik waren u.a. der Tunneleffekt (1926), die Quantenelektrodynamik (1947), das Neutrino (1956), der Laser (1960), Quarks (1961), die Bellsche Ungleichung (1964), die Elektroschwache Wechselwirkung (1967), Mikroprozessoren (1970), Quantenchromodynamik (1972), Magnetresonanztomographie (1973), Bose-Einstein-Kondensat (1995) und die Quantenteleportation (1997).

2. Eigenschaften der Quantenmechanik

Die folgende Darstellung orientiert sich an der Kopenhagener Deutung der QM.

2.1. Messzustand, Messgröße und Messwert

In der klassischen Mechanik lässt sich aus dem Ort und der Geschwindigkeit eines Körpers, bei Kenntnis der auf ihn einwirkenden Kräfte, dessen Bahnkurve vollständig vorausberechnen. Wenn also ein Laplacescher Dämon den Ort und die Geschwindigkeit jedes einzelnen makroskopischen Körpers im Universum und die in ihm wirkenden Naturgesetze kennen würde, dann könnte er prinzipiell die Zukunft vorausberechnen. Somit kann der Zustand eines makroskopischen Körpers eindeutig durch zwei beliebig genau messbare Größen (Ort und Geschwindigkeit) beschrieben werden. Zustand und Messwerte legen sich gegenseitig fest und müssen deshalb nicht separat behandelt werden.

In der Quantenmechanik sind der Ort und der Impuls eines Teilchens und damit auch dessen Bahnkurve nicht mehr beliebig genau vorhersagbar (Heisenbergsche Unschärferelation). Wenn also ein Streuexperiment an exakt zustandsgleichen Teilchen wiederholt wird, können diese trotzdem an unterschiedlichen Orten des Schirms auftreffen (Rutherford-Versuch). D.h. der Zustand eines Teilchens legt nicht die Messwerte fest, beide müssen separat behandelt werden.

Die messbaren Eigenschaften eines Teilchens bzw. die Messgrößen werden in der Quantenmechanik "Observablen" und die Messwerte "Eigenwerte" genannt. Ein Beispiel für eine Observable ist die abstrakte Eigenschaft "Ort" eines Teilchens und ein Eigenwert ist ein konkreter Messwert wie der "Ort x". Vor der Messung lassen sich den möglichen Eigenwerten der Observable "Ort" nur Wahrscheinlichkeiten zuordnen. Einige Eigenwerte folgen also nur möglich (indeterministisch), nicht notwendig (determinsitisch) aus den Teilchenzuständen.

2.2. Interferenz, Superposition und Welle-Teilchen-Dualismus

Eine weitere wesentliche Eigenschaft quantenmechanischer Zustände ist die Möglichkeit zur Interferenz. Ein Teilchen kann sich durch eine Überlagerung der möglichen Einzelzustände |p1 und |p2 in einem Gesamtzustand befinden (Superposition). Dieser Gesamtzustand wird mathematisch durch eine Wellenfunktion dargestellt, die sich aus der Lösung der Schrödingergleichung ergibt, welche wiederum eine Form ähnlich einer Wellengleichung annehmen kann. Die Aufenthaltswahrscheinlichkeit eines Teilchens am Ort x ergibt sich nun aus dem Betragsquadrat der Wellenfunktion |Ψ(x)|². Im Zustand |Ψ ist die Aufenthaltswahrscheinlichkeit eines Teilchens daher nicht die Summe der möglichen Eigenwerte, wie man es aus der klassischen Mechanik erwarten würde. Vielmehr können sich Teilchen wie Wellen verhalten und interferieren.

Das Doppelspaltexperiment zeigt sowohl diesen Interferenzeffekt als auch den statistischen Charakter der Quantenmechanik und ist somit ein gutes Beispiel für den Welle-Teilchen-Dualismus. Dabei werden Teilchen auf ein Hindernis mit zwei eng beieinanderliegenden Spalten geschossen und weiter hinten auf einem Schirm detektiert. Unter der Annahme des klassischen Teilchenmodells würde man auf dem Schirm zwei klar abgrenzbare Häufungen erwarten. Das tatsächliche Messergebnis sieht aber anders aus:

Koantum (CC BY-SA 3.0)

Das Messergebnis stimmt insoweit mit der Teilchenvorstellung überein, als dass jedes einzelne Teilchen auf dem Schirm genau einen Leuchtpunkt verursacht. Jedoch bilden die Leuchtpunkte keine klar abgrenzbaren Häufungen, sondern Interferenzstreifen, wie sie von klassischen Wellen bekannt sind. Diese punktierten Interferenzstreifen machen somit die die Teilchen- und Welleneigenschaften der Materie auf mikroskopischer Ebene sichtbar. Außerdem zeigen sie die statistische Wahrscheinlichkeitsverteilung der Ortsmesswerte. Wenn allerdings gemessen wird, welchen Weg ein Teilchen gewählt hat ("Welcher-Weg-Information"), benutzen auch alle anderen Teilchen diesen Weg und das Interferenzmuster wird zerstört.

2.3. Messproblem, Messprozess und Wiederholungsmessung

Die Messung spielt also eine herausragende Rolle in der Quantenmechanik. Eine Messung an einem Teilchen bestimmt mit Sicherheit den Eigenwert der gemessenen Observable. Mathematisch befand sich das Teilchen vor der Messung aber in einer Überlagerung von Eigenzuständen zu verschiedenen Eigenwerten. Trotzdem wird bei der Messung kein verwaschenes Bild von verschiedenen Eigenwerten, sondern immer ein eindeutiger Wert gemessen.  Direkt nach der Messung müsste eine Wiederholungsmessung nochmal dasselbe Ergebnis liefern, da jede Änderung der Eigenwerte Zeit braucht.

Das Messproblem besteht nun darin, dass der Teilchenzustand einerseits einer Überlagerung von Eigenwerten entsprechen soll, andererseits stets nur eindeutige Eigenwerte gemessen werden. Einerseits verläuft die zeitliche Entwicklung eines Teilchens - gemäß der Schrödingergleichung - strikt deterministisch und kontinuierlich, andererseits sind seine Eigenwerte nur statistisch vorhersagbar und werden beim Messprozess augenscheinlich diskontinuierlich festgelegt. Dieser Übergang vom Gesamtzustand in einen Eigenzustand wird auch als "Zustandsreduktion" oder "Kollaps der Wellenfunktion" bezeichnet. Laut den entsprechenden Kollaps-Theorien, zu welchen die Kopenhagener-Deutung zählt, erfolgt dieser Kollaps während dem Vorgang des Messens. Doch was genau zeichnet den Messprozess in Abgrenzung zu allen anderen physikalischen Prozessen aus? Warum befinden sich Teilchen und Messapparatur nach dem Messprozess nicht in einer gemeinsamen Superposition? Und stehen die Eigenwerte möglicherweise schon vor der Messung fest und werden vom derzeitigen Formalismus nur noch nicht erfasst? All dies sind Fragen, auf die es derzeit noch keine Antworten gibt.

Ein weiterer wichtiger Unterschied zwischen der klassischen und der quantenmechanischen Messung zeigt sich bei aufeinanderfolgenden Messungen von zwei verschiedenen Größen. Die klassische (ideale) Messung verändert das Messobjekt nicht, weshalb die Reihenfolge der Messungen unerheblich ist. Die quantenmechanische Messung verändert aber den Zustand eines Teilchens in Superposition durch eine Zustandsreduktion. Bei aufeinanderfolgenden Messungen von zwei Observablen ist die Reihenfolge daher nur unerheblich, wenn die Observablen einen gemeinsamen Eigenzustand haben. Einige komplementäre Observablen befinden sich aber niemals in einem gemeinsamen Eigenzustand, dass heißt ihre Eigenwerte können gar nicht gleichzeitig bestimmt werden. Bei diesen komplementären Observablen spielt die Reihenfolge der Messungen also immer eine Rolle. Wenn zum Beispiel der Impuls eines Teilchens genau bestimmt wird, dann ergibt sich die nachfolgende Ortsmessung aus einer unendlich breiten Wahrscheinlichkeitsverteilung. Wird aber zunächst der Ort bestimmt, dann ist danach der Impuls völlig unbestimmt.

2.4. Unschärfeprinzip, Laplacescher Dämon und Indeterminismus

Dieser Umstand wurde als erster durch Werner Heisenberg formuliert und nach ihm als Heisenbergsche Unschärferelation benannt. Nach dieser ist es prinzipiell unmöglich, zwei komplementäre Observablen gleichzeitig beliebig genau zu bestimmen. Wenn der Eigenwert für eine Observable exakt bestimmt ist (Unschärfe Null), dann ist der Eigenwert der anderen Observable völlig unbestimmt (Unschärfe unendlich). Dieser Extremfall ist jedoch nur theoretisch von Interesse, denn keine reale Messung kann unendlich genau sein. Tatsächlich entspricht der Messwert aus der Messung der Observablen A also niemals einem genauen Eigenwert, sondern immer einer Unschärfe mit dem dazu komplementärem Wert B. Der Impuls eines Teilchens kann realiter also nie genau bestimmt werden, es bleibt immer eine Unschärfe über, die den Aufenthaltsort des Teilchens eingrenzt. Für die Unschärfen ΔA und ΔB gilt:

Die durch das Plancksche Wirkungsquantum h definierte Unschärfe ist prinzipiell. D.h. selbst wenn beide Messgeräte so genau wie nur möglich messen könnten, wird die Genauigkeit der zweiten Messung durch die erste Messung beschränkt. Für das Beispiel von Ort und Impuls bedeutet das, dass die Beschreibung eines Teilchens durch eine Bahnkurve nur mit begrenzter Genauigkeit möglich ist. Auch der eingangs erwähnte Laplacescher Dämon kann folglich nicht den Ort und den Impuls und damit die Bahnkurve eines Teilchens vorhersagen. Damit kann nicht einmal ein allwissendes Wesen die Zukunft vorhersehen, da ihm durch das Unschärfeprinzip eine prinzipielle erkenntnistheoretische Grenze gesetzt ist.

Nach der Kopenhagener Deutung ist diese Grenze nicht nur epistemologisch, sondern sogar ontologisch. Das heißt die Observablen sind nicht nur in unserem mathematischen Formalismus, sondern objektiv unbestimmt. Wenn beispielsweise der Impuls eines Teilchens gemessen wird, dann befindet sich das Teilchen objektiv weder am Aufenthaltsort x noch am Aufenthaltsort y, sondern verschwimmt zu einer "Wahrscheinlichkeitswelle" (Realistische Deutung der Wellenfunktion). Wenn das stimmen sollte, dann ist die Zukunft nicht nur subjektiv unvorhersehbar, sondern auch objektiv indeterminiert. Dann folgt die Entwicklung eines quantenmechanischen Systems tatsächlich nicht aus seinen Anfangsbedingungen, weil seine Anfangsbedingungen objektiv unscharf sind.

2.5. Verschränkung, EPR-Paradoxon und Bellsche Ungleichung

Wenn zwei Teilchen miteinander wechselwirken, werden diese fortan durch einen einzigen Gesamtzustand beschrieben. Selbst wenn sich die Teilchen zuvor in klar definierten Eigenzuständen befunden haben, befinden sie sich nun in einer Überlagerung dieser Zustände. Es besteht jetzt eine Korrelation zwischen den Observablen der Teilchen. Daher bezeichnet man den Zustand der beiden Teilchen auch als "verschränkt". Wenn zwei Teilchen entsprechend präpariert werden und an einem Teilchen "Spin-up" gemessen wird, zerstört dass die Superposition und wir wissen aufgrund der Erhaltungssätze, dass das andere Teilchen den Eigenwert "Spin-down" hat.

Die Quantenverschränkung bleibt auch dann erhalten, wenn der Zeitpunkt der Wechselwirkung weit in der Vergangenheit oder die Teilchen weit voneinander entfernt liegen. Die Spinmessung an einem Teilchen legt den Spinwert des anderen Teilchens ohne Zeitverzögerung, also mit Überlicht-geschwindigkeit, fest. Diese "spukhafte Fernwirkung" und ihre scheinbare Unverträglichkeit mit der Speziellen Relativitätstheorie waren eine der Gründe, weshalb Albert Einstein die Quantenmechanik ablehnte. Er betrachtete die  Separierbarkeit und die Lokalität physikalischer Entitäten als fundamentale Prinzipen der Physik. Deshalb versuchte er zeitlebens nachzuweisen, dass die Quantenmechanik unvollständig ist und durch lokale Variablen zu einer lokalen und realistischen Theorie vervollständigt werden muss. Dafür entwarf er 1935 mit Boris Podolsky und Nathan Rosen das EPR-Gedankenexperiment.

Das Gedankenexperiment war in seiner ursprünglichen Form praktisch nicht durchführbar. John Stewart Bell gelang es 1964 jedoch, die zentralen Prämissen des EPR-Experiments in der experimentell überprüfbaren Form der Bellschen Ungleichung zu formulieren. Wenn Einstein Recht hat, dann muss das Experiment diese Ungleichung bestätigen. Alain Aspect realisiert 1982 das Experiment und zeigte, dass es die Bellsche Ungleichung verletzt und Einstein folglich falsch lag. Einsteins Theorie lokaler Variablen und der ihr zugrundeliegende lokale Realismus sind also falsifziert. Das heißt, die  Quantenmechanik muss mindestens eines der beiden Prinzipien Lokalität oder Realismus verletzen. Wenn die QM nicht-realistisch ist, dann sind Eigenwerte wie der Spin vor der Messung objektiv unbestimmt. Und wenn die QM nicht-lokal ist, dann können sich verschränkte Teilchen nicht-räumlich beeinflussen.

2.6. Dekohärenz, ununterscheidbare Teilchen und Leibniz-Prinzip

Die Dekohärenz ist ein Konzept aus der modernen Quantenmechanik, das die Unterdrückung der Kohärenzeigenschaften auf makroskopischer Ebene erklärt. Dekohärenzeffekte ergeben sich, wenn ein bislang abgeschlossenes System mit seiner Umgebung in Wechselwirkung tritt. Dadurch werden die Superposition bzw. die Welleneigenschaften des Systems zerstört.  Das Dekohärenzkonzept ist ein wichtiges Hilfsmittel zur Klärung der Frage, wieso wir makroskopische Systeme nie in einer Superposition beobachten, obwohl sie doch aus Elementarteilchen bestehen.  Schrödingers Katze befindet sich beispielsweise in einer permanenten Wechselwirkung mit seiner Umgebung und mit sich selbst und aus diesem Grund nicht wirklich in einer Superposition aus den Eigenzuständen "tot" und "lebendig".

Auf der mikroskopischen Ebene kommen Superpositionen dahingegen regelmäßig vor. Da einige komplementäre Observablen durch ihre Messung andere Messgrößen unscharf machen, ist es prinzipiell unmöglich, den Eigenzustand eines Teilchens vollständig zu bestimmen. Nur aufgrund der nicht-komplementären Observablen (wie etwa Masse oder Ladung) ist es aber unmöglich, zwei gleichartige Teilchen voneinander zu unterscheiden. Man spricht dann auch von ununterscheidbaren Teilchen.

Wenn bei einem Vielteilchensystem aus ununterscheidbaren Teilchen die Zuordnung der Teilchen geändert wird, hat dies keinerlei Auswirkungen auf die experimentellen Ergebnisse. Dadurch unterscheiden sich ununterscheidbare Teilchen empirisch in keiner Eigenschaft und widersprechen dadurch dem Leibniz-Prinzip, wonach zwei ununterscheidbare Entitäten identisch sein müssen. Sie widersprechen zudem auch der Bündelonotologie, nach der Entitäten Bündel von Eigenschaften sind. Zuletzt werfen ununterscheidbare Teilchen die Frage auf, inwiefern eine Quantenontologie und die Rede von "Teilchen" überhaupt einen Sinn machen, wenn Teilchen doch keine Individuen sind und nach Willard van Orman Quine gilt: "No entity without identity."

Stand: 2018

Kommentare: 4
  • #4

    WissensWert (Samstag, 15 September 2018 17:46)

    http://media.dav-medien.de/sample/9783777622934_p.pdf

  • #3

    WissensWert (Samstag, 15 September 2018 17:43)

    http://www.frwagner.de/qm1.html

  • #2

    WissensWert (Samstag, 15 September 2018 17:43)

    http://www.frwagner.de/qm1.html

  • #1

    WissensWert (Sonntag, 09 September 2018 21:24)

    https://www.youtube.com/watch?v=rOf8RBTCLQs


Impressum | Datenschutz | Cookie-Richtlinie | Sitemap
Diese Website darf gerne zitiert werden, für die Weiterverwendung ganzer Texte bitte ich jedoch um kurze Rücksprache.