Einführung in die Quantenphysik · Quantum Metropolis software

Software basierend auf der Störungstheorie und der Monte-Carlo-Berechnungsmethode. Werkzeug für die Arbeit im Labor, für die Forschung, für die Industrie und für das Bildungswesen. Anwendungen in Physik, Chemie und Ingenieurwissenschaften.

camara3
QNuclei · Quantum Metropolis software

Einführung

Quantenmechanik ist das Studium der Materie und ihrer Wechselwirkungen mit Energie auf der Ebene atomarer und subatomarer Teilchen. Im Gegensatz dazu erklärt die klassische Physik Materie und Energie nur auf einer Skala, die der menschlichen Erfahrung vertraut ist, einschließlich des Verhaltens astronomischer Körper wie des Mondes. Die klassische Physik wird immer noch in vielen modernen Wissenschaften und Technologien verwendet. Gegen Ende des 19. Jahrhunderts entdeckten Wissenschaftler jedoch sowohl in der großen (Makro) als auch in der kleinen (Mikro) Welt Phänomene, die die klassische Physik nicht erklären konnte. Der Wunsch, Widersprüche zwischen beobachteten Phänomenen und der klassischen Theorie aufzulösen, führte zu zwei großen Revolutionen in der Physik, die eine Verschiebung des ursprünglichen wissenschaftlichen Paradigmas bewirkten: die Relativitätstheorie und die Entwicklung der Quantenmechanik. Dieser Artikel beschreibt diese Konzepte ungefähr in der Reihenfolge, in der sie zuerst entdeckt wurden.

Licht verhält sich in gewisser Weise wie Teilchen und in anderer Weise wie Wellen. Materie, der „Stoff“ im Universum, der aus Teilchen wie Elektronen und Atomen besteht, zeigt ebenfalls ein wellenartiges Verhalten. Einige Lichtquellen wie Neonlichter emittieren nur bestimmte spezifische Lichtfrequenzen, eine kleine Gruppe unterschiedlicher reiner Farben, die durch die atomare Struktur von Neon bestimmt werden. Die Quantenmechanik zeigt, dass Licht, zusammen mit allen anderen Formen elektromagnetischer Strahlung, in diskreten Einheiten, Photonen genannt, auftritt und ihre spektralen Energien (die reinen Farben entsprechen) und die Intensitäten ihrer Lichtstrahlen vorhersagt. Ein einzelnes Photon ist ein Quant oder das kleinste beobachtbare Teilchen des elektromagnetischen Feldes. Experimentell wird nie ein partielles Photon beobachtet. Allgemeiner gesagt zeigt die Quantenmechanik, dass viele Eigenschaften von Objekten, wie Position, Geschwindigkeit und Drehimpuls, die aus der vergrößerten Sicht der klassischen Mechanik kontinuierlich erschienen, sich (auf der winzigen vergrößerten Skala der Quantenmechanik) als quantisiert erweisen. Solche Eigenschaften von Elementarteilchen müssen einen aus einer Reihe kleiner, diskreter zulässiger Werte annehmen, und da die Lücke zwischen diesen Werten ebenfalls klein ist, sind Diskontinuitäten nur auf sehr kleinen (atomaren) Skalen erkennbar.

Viele Aspekte der Quantenmechanik sind kontraintuitiv und mögen paradox erscheinen, weil sie ein Verhalten beschreiben, das sich sehr von dem unterscheidet, das in größeren Maßstäben beobachtet wird. Mit den Worten des Quantenphysikers Richard Feynman befasst sich die Quantenmechanik mit „der Natur, wie sie ist: absurd“. Eines der wichtigsten „Paradoxe“ ist die scheinbare Inkonsistenz zwischen den Newtonschen Gesetzen und der Quantenmechanik, die mit dem Satz von Ehrenfest erklärt werden kann, der zeigt, dass die aus der Quantenmechanik erhaltenen Mittelwerte (z. B. Ort und Impuls) klassischen Gesetzen gehorchen . Der Satz von Ehrenfest ist jedoch bei weitem nicht in der Lage, alle beobachteten kontraintuitiven Phänomene (Quantenkuriositäten) zu erklären, sondern ist ein mathematischer Ausdruck des Korrespondenzprinzips.

Zum Beispiel bedeutet die Unschärferelation der Quantenmechanik, dass je fester eine Messung (z. B. die Position eines Teilchens) ist, desto ungenauer wird eine andere komplementäre Messung, die sich auf dasselbe Teilchen bezieht (z. B. seine Geschwindigkeit). Ein weiteres Beispiel ist die Verschränkung, bei der eine Messung eines beliebigen zweiwertigen Zustands eines Teilchens (z. B. aufwärts oder abwärts polarisiertes Licht), die an zwei weit voneinander entfernten "verschränkten" Teilchen vorgenommen wird, eine nachfolgende Messung am anderen Teilchen bewirkt. es wird immer der andere der beiden Werte sein (z. B. in die entgegengesetzte Richtung vorgespannt). Ein letztes Beispiel ist die Suprafluidität, bei der ein Behälter mit flüssigem Helium, das auf eine Temperatur nahe dem absoluten Nullpunkt abgekühlt ist, gegen die Schwerkraft spontan (langsam) nach oben und über die Öffnung seines Behälters fließt.

Die erste Quantentheorie

Wärmestrahlung ist elektromagnetische Strahlung, die von der Oberfläche eines Objekts aufgrund der inneren Energie des Objekts emittiert wird. Wenn ein Objekt heiß genug wird, beginnt es am roten Ende des Spektrums Licht zu emittieren, da es rotglühend wird. Wenn Sie es weiter erhitzen, ändert sich die Farbe von Rot zu Gelb, Weiß und Blau, da es Licht mit immer kürzeren Wellenlängen (höheren Frequenzen) emittiert. Ein perfekter Emitter ist auch ein perfekter Absorber: Wenn es kalt ist, erscheint ein solches Objekt perfekt schwarz, weil es alles einfallende Licht absorbiert und kein Licht abgibt. Folglich wird ein idealer Wärmestrahler als schwarzer Strahler bezeichnet, und die von ihm emittierte Strahlung wird als Schwarzkörperstrahlung bezeichnet.


Ende des 19. Jahrhunderts war die Wärmestrahlung experimentell recht gut charakterisiert. Die klassische Physik führte jedoch zum Rayleigh-Jeans-Gesetz, das, wie in der Abbildung gezeigt, bei niedrigen Frequenzen gut mit experimentellen Ergebnissen übereinstimmt, bei hohen Frequenzen jedoch stark davon abweicht. Physiker suchten nach einer einzigen Theorie, die alle experimentellen Ergebnisse erklären würde.

Das erste Modell, das das gesamte Spektrum der Wärmestrahlung erklären konnte, wurde 1900 von Max Planck vorgestellt. Er schlug ein mathematisches Modell vor, in dem die Wärmestrahlung im Gleichgewicht mit einem Satz harmonischer Oszillatoren steht. Um die experimentellen Ergebnisse zu reproduzieren, musste er annehmen, dass jeder Oszillator eine ganze Zahl von Energieeinheiten bei seiner einzigen charakteristischen Frequenz emittiert, anstatt eine beliebige Energiemenge emittieren zu können. Mit anderen Worten, die von einem Oszillator emittierte Energie wurde quantisiert. Die Energiemenge für jeden Oszillator war laut Planck proportional zur Frequenz des Oszillators; die Proportionalitätskonstante ist jetzt als Plancksche Konstante bekannt. Die Plancksche Konstante, üblicherweise als h geschrieben, hat den Wert 6,63×10−34 J s. Dann ist die Energie E eines Oszillators der Frequenz f gegeben durch E= n h f, n=1,2,3,...

Um die Farbe eines solchen strahlenden Körpers zu ändern, ist es notwendig, seine Temperatur zu ändern. Das Plancksche Gesetz erklärt, warum: Eine Erhöhung der Temperatur eines Körpers lässt ihn insgesamt mehr Energie abgeben und bedeutet, dass ein größerer Anteil der Energie am violetten Ende des Spektrums liegt.

Das Plancksche Gesetz war die erste Quantentheorie in der Physik, und Planck erhielt 1918 den Nobelpreis „in Anerkennung seiner Verdienste um den Fortschritt der Physik durch seine Entdeckung von Energiequanten“. Damals vertrat Planck jedoch die Ansicht, dass die Quantisierung ein rein heuristisches mathematisches Konstrukt sei und nicht (wie heute angenommen wird) eine grundlegende Veränderung unseres Weltverständnisses.

Photonen

1905 ging Albert Einstein noch einen Schritt weiter. Er schlug vor, dass die Quantisierung nicht nur ein mathematisches Konstrukt sei, sondern dass die Energie in einem Lichtstrahl tatsächlich in einzelnen Paketen auftritt, die heute als Photonen bezeichnet werden. Die Energie eines einzelnen Lichtphotons der Frequenz f ergibt sich aus der Frequenz multipliziert mit der Planckschen Konstante h (einer extrem kleinen positiven Zahl): E=hf.

Jahrhundertelang hatten Wissenschaftler zwischen zwei möglichen Lichttheorien gestritten: War es eine Welle oder bestand es stattdessen aus einem Strom winziger Teilchen? Bis zum 19. Jahrhundert wurde allgemein angenommen, dass sich die Debatte zugunsten der Wellentheorie entschieden hatte, da sie beobachtete Effekte wie Brechung, Beugung, Interferenz und Polarisation erklären konnte. James Clerk Maxwell hatte gezeigt, dass Elektrizität, Magnetismus und Licht Manifestationen desselben Phänomens sind: des elektromagnetischen Felds. Die Maxwell-Gleichungen, die den vollständigen Satz von Gesetzen des klassischen Elektromagnetismus darstellen, beschreiben Licht als Wellen: eine Kombination aus oszillierenden elektrischen und magnetischen Feldern. Aufgrund der überwiegenden Beweislage zugunsten der Wellentheorie stießen Einsteins Ideen zunächst auf große Skepsis. Schließlich wurde jedoch das Photonenmodell zum Favoriten. Einer der wichtigsten Beweise dafür war seine Fähigkeit, mehrere rätselhafte Eigenschaften des photoelektrischen Effekts zu erklären, die im nächsten Abschnitt beschrieben werden. Trotzdem blieb die Wellenanalogie unverzichtbar, um andere Eigenschaften des Lichts zu verstehen: Beugung, Brechung und Interferenz.

Der photoelektrische Effekt

1887 beobachtete Heinrich Hertz, dass, wenn Licht häufig genug auf eine Metalloberfläche trifft, die Oberfläche Elektronen aussendet. 1902 entdeckte Philipp Lenard, dass die maximal mögliche Energie eines ausgestoßenen Elektrons mit der Frequenz des Lichts zusammenhängt, nicht mit seiner Intensität: Ist die Frequenz zu niedrig, werden unabhängig von der Intensität keine Elektronen ausgestoßen. Starke Lichtstrahlen zum roten Ende des Spektrums erzeugen möglicherweise kein elektrisches Potential, während schwache Lichtstrahlen zum violetten Ende des Spektrums immer höhere Spannungen erzeugen würden. Die niedrigste Lichtfrequenz, die zur Emission von Elektronen führen kann, die so genannte Schwellenfrequenz, ist für verschiedene Metalle unterschiedlich. Diese Beobachtung steht im Widerspruch zum klassischen Elektromagnetismus, der voraussagt, dass die Energie des Elektrons proportional zur Intensität der einfallenden Strahlung sein sollte. das Licht würde eine höhere Spannung von der photoelektrischen Vorrichtung erzeugen.


Einstein erklärte den Effekt, indem er postulierte, dass ein Lichtstrahl ein Strom von Teilchen ("Photonen") ist und dass, wenn der Strahl die Frequenz f hat, jedes Photon eine Energie gleich hf hat. Ein Elektron wird wahrscheinlich nur von einem einzigen Photon getroffen, das dem Elektron höchstens eine Energie hf verleiht. Daher hat die Intensität des Strahls keine Auswirkung und nur seine Frequenz bestimmt die maximale Energie, die dem Elektron verliehen werden kann.


Um den Schwelleneffekt zu erklären, argumentierte Einstein, dass eine bestimmte Energiemenge, Austrittsarbeit genannt und mit φ bezeichnet, erforderlich ist, um ein Elektron aus dem Metall zu entfernen. Diese Energiemenge ist für jedes Metall unterschiedlich. Wenn die Energie des Photons kleiner als die Austrittsarbeit ist, trägt es nicht genug Energie, um das Elektron aus dem Metall zu schlagen. Die Schwellenfrequenz ist die Frequenz eines Photons, dessen Energie gleich der Austrittsarbeit ist. Wenn f größer als f0 ist, reicht die Energie hf aus, um ein Elektron zu entfernen. Das ausgestoßene Elektron hat eine kinetische Energie EK, die höchstens gleich der Energie des Photons abzüglich der Energie ist, die erforderlich ist, um das Elektron aus dem Metall zu lösen.
                                                                      
Einsteins Beschreibung des Lichts als aus Teilchen zusammengesetzt erweitert Plancks Begriff der quantisierten Energie, der besagt, dass ein einzelnes Photon einer gegebenen Frequenz f eine unveränderliche Energiemenge hf liefert. Mit anderen Worten, einzelne Photonen können mehr oder weniger Energie abgeben, aber nur in Abhängigkeit von ihrer Frequenz. In der Natur kommen einzelne Photonen selten vor. Die Sonne und verfügbare Emissionsquellen im 19. Jahrhundert emittieren jede Sekunde eine große Anzahl von Photonen, sodass die Bedeutung der von jedem Photon getragenen Energie nicht offensichtlich war. Einsteins Idee, dass die in einzelnen Lichteinheiten enthaltene Energie von ihrer Frequenz abhängt, ermöglichte es, scheinbar widersprüchliche experimentelle Ergebnisse zu erklären. Obwohl das Photon ein Teilchen ist, wurde es dennoch mit der wellenartigen Eigenschaft der Frequenz beschrieben. Tatsächlich ist die Beschreibung des Lichts als Teilchen unzureichend, und seine Wellennatur wird noch benötigt.

Folgen des photoelektrischen Effekts

Die Beziehung zwischen der Frequenz elektromagnetischer Strahlung und der Energie jedes Photons ist der Grund, warum ultraviolettes Licht Sonnenbrand verursachen kann, sichtbares oder infrarotes Licht jedoch nicht. Ein Photon ultravioletten Lichts liefert eine große Energiemenge, die ausreicht, um zu Zellschäden beizutragen, wie sie beispielsweise bei einem Sonnenbrand auftreten. Ein Photon Infrarotlicht liefert weniger Energie, gerade genug, um die Haut zu erwärmen. Eine Infrarotlampe kann also eine große Oberfläche erwärmen, vielleicht groß genug, um Menschen in einem kalten Raum angenehm zu halten, aber sie kann niemanden verbrennen.

Alle Photonen der gleichen Frequenz haben die gleiche Energie, und alle Photonen unterschiedlicher Frequenzen haben unterschiedliche Energien. Obwohl die von Photonen übertragene Energie bei jeder gegebenen Frequenz unveränderlich ist, ist der anfängliche Energiezustand von Elektronen in einer photoelektrischen Vorrichtung vor der Lichtabsorption nicht notwendigerweise gleichförmig. Bei einzelnen Elektronen können anomale Ergebnisse auftreten. Beispielsweise könnte ein Elektron, das bereits über das Gleichgewichtsniveau der photoelektrischen Vorrichtung angeregt wurde, ausgestoßen werden, wenn es niederfrequente Beleuchtung absorbiert. Statistisch gesehen spiegelt das charakteristische Verhalten einer photoelektrischen Vorrichtung jedoch das Verhalten der überwiegenden Mehrheit ihrer Elektronen wider, die sich auf ihrem Gleichgewichtsniveau befinden. Dieser Punkt hilft, den Unterschied zwischen der Untersuchung kleiner Einzelteilchen in der Quantendynamik und der Untersuchung massiver Einzelteilchen in der klassischen Physik zu verdeutlichen.

Bohrs Atommodell

Im frühen 20. Jahrhundert erforderte der Beweis ein Modell des Atoms mit einer diffusen Wolke aus negativ geladenen Elektronen, die einen kleinen, dichten, positiv geladenen Kern umgibt. Diese Eigenschaften legten ein Modell nahe, in dem Elektronen den Kern umkreisen wie Planeten einen Stern. Allerdings war auch bekannt, dass das Atom in diesem Modell instabil sein würde: Nach der klassischen Theorie erfahren die umkreisenden Elektronen eine Zentripetalbeschleunigung und müssen daher elektromagnetische Strahlung aussenden, wobei sie durch den Energieverlust auch spiralförmig nach unten kollidieren damit im Bruchteil einer Sekunde.Ein zweites verwandtes Rätsel war das Emissionsspektrum von Atomen. Wenn ein Gas erhitzt wird, emittiert es Licht nur bei diskreten Frequenzen. Beispielsweise besteht das von Wasserstoff emittierte sichtbare Licht aus vier verschiedenen Farben, wie im Bild unten gezeigt. Die Intensität des Lichts bei verschiedenen Frequenzen ist ebenfalls unterschiedlich. Im Gegensatz dazu besteht weißes Licht aus einer kontinuierlichen Emission im gesamten Bereich der sichtbaren Frequenzen. Im späten 19. Jahrhundert zeigte eine einfache Regel, die als Balmer-Formel bekannt ist, wie die Frequenzen verschiedener Linien zueinander in Beziehung stehen, ohne jedoch zu erklären, warum, oder Vorhersagen über die Intensitäten zu treffen. Die Formel sagte auch einige zusätzliche Spektrallinien im ultravioletten und infraroten Licht voraus, die zu diesem Zeitpunkt noch nicht beobachtet worden waren. Diese Linien wurden später experimentell beobachtet, was das Vertrauen in den Wert der Formel erhöhte.

1913 schlug Niels Bohr ein neues Atommodell vor, das quantisierte Elektronenbahnen enthielt: Elektronen umkreisen immer noch den Kern wie Planeten die Sonne, aber sie dürfen nur bestimmte Bahnen bewohnen, nicht in beliebiger Entfernung. Wenn ein Atom Energie abgab (oder absorbierte), bewegte sich das Elektron nicht auf einer kontinuierlichen Bahn von einer Umlaufbahn um den Kern zu einer anderen, wie man es klassischerweise erwarten würde. Stattdessen würde das Elektron sofort von einer Umlaufbahn zur anderen springen und das emittierte Licht in Form eines Photons aussenden. Die möglichen Energien der von jedem Element emittierten Photonen wurden durch die Energieunterschiede zwischen den Umlaufbahnen bestimmt, sodass das Emissionsspektrum jedes Elements eine Reihe von Linien enthalten würde.

Ausgehend von einer einzigen einfachen Annahme über die Regel, die Umlaufbahnen befolgen müssen, war Bohrs Modell in der Lage, die im Emissionsspektrum von Wasserstoff beobachteten Spektrallinien mit zuvor bekannten Konstanten in Beziehung zu setzen. In Bohrs Modell durfte das Elektron nicht kontinuierlich Energie abgeben und mit dem Kern kollidieren: Sobald es sich in der engsten erlaubten Umlaufbahn befand, war es für immer stabil. Bohrs Modell erklärte weder, warum Umlaufbahnen auf diese Weise quantisiert werden sollten, noch konnte es genaue Vorhersagen für Atome mit mehr als einem Elektron treffen, noch erklären, warum einige Spektrallinien heller sind als andere.

Einige grundlegende Annahmen des Bohr-Modells erwiesen sich bald als falsch, aber das Schlüsselergebnis, dass die diskreten Linien in den Emissionsspektren auf eine Eigenschaft der Elektronen in den zu quantisierenden Atomen zurückzuführen sind, ist richtig. Die Art und Weise, wie sich Elektronen tatsächlich verhalten, unterscheidet sich auffallend vom Bohr-Atom und von dem, was wir in unserer alltäglichen Erfahrungswelt sehen.

Stern-Gerlach-Experiment

1922 schossen Otto Stern und Walther Gerlach Silberatome durch ein inhomogenes Magnetfeld. Relativ zu seinem Nordpol, der nach oben, unten oder irgendwo dazwischen zeigt, kann in der klassischen Mechanik ein Magnet, der durch ein Magnetfeld geworfen wird, eine kleine oder große Entfernung nach oben oder unten ablenken. Ähnlich verhielten sich die Atome, die Stern und Gerlach durch das Magnetfeld schleuderten. Während Magnete jedoch um unterschiedliche Entfernungen abgelenkt werden könnten, würden Atome immer um eine konstante Entfernung abgelenkt werden, entweder nach oben oder nach unten. Dies implizierte, dass die Eigenschaft des Atoms, die der Ausrichtung des Magneten entspricht, quantisiert werden muss und einen von zwei Werten (oben oder unten) annehmen muss, anstatt aus jedem Winkel frei gewählt zu werden.


Ralph Kronig entwickelte die Theorie, dass sich Teilchen wie Atome oder Elektronen so verhalten, als würden sie um eine Achse rotieren oder "rotieren". Der Spin würde das fehlende magnetische Moment erklären [Klärung erforderlich] und es zwei Elektronen im selben Orbital ermöglichen, unterschiedliche Quantenzustände einzunehmen, wenn sie sich in entgegengesetzte Richtungen "drehen", wodurch das Ausschlussprinzip erfüllt wird. Die Quantenzahl repräsentiert die Richtung (positiv oder negativ) des Spins.


Die Wahl der Ausrichtung des im Stern-Gerlach-Experiment verwendeten Magnetfelds ist willkürlich. In der hier gezeigten Animation ist das Feld vertikal, sodass die Atome nach oben oder unten abgelenkt werden. Wird der Magnet um eine Vierteldrehung gedreht, werden die Atome nach links oder rechts abgelenkt. Die Verwendung eines vertikalen Felds zeigt, dass der Spin entlang der vertikalen Achse quantisiert ist, und die Verwendung eines horizontalen Felds zeigt, dass der Spin entlang der horizontalen Achse quantisiert ist.

Wenn einer der Atomstrahlen, die den Stern-Gerlach-Apparat verlassen, anstatt auf den Schirm eines Detektors zu treffen, in ein anderes (inhomogenes) gleichgerichtetes Magnetfeld eintritt, werden alle Atome in diesem zweiten Feld in gleicher Weise abgelenkt. . Steht das zweite Feld jedoch im 90°-Winkel zum ersten, so werden die Atome zur Hälfte in die eine und zur Hälfte in die andere Richtung abgelenkt, sodass der Spin des Atoms um die horizontale und vertikale Achse unabhängig voneinander ist. Wenn jedoch einer dieser Strahlen (z. B. die Atome, die nach oben und dann nach links abgelenkt wurden) in ein drittes Magnetfeld gelangt, das genauso ausgerichtet ist wie das erste, geht die Hälfte der Atome in die eine Richtung und in die andere die Hälfte in die andere, obwohl sie ursprünglich alle in die gleiche Richtung gingen. Die Messung des Spins von Atomen in Bezug auf ein horizontales Feld hat ihren Spin in Bezug auf ein vertikales Feld geändert.

Das Stern-Gerlach-Experiment demonstriert mehrere wichtige Merkmale der Quantenmechanik:

1) Es wurde gezeigt, dass ein Merkmal der natürlichen Welt quantisiert ist und nur bestimmte diskrete Werte annehmen kann.

2) Die Teilchen besitzen einen Eigendrehimpuls, der dem Drehimpuls eines klassisch rotierenden Objekts sehr ähnlich ist.

3) Die Messung verändert das zu messende System in der Quantenmechanik. Der Spin eines Objekts kann nur in einer Richtung bekannt sein, und die Beobachtung des Spins in einer anderen Richtung zerstört die ursprüngliche Information über den Spin.

4) Die Quantenmechanik ist probabilistisch: Ob der Spin eines einzelnen Atoms, das an den Apparat gesendet wird, positiv oder negativ ist, ist zufällig.

Entwicklung der modernen Quantenmechanik

1925 versuchte Werner Heisenberg, eines der vom Bohr-Modell ungelösten Probleme zu lösen, indem er die Intensitäten der verschiedenen Linien im Emissionsspektrum von Wasserstoff erklärte. Durch eine Reihe mathematischer Analogien schrieb er das quantenmechanische Analogon für die klassische Berechnung von Intensitäten. Kurz darauf erkannte Heisenbergs Kollege Max Born, dass Heisenbergs Methode zur Berechnung der Wahrscheinlichkeiten von Übergängen zwischen verschiedenen Energieniveaus besser mit dem mathematischen Konzept der Matrizen ausgedrückt werden könnte.

Im selben Jahr entwickelte Erwin Schrödinger basierend auf der Hypothese von de Broglie die Gleichung, die das Verhalten einer quantenmechanischen Welle beschreibt. Das mathematische Modell, nach seinem Schöpfer Schrödinger-Gleichung genannt, ist grundlegend für die Quantenmechanik, es definiert die zulässigen stationären Zustände eines Quantensystems und beschreibt, wie sich der Quantenzustand eines physikalischen Systems im Laufe der Zeit ändert. Die Welle selbst wird durch eine mathematische Funktion beschrieben, die als "Wellenfunktion" bekannt ist. Schrödinger sagte, dass die Wellenfunktion das „Mittel zur Vorhersage der Wahrscheinlichkeit von Messergebnissen“ sei.

Schrödinger war in der Lage, die Energieniveaus von Wasserstoff zu berechnen, indem er das Elektron in einem Wasserstoffatom als eine klassische Welle behandelte, die sich in einem vom Proton erzeugten Potentialtopf bewegte. Diese Berechnung reproduzierte genau die Energieniveaus des Bohr-Modells.

Im Mai 1926 zeigte Schrödinger, dass Heisenbergs Matrizenmechanik und seine eigene Wellenmechanik die gleichen Vorhersagen über die Eigenschaften und das Verhalten des Elektrons machten; mathematisch gesehen hatten die beiden Theorien eine zugrunde liegende gemeinsame Form. Die beiden Männer waren sich jedoch über die Interpretation ihrer gemeinsamen Theorie nicht einig. Zum Beispiel akzeptierte Heisenberg die theoretische Vorhersage des Elektronenspringens zwischen Orbitalen in einem Atom, aber Schrödinger hoffte, dass eine Theorie, die auf kontinuierlichen Welleneigenschaften basiert, vermeiden könnte, was er (paraphrasiert von Wilhelm Wien) „diesen Quantensprung-Unsinn“ nannte. Am Ende hat sich Heisenbergs Ansatz durchgesetzt und Quantensprünge bestätigt.

Kopenhagener Interpretation

Bohr, Heisenberg und andere versuchten zu erklären, was diese experimentellen Ergebnisse und mathematischen Modelle wirklich bedeuten. Seine Beschreibung, die als Kopenhagener Interpretation der Quantenmechanik bekannt ist, zielte darauf ab, die Natur der Realität zu beschreiben, die durch Messungen getestet und durch die mathematischen Formulierungen der Quantenmechanik beschrieben wurde.

Die Grundprinzipien der Kopenhagener Interpretation sind:
1) Ein System wird vollständig durch eine Wellenfunktion beschrieben, die üblicherweise durch den griechischen Buchstaben „psi“ dargestellt wird.
2) Die Art und Weise, wie sich "psi" im Laufe der Zeit ändert, wird durch die Schrödinger-Gleichung angegeben.
3) Die Beschreibung der Natur ist im Wesentlichen probabilistisch. Die Wahrscheinlichkeit eines Ereignisses, beispielsweise wenn ein Teilchen im Doppelspaltexperiment auf dem Bildschirm erscheint, hängt mit dem Quadrat des Betrags der Amplitude seiner Wellenfunktion zusammen. (Bornsche Regel von Max Born, die der Wellenfunktion in der Kopenhagener Deutung eine physikalische Bedeutung gibt: die Wahrscheinlichkeitsamplitude).
4) Es ist nicht möglich, die Werte aller Eigenschaften des Systems gleichzeitig zu kennen; diejenigen Eigenschaften, die nicht genau bekannt sind, müssen durch Wahrscheinlichkeiten beschrieben werden. (Heisenbergsche Unschärferelation).
5) Materie weist wie Energie einen Welle-Teilchen-Dualismus auf. Ein Experiment kann die Eigenschaften von Materie als Teilchen oder ihre Eigenschaften als Wellen demonstrieren; aber nicht beides gleichzeitig. (Prinzip der Komplementarität nach Bohr).
6) Messgeräte sind im Wesentlichen klassische Geräte und messen klassische Eigenschaften wie Ort und Impuls.
7) Die quantenmechanische Beschreibung großer Systeme sollte der klassischen Beschreibung sehr nahe kommen. (Korrespondenzprinzip von Bohr und Heisenberg).

Heisenberg-Unsicherheitsprinzip

Angenommen, Sie möchten die Position und Geschwindigkeit eines Objekts messen, z. B. eines Autos, das an einer Radarfalle vorbeifährt. Es kann angenommen werden, dass das Auto zu einem bestimmten Zeitpunkt eine bestimmte Position und Geschwindigkeit hat. Wie genau diese Werte gemessen werden können, hängt von der Qualität der Messgeräte ab. Wenn die Genauigkeit des Messgeräts verbessert wird, liefert es ein Ergebnis, das näher am wahren Wert liegt. Es könnte angenommen werden, dass die Geschwindigkeit des Autos und seine Position gleichzeitig mit beliebiger Genauigkeit definiert und gemessen werden könnten.

1927 zeigte Heisenberg, dass diese letzte Annahme nicht richtig ist. Die Quantenmechanik zeigt, dass bestimmte Paare physikalischer Größen, etwa Position und Geschwindigkeit, nicht beliebig genau gleichzeitig gemessen oder operationalisiert werden können: Je genauer eine Eigenschaft gemessen oder operationalisiert wird, desto weniger genau kann gemessen bzw operativ definiert. das andere. Diese Aussage ist als Unschärferelation bekannt. Die Unschärferelation ist nicht nur eine Aussage über die Genauigkeit unserer Messgeräte, sondern tiefer geht es um die konzeptionelle Natur der gemessenen Größen: Die Annahme, dass das Auto Position und Geschwindigkeit gleichzeitig definiert hat, funktioniert in der Quantenmechanik nicht. Auf einer Skala von Autos und Menschen sind diese Unsicherheiten vernachlässigbar, aber wenn es um Atome und Elektronen geht, werden sie kritisch.

Heisenberg gab zur Veranschaulichung die Messung von Ort und Impuls eines Elektrons mit einem Lichtphoton an. Bei der Messung der Position des Elektrons gilt: Je höher die Frequenz des Photons ist, desto genauer ist die Messung der Position des Aufpralls des Photons auf das Elektron, aber desto größer ist die Störung des Elektrons. Dies liegt daran, dass das Elektron durch den Aufprall auf das Photon eine zufällige Energiemenge absorbiert, wodurch das erhaltene Maß seines Impulses immer unsicherer wird (der Impuls ist die Geschwindigkeit multipliziert mit der Masse), da sein Nachaufprall gestört wurde der Impuls aus den Kollisionsprodukten wird notwendigerweise gemessen und nicht sein ursprünglicher Impuls (der Impuls muss gleichzeitig mit der Position gemessen werden). Bei einem niederfrequenteren Photon ist die Störung (und damit die Unsicherheit) im Puls kleiner, aber auch die Genauigkeit der Aufprallpositionsmessung.


Der Kern des Unschärfeprinzips ist die Tatsache, dass für jede mathematische Analyse im Positions- und Geschwindigkeitsbereich eine steilere (genauere) Kurve im Positionsbereich nur auf Kosten einer glatteren Kurve erreicht werden kann präzise). im Geschwindigkeitsbereich und umgekehrt. Mehr Schärfe im Positionsbereich erfordert Beiträge von mehr Frequenzen im Geschwindigkeitsbereich, um die schmalere Kurve zu erzeugen und umgekehrt. Es ist ein grundlegender Kompromiss, der jeder verwandten oder ergänzenden Messung inhärent ist, aber er ist nur auf der kleinsten (Planck-)Skala, nahe der Größe von Elementarteilchen, wirklich wahrnehmbar.

Die Unschärferelation zeigt mathematisch, dass das Produkt aus der Unbestimmtheit von Ort und Impuls eines Teilchens (Impuls ist Geschwindigkeit multipliziert mit Masse) niemals kleiner als ein gegebener Wert sein kann und dass dieser Wert mit der Planck-Konstante zusammenhängt.

Wellenfunktionskollaps

Wellenfunktionskollaps bedeutet, dass eine Messung einen Quantenzustand (Wahrscheinlichkeit oder Potenzial) in einen definierten Messwert erzwungen oder umgewandelt hat. Dieses Phänomen tritt nur in der Quantenmechanik und nicht in der klassischen Mechanik auf.

Bevor beispielsweise ein Photon tatsächlich auf einem Erkennungsbildschirm "erscheint", kann es nur mit einer Reihe von Wahrscheinlichkeiten beschrieben werden, wo es erscheinen könnte. Wenn es zum Beispiel auf dem CCD einer elektronischen Kamera erscheint, sind die Zeit und der Ort, an dem es mit dem Gerät interagiert hat, innerhalb sehr enger Grenzen bekannt. Allerdings ist das Photon beim Einfangen (Messen) verschwunden und damit auch seine Quantenwellenfunktion. Stattdessen ist auf dem Erfassungsschirm eine makroskopische physikalische Veränderung aufgetreten, beispielsweise ein belichteter Fleck auf einem fotografischen Filmblatt oder eine Veränderung des elektrischen Potentials in einer Zelle einer CCD.

Eigenzustände und Eigenwerte

Aufgrund der Unschärferelation lassen sich Aussagen über Ort und Impuls von Teilchen nur eine Wahrscheinlichkeit zuordnen, dass Ort oder Impuls einen Zahlenwert haben. Daher ist es notwendig, den Unterschied zwischen dem Zustand von etwas Unbestimmtem, wie einem Elektron in einer Wahrscheinlichkeitswolke, und dem Zustand von etwas, das einen bestimmten Wert hat, klar zu formulieren. Wenn ein Objekt in irgendeiner Hinsicht definitiv „fixiert“ werden kann, spricht man von einem eigenen Zustand.

In dem oben diskutierten Stern-Gerlach-Experiment hat der Spin des Atoms um die vertikale Achse zwei Eigenzustände: oben und unten. Bevor wir es messen, können wir nur sagen, dass jedes einzelne Atom mit gleicher Wahrscheinlichkeit einen Aufwärts- oder Abwärtsspin hat. Der Messvorgang bewirkt, dass die Wellenfunktion in einen von zwei Zuständen kollabiert.

Spin-Eigenzustände auf der vertikalen Achse sind nicht gleichzeitig Spin-Eigenzustände auf der horizontalen Achse, daher hat dieses Atom die gleiche Chance, einen beliebigen Spin-Wert auf der horizontalen Achse zu haben. Wie im vorherigen Abschnitt beschrieben, kann die Messung des Spins um die horizontale Achse einem Atom, das nach oben geschleudert wurde, erlauben, sich nach unten zu drehen: Die Messung seines Spins um die horizontale Achse kollabiert seine Wellenfunktion in einen der Eigenzustände dieser Messung, was bedeutet, dass es nein ist länger in seinem eigenen Rotationszustand um die vertikale Achse, kann also beliebige Werte annehmen.

Das Pauli-Ausschlussprinzip

1924 schlug Wolfgang Pauli einen neuen Quantenfreiheitsgrad (oder Quantenzahl) mit zwei möglichen Werten vor, um Widersprüchlichkeiten zwischen beobachteten Molekülspektren und den Vorhersagen der Quantenmechanik aufzulösen. Insbesondere das Spektrum von atomarem Wasserstoff hatte ein Dublett oder ein Linienpaar, das sich um einen kleinen Betrag unterschied, wo nur eine Linie erwartet wurde. Pauli formulierte sein Ausschlussprinzip: „Ein Atom kann nicht in einem solchen Quantenzustand existieren, dass zwei Elektronen darin denselben Satz von Quantenzahlen haben.“

Ein Jahr später identifizierten Uhlenbeck und Goudsmit den neuen Pauli-Freiheitsgrad mit der Eigenschaft namens Spin, deren Auswirkungen im Stern-Gerlach-Experiment beobachtet wurden.

Verweise

Bernstein, Jeremy (2005). "Max Born and the quantum theory". American Journal of Physics. 73 (11): 999–1008.

Beller, Mara (2001). Quantum Dialogue: The Making of a Revolution. University of Chicago Press.

Bohr, Niels (1958). Atomic Physics and Human Knowledge. John Wiley & Sons]. ISBN 0486479285. OCLC 530611.

de Broglie, Louis (1953). The Revolution in Physics. Noonday Press.

Bronner, Patrick; Strunz, Andreas; Silberhorn, Christine; Meyn, Jan-Peter (2009). "Demonstrating quantum random with single photons". European Journal of Physics. 30 (5): 1189–1200.

Einstein, Albert (1934). Essays in Science. Philosophical Library. ISBN 0486470113.

Feigl, Herbert; Brodbeck, May (1953). Readings in the Philosophy of Science. Appleton-Century-Crofts. ISBN 0390304883.

Feynman, Richard P. (1949). "Space-Time Approach to Quantum Electrodynamics". Physical Review. 76 (6): 769–89.

Feynman, Richard P. (1990). QED, The Strange Theory of Light and Matter. Penguin Books. ISBN 978-0140125054.

Fowler, Michael (1999). The Bohr Atom. University of Virginia.

Heisenberg, Werner (1958). Physics and Philosophy. Harper and Brothers. ISBN 0061305499.

Lakshmibala, S. (2004). "Heisenberg, Matrix Mechanics and the Uncertainty Principle". Resonance: Journal of Science Education. 9 (8): 46–56.

Liboff, Richard L. (1992). Introductory Quantum Mechanics (2nd ed.). Addison-Wesley Pub. Co. ISBN 9780201547153.

Lindsay, Robert Bruce; Margenau, Henry (1957). Foundations of Physics. Dover. ISBN 0918024188.

McEvoy, J. P.; Zarate, Oscar (2004). Introducing Quantum Theory. ISBN 1874166374.

Nave, Carl Rod (2005). "Quantum Physics". HyperPhysics. Georgia State University.

Peat, F. David (2002). From Certainty to Uncertainty: The Story of Science and Ideas in the Twenty-First Century. Joseph Henry Press.

Reichenbach, Hans (1944). Philosophic Foundations of Quantum Mechanics. University of California Press. ISBN 0486404595.

Schilpp, Paul Arthur (1949). Albert Einstein: Philosopher-Scientist. Tudor Publishing Company.

Scientific American Reader, 1953.

Sears, Francis Weston (1949). Optics (3rd ed.). Addison-Wesley. ISBN 0195046013.

Shimony, A. (1983). "(title not given in citation)". Foundations of Quantum Mechanics in the Light of New Technology (S. Kamefuchi et al., eds.). Tokyo: Japan Physical Society.

p. 225.; cited in: Popescu, Sandu; Daniel Rohrlich (1996). "Action and Passion at a Distance: An Essay in Honor of Professor Abner Shimony".

Tavel, Morton; Tavel, Judith (illustrations) (2002). Contemporary physics and the limits of knowledge. Rutgers University Press. ISBN 978-0813530772.

Van Vleck, J. H.,1928, "The Correspondence Principle in the Statistical Interpretation of Quantum Mechanics", Proc. Natl. Acad. Sci. 14: 179.

Westmoreland; Benjamin Schumacher (1998). "Quantum Entanglement and the Nonexistence of Superluminal Signals".

Wheeler, John Archibald; Feynman, Richard P. (1949). "Classical Electrodynamics in Terms of Direct Interparticle Action" (PDF). Reviews of Modern Physics. 21 (3): 425–33.

Wieman, Carl; Perkins, Katherine (2005). "Transforming Physics Education". Physics Today. 58 (11): 36.



Simulationsmodellierung · Quantensimulation · Quantensoftware · Quanten-Monte-Carlo



camara3
QNuclei. N=5, Z=6


Quantum Metropolis, S.M.C.

28034 Madrid, Spanien · https://fisica-cuantica.com/


Quantum Metropolis · Quantenmechanik-Software

Member of MAPO: European network


Quantensimulationssoftware. Anwendungen in Quantencomputern, Dekohärenzstudien, Quantenverschränkung, Netzwerken, Quanteninformationssystemen, Algorithmen, Quantentunneln, Programmierung und Quantenpunkten und -mulden.