Introducción a la Física Cuántica · Quantum Metropolis software

 

Software basado la Teoría de Perturbaciones y en el método Monte Carlo de cálculo. Herramienta para el trabajo en el laboratorio, para la investigación, para la industria y para el sistema educativo. Aplicaciones en Física, Química e Ingeniería.


camara3
QNuclei · Quantum Metropolis software

Introducción

[Introducción] La mecánica cuántica es el estudio de la materia y sus interacciones con la energía a escala de partículas atómicas y subatómicas. Por el contrario, la Física clásica explica la materia y la energía solo en una escala familiar para la experiencia humana, incluido el comportamiento de los cuerpos astronómicos como la Luna. La Física clásica todavía se usa en gran parte de la ciencia y la tecnología modernas. Sin embargo, hacia fines del siglo XIX, los científicos descubrieron fenómenos tanto en el mundo grande (macro) como en el pequeño (micro) que la física clásica no podía explicar. El deseo de resolver las inconsistencias entre los fenómenos observados y la teoría clásica condujo a dos grandes revoluciones en la física que crearon un cambio en el paradigma científico original: la teoría de la relatividad y el desarrollo de la mecánica cuántica. Este artículo describe estos conceptos aproximadamente en el orden en que fueron descubiertos por primera vez.


La luz se comporta en algunos aspectos como partículas y en otros aspectos como ondas. La materia, la "cosa" del universo que consta de partículas como electrones y átomos, también exhibe un comportamiento ondulatorio. Algunas fuentes de luz, como las luces de neón, emiten solo ciertas frecuencias específicas de luz, un pequeño conjunto de colores puros distintos determinados por la estructura atómica del neón. La mecánica cuántica muestra que la luz, junto con todas las demás formas de radiación electromagnética, viene en unidades discretas, llamadas fotones, y predice sus energías espectrales (correspondientes a colores puros) y las intensidades de sus haces de luz. Un solo fotón es un cuanto, o la partícula observable más pequeña, del campo electromagnético. Un fotón parcial nunca se observa experimentalmente. En términos más generales, la mecánica cuántica muestra que muchas propiedades de los objetos, como la posición, la velocidad y el momento angular, que parecían continuas en la vista ampliada de la mecánica clásica, resultan ser (en la minúscula escala ampliada de mecánica cuántica) cuantizados. Se requiere que tales propiedades de las partículas elementales tomen uno de un conjunto de valores permisibles pequeños y discretos, y dado que la brecha entre estos valores también es pequeña, las discontinuidades solo son evidentes en escalas (atómicas) muy pequeñas.


Muchos aspectos de la mecánica cuántica son contrarios a la intuición y pueden parecer paradójicos porque describen un comportamiento muy diferente al observado a escalas mayores. En palabras del físico cuántico Richard Feynman, la mecánica cuántica se ocupa de "la naturaleza tal como es: absurda". Una de las principales "paradojas" es la aparente inconsistencia entre las leyes de Newton y la mecánica cuántica, que puede explicarse utilizando el teorema de Ehrenfest, que muestra que los valores promedio obtenidos de la mecánica cuántica (por ejemplo, posición y momento) obedecen a leyes clásicas. Sin embargo, el teorema de Ehrenfest está lejos de ser capaz de explicar todos los fenómenos contrarios a la intuición (rarezas cuánticas) que se han observado, sino que es una expresión matemática del principio de correspondencia.

Por ejemplo, el principio de incertidumbre de la mecánica cuántica significa que cuanto más se fije una medida (como la posición de una partícula), menos precisa será otra medida complementaria perteneciente a la misma partícula (como su velocidad). Otro ejemplo es el entrelazamiento, en el que una medición de cualquier estado de dos valores de una partícula (como la luz polarizada hacia arriba o hacia abajo) realizada en cualquiera de las dos partículas "entrelazadas" que están muy separadas provoca una medición posterior en la otra partícula. siempre será el otro de los dos valores (por ejemplo, polarizado en la dirección opuesta). Un último ejemplo es la superfluidez, en la que un recipiente de helio líquido, enfriado hasta casi el cero absoluto de temperatura, fluye espontáneamente (lentamente) hacia arriba y sobre la abertura de su recipiente, contra la fuerza de la gravedad.

La primera teoría cuántica: Max Planck y la radiación del cuerpo negro

[La primera teoría cuántica] La radiación térmica es radiación electromagnética emitida desde la superficie de un objeto debido a la energía interna del objeto. Si un objeto se calienta lo suficiente, comienza a emitir luz en el extremo rojo del espectro, a medida que se vuelve al rojo vivo. Al calentarlo más, el color cambia de rojo a amarillo, blanco y azul, ya que emite luz en longitudes de onda cada vez más cortas (frecuencias más altas). Un emisor perfecto es también un absorbente perfecto: cuando hace frío, dicho objeto parece perfectamente negro, porque absorbe toda la luz que incide sobre él y no emite ninguna. En consecuencia, un emisor térmico ideal se conoce como cuerpo negro, y la radiación que emite se denomina radiación de cuerpo negro.

A fines del siglo XIX, la radiación térmica se había caracterizado experimentalmente bastante bien. Sin embargo, la física clásica condujo a la ley de Rayleigh-Jeans que, como se muestra en la figura, concuerda bien con los resultados experimentales a bajas frecuencias, pero fuertemente discrepa a altas frecuencias. Los físicos buscaron una sola teoría que explicara todos los resultados experimentales.

El primer modelo que fue capaz de explicar el espectro completo de la radiación térmica fue presentado por Max Planck en 1900. Propuso un modelo matemático en el que la radiación térmica estaba en equilibrio con un conjunto de osciladores armónicos. Para reproducir los resultados experimentales, tuvo que suponer que cada oscilador emitía un número entero de unidades de energía en su única frecuencia característica, en lugar de poder emitir cualquier cantidad arbitraria de energía. En otras palabras, se cuantizó la energía emitida por un oscilador. La cantidad de energía para cada oscilador, según Planck, era proporcional a la frecuencia del oscilador; la constante de proporcionalidad ahora se conoce como la constante de Planck. La constante de Planck, generalmente escrita como h, tiene el valor de 6.63×10−34 J s. Entonces, la energía E de un oscilador de frecuencia f está dada por E= n h f, n=1,2,3,...


Para cambiar el color de tal cuerpo radiante, es necesario cambiar su temperatura. La ley de Planck explica por qué: aumentar la temperatura de un cuerpo le permite emitir más energía en general y significa que una mayor proporción de la energía se encuentra en el extremo violeta del espectro.

La ley de Planck fue la primera teoría cuántica en física, y Planck ganó el Premio Nobel en 1918 "en reconocimiento a los servicios que prestó al avance de la Física por su descubrimiento de los cuantos de energía". En ese momento, sin embargo, la opinión de Planck era que la cuantización era puramente una construcción matemática heurística, en lugar de (como se cree ahora) un cambio fundamental en nuestra comprensión del mundo.

Fotones: la cuantización de la luz

[Fotones] En 1905, Albert Einstein dio un paso más. Sugirió que la cuantización no era solo una construcción matemática, sino que la energía en un haz de luz en realidad ocurre en paquetes individuales, que ahora se llaman fotones. La energía de un solo fotón de luz de frecuencia f está dada por la frecuencia multiplicada por la constante de Planck h (un número positivo extremadamente pequeño): E=hf.


Durante siglos, los científicos habían debatido entre dos posibles teorías de la luz: ¿era una onda o, en cambio, comprendía una corriente de partículas diminutas? Para el siglo XIX, generalmente se consideraba que el debate se había resuelto a favor de la teoría ondulatoria, ya que podía explicar los efectos observados como la refracción, la difracción, la interferencia y la polarización. James Clerk Maxwell había demostrado que la electricidad, el magnetismo y la luz son manifestaciones del mismo fenómeno: el campo electromagnético. Las ecuaciones de Maxwell, que son el conjunto completo de leyes del electromagnetismo clásico, describen la luz como ondas: una combinación de campos eléctricos y magnéticos oscilantes. Debido a la preponderancia de la evidencia a favor de la teoría ondulatoria, las ideas de Einstein fueron inicialmente recibidas con gran escepticismo. Eventualmente, sin embargo, el modelo de fotones se convirtió en el favorito. Una de las pruebas más significativas a su favor fue su capacidad para explicar varias propiedades desconcertantes del efecto fotoeléctrico, que se describen en la siguiente sección. No obstante, la analogía ondulatoria siguió siendo indispensable para ayudar a comprender otras características de la luz: difracción, refracción e interferencia.

El efecto fotoeléctrico

[El efecto fotoeléctrico] En 1887, Heinrich Hertz observó que cuando la luz con suficiente frecuencia golpea una superficie metálica, la superficie emite electrones. En 1902, Philipp Lenard descubrió que la energía máxima posible de un electrón expulsado está relacionada con la frecuencia de la luz, no con su intensidad: si la frecuencia es demasiado baja, no se expulsan electrones independientemente de la intensidad. Los haces de luz fuertes hacia el extremo rojo del espectro podrían no producir ningún potencial eléctrico, mientras que los haces de luz débiles hacia el extremo violeta del espectro producirían voltajes cada vez más altos. La frecuencia de luz más baja que puede hacer que se emitan electrones, llamada frecuencia umbral, es diferente para diferentes metales. Esta observación está en desacuerdo con el electromagnetismo clásico, que predice que la energía del electrón debería ser proporcional a la intensidad de la radiación incidente. la luz produciría un voltaje más alto del dispositivo fotoeléctrico.

Einstein explicó el efecto postulando que un haz de luz es una corriente de partículas ("fotones") y que, si el haz es de frecuencia f, entonces cada fotón tiene una energía igual a hf. Es probable que un electrón sea golpeado solo por un único fotón, que imparte como máximo una energía hf al electrón. Por lo tanto, la intensidad del haz no tiene ningún efecto y solo su frecuencia determina la energía máxima que se le puede impartir al electrón.


Para explicar el efecto de umbral, Einstein argumentó que se necesita una cierta cantidad de energía, llamada función de trabajo y denotada por φ, para quitar un electrón del metal. Esta cantidad de energía es diferente para cada metal. Si la energía del fotón es menor que la función de trabajo, entonces no lleva suficiente energía para sacar el electrón del metal. La frecuencia umbral, es la frecuencia de un fotón cuya energía es igual a la función de trabajo. Si f es mayor que f0, la energía hf es suficiente para quitar un electrón. El electrón expulsado tiene una energía cinética, EK, que es, como máximo, igual a la energía del fotón menos la energía necesaria para desalojar el electrón del metal.

La descripción de Einstein de la luz como compuesta de partículas extendió la noción de energía cuantizada de Planck, que es que un solo fotón de una frecuencia dada, f, entrega una cantidad invariable de energía, hf. En otras palabras, los fotones individuales pueden entregar más o menos energía, pero solo en función de sus frecuencias. En la naturaleza, rara vez se encuentran fotones individuales. El Sol y las fuentes de emisión disponibles en el siglo XIX emiten una gran cantidad de fotones cada segundo, por lo que la importancia de la energía transportada por cada fotón no era obvia. La idea de Einstein de que la energía contenida en unidades individuales de luz depende de su frecuencia permitió explicar resultados experimentales que parecían contradictorios. Sin embargo, aunque el fotón es una partícula, todavía se lo describía como si tuviera la propiedad de frecuencia similar a una onda. Efectivamente, la descripción de la luz como partícula es insuficiente, y aún se requiere su naturaleza ondulatoria.

Consecuencias de la cuantificación de la luz

[Consecuencias del efecto fotoeléctrico] La relación entre la frecuencia de la radiación electromagnética y la energía de cada fotón es la razón por la cual la luz ultravioleta puede causar quemaduras solares, pero la luz visible o infrarroja no. Un fotón de luz ultravioleta entrega una gran cantidad de energía, suficiente para contribuir al daño celular como el que ocurre en una quemadura solar. Un fotón de luz infrarroja entrega menos energía, solo lo suficiente para calentar la piel. Por lo tanto, una lámpara infrarroja puede calentar una superficie grande, tal vez lo suficientemente grande como para mantener a las personas cómodas en una habitación fría, pero no puede quemar a nadie.

Todos los fotones de la misma frecuencia tienen energía idéntica, y todos los fotones de diferentes frecuencias tienen energías diferentes. Sin embargo, aunque la energía impartida por los fotones es invariable a cualquier frecuencia dada, el estado de energía inicial de los electrones en un dispositivo fotoeléctrico antes de la absorción de la luz no es necesariamente uniforme. Pueden producirse resultados anómalos en el caso de electrones individuales. Por ejemplo, un electrón que ya estaba excitado por encima del nivel de equilibrio del dispositivo fotoeléctrico podría ser expulsado cuando absorbiera una iluminación de baja frecuencia. Sin embargo, estadísticamente, el comportamiento característico de un dispositivo fotoeléctrico refleja el comportamiento de la gran mayoría de sus electrones, que se encuentran en su nivel de equilibrio. Este punto ayuda a aclarar la distinción entre el estudio de partículas individuales pequeñas en la dinámica cuántica y el estudio de partículas individuales masivas en la física clásica.

La cuantización de la materia: el modelo de Bohr del átomo

[El modelo de Bohr del átomo] A principios del siglo XX, la evidencia requería un modelo del átomo con una nube difusa de electrones cargados negativamente que rodeaban un núcleo pequeño, denso y cargado positivamente. Estas propiedades sugirieron un modelo en el que los electrones giran alrededor del núcleo como los planetas que orbitan alrededor de una estrella.  Sin embargo, también se sabía que el átomo en este modelo sería inestable: según la teoría clásica, los electrones que orbitan experimentan una aceleración centrípeta y por lo tanto, deben emitir radiación electromagnética, la pérdida de energía también hace que se desplacen en espiral hacia el núcleo, chocando con él en una fracción de segundo.

Un segundo rompecabezas relacionado fue el espectro de emisión de los átomos. Cuando se calienta un gas, emite luz solo a frecuencias discretas. Por ejemplo, la luz visible emitida por el hidrógeno consta de cuatro colores diferentes, como se muestra en la imagen a continuación. La intensidad de la luz a diferentes frecuencias también es diferente. Por el contrario, la luz blanca consiste en una emisión continua en todo el rango de frecuencias visibles. A finales del siglo XIX, una sencilla regla conocida como fórmula de Balmer mostraba cómo se relacionaban entre sí las frecuencias de las distintas líneas, aunque sin explicar por qué, ni hacer ninguna predicción sobre las intensidades. La fórmula también predijo algunas líneas espectrales adicionales en luz ultravioleta e infrarroja que no se habían observado en ese momento. Estas líneas se observaron más tarde de forma experimental, aumentando la confianza en el valor de la fórmula.


En 1913, Niels Bohr propuso un nuevo modelo del átomo que incluía órbitas de electrones cuantizadas: los electrones aún orbitan el núcleo como los planetas orbitan alrededor del sol, pero se les permite habitar solo ciertas órbitas, no orbitar a ninguna distancia arbitraria. Cuando un átomo emitía (o absorbía) energía, el electrón no se movía en una trayectoria continua de una órbita alrededor del núcleo a otra, como cabría esperar clásicamente. En cambio, el electrón saltaría instantáneamente de una órbita a otra, emitiendo la luz emitida en forma de fotón. Las posibles energías de los fotones emitidos por cada elemento estaban determinadas por las diferencias de energía entre las órbitas, por lo que el espectro de emisión de cada elemento contendría una serie de líneas.


Partiendo de una sola suposición simple sobre la regla que deben obedecer las órbitas, el modelo de Bohr pudo relacionar las líneas espectrales observadas en el espectro de emisión del hidrógeno con constantes previamente conocidas. En el modelo de Bohr, al electrón no se le permitía emitir energía continuamente y chocar contra el núcleo: una vez que estaba en la órbita más cercana permitida, era estable para siempre. El modelo de Bohr no explicaba por qué las órbitas debían cuantificarse de esa manera, ni podía hacer predicciones precisas para átomos con más de un electrón, ni explicar por qué algunas líneas espectrales son más brillantes que otras.


Pronto se demostró que algunas suposiciones fundamentales del modelo de Bohr eran incorrectas, pero el resultado clave, de que las líneas discretas en los espectros de emisión se deben a alguna propiedad de los electrones en los átomos que se están cuantificando, es correcto. La forma en que los electrones se comportan realmente es sorprendentemente diferente del átomo de Bohr y de lo que vemos en el mundo de nuestra experiencia cotidiana.

Experimento de Stern-Gerlach

[Experimento de Stern-Gerlach] En 1922, Otto Stern y Walther Gerlach dispararon átomos de plata a través de un campo magnético no homogéneo. En relación con su polo norte, apuntando hacia arriba, hacia abajo o en algún punto intermedio, en la mecánica clásica, un imán lanzado a través de un campo magnético puede desviarse una distancia pequeña o grande hacia arriba o hacia abajo. Los átomos que Stern y Gerlach lanzaron a través del campo magnético actuaron de manera similar. Sin embargo, mientras que los imanes podrían desviarse a distancias variables, los átomos siempre se desviarían a una distancia constante, ya sea hacia arriba o hacia abajo. Esto implicaba que la propiedad del átomo que corresponde a la orientación del imán debe cuantificarse, tomando uno de dos valores (hacia arriba o hacia abajo), en lugar de elegirse libremente desde cualquier ángulo.

Ralph Kronig originó la teoría de que las partículas como los átomos o los electrones se comportan como si rotaran, o "giraran", alrededor de un eje. El espín explicaría el momento magnético faltante [se necesita aclaración] y permitiría que dos electrones en el mismo orbital ocuparan estados cuánticos distintos si "giraran" en direcciones opuestas, satisfaciendo así el principio de exclusión. El número cuántico representaba el sentido (positivo o negativo) del espín.

La elección de la orientación del campo magnético utilizado en el experimento de Stern-Gerlach es arbitraria. En la animación que se muestra aquí, el campo es vertical, por lo que los átomos se desvían hacia arriba o hacia abajo. Si el imán se gira un cuarto de vuelta, los átomos se desvían hacia la izquierda o hacia la derecha. El uso de un campo vertical muestra que el giro a lo largo del eje vertical está cuantificado, y el uso de un campo horizontal muestra que el giro a lo largo del eje horizontal está cuantificado.

Si en lugar de golpear la pantalla de un detector, uno de los haces de átomos que salen del aparato de Stern-Gerlach pasa a otro campo magnético (no homogéneo) orientado en la misma dirección, todos los átomos se desvían de la misma manera en este segundo campo. . Sin embargo, si el segundo campo está orientado a 90° con respecto al primero, entonces la mitad de los átomos se desvían en un sentido y la otra mitad en el otro, de modo que el giro del átomo sobre los ejes horizontal y vertical es independiente entre sí. Sin embargo, si uno de estos rayos (por ejemplo, los átomos que se desviaron hacia arriba y luego hacia la izquierda) pasa a un tercer campo magnético, orientado de la misma manera que el primero, la mitad de los átomos van en una dirección y la otra mitad en la otra, aunque todos ellos iba en la misma dirección originalmente. La acción de medir el espín de los átomos con respecto a un campo horizontal ha cambiado su espín con respecto a un campo vertical.

El experimento de Stern-Gerlach demuestra varias características importantes de la mecánica cuántica:

1) Se ha demostrado que una característica del mundo natural está cuantificada y puede tomar solo ciertos valores discretos.

2) Las partículas poseen un momento angular intrínseco que es muy similar al momento angular de un objeto que gira clásicamente.

3) La medición cambia el sistema que se mide en la mecánica cuántica. Solo se puede conocer el giro de un objeto en una dirección, y observar el giro en otra dirección destruye la información original sobre el giro.

4) La mecánica cuántica es probabilística: si el giro de cualquier átomo individual enviado al aparato es positivo o negativo es aleatorio.

Desarrollo de la mecánica cuántica moderna

[Desarrollo de la mecánica cuántica moderna] En 1925, Werner Heisenberg intentó resolver uno de los problemas que el modelo de Bohr dejaba sin resolver, explicando las intensidades de las distintas líneas en el espectro de emisión del hidrógeno. A través de una serie de analogías matemáticas, escribió el análogo mecánico-cuántico para el cálculo clásico de intensidades. Poco tiempo después, el colega de Heisenberg, Max Born, se dio cuenta de que el método de Heisenberg para calcular las probabilidades de las transiciones entre los diferentes niveles de energía se podía expresar mejor usando el concepto matemático de matrices.

En el mismo año, basándose en la hipótesis de De Broglie, Erwin Schrödinger desarrolló la ecuación que describe el comportamiento de una onda mecánica cuántica. El modelo matemático, llamado ecuación de Schrödinger en honor a su creador, es fundamental para la mecánica cuántica, define los estados estacionarios permitidos de un sistema cuántico y describe cómo cambia el estado cuántico de un sistema físico en el tiempo. La onda en sí se describe mediante una función matemática conocida como "función de onda". Schrödinger dijo que la función de onda proporciona los "medios para predecir la probabilidad de los resultados de la medición".

Schrödinger pudo calcular los niveles de energía del hidrógeno tratando el electrón de un átomo de hidrógeno como una onda clásica, moviéndose en un pozo del potencial eléctrico creado por el protón. Este cálculo reprodujo con precisión los niveles de energía del modelo de Bohr.

En mayo de 1926, Schrödinger demostró que la mecánica de matrices de Heisenberg y su propia mecánica ondulatoria hacían las mismas predicciones sobre las propiedades y el comportamiento del electrón; matemáticamente, las dos teorías tenían una forma común subyacente. Sin embargo, los dos hombres no estaban de acuerdo en la interpretación de su teoría mutua. Por ejemplo, Heisenberg aceptó la predicción teórica de saltos de electrones entre orbitales en un átomo, pero Schrödinger esperaba que una teoría basada en propiedades ondulatorias continuas pudiera evitar lo que él llamó (parafraseado por Wilhelm Wien) "esta tontería sobre saltos cuánticos". Al final, triunfó el enfoque de Heisenberg y se confirmaron los saltos cuánticos.

Interpretación de Copenhague

[Interpretación de Copenhague] Bohr, Heisenberg y otros trataron de explicar qué significan realmente estos resultados experimentales y modelos matemáticos. Su descripción, conocida como la interpretación de Copenhague de la mecánica cuántica, tenía como objetivo describir la naturaleza de la realidad que estaba siendo probada por las mediciones y descrita por las formulaciones matemáticas de la mecánica cuántica.

Los principios fundamentales de la interpretación de Copenhague son:

1) Un sistema se describe completamente mediante una función de onda, generalmente representada por la letra griega "psi".
2) La forma en que "psi" cambia con el tiempo viene dada por la ecuación de Schrödinger.
3) La descripción de la naturaleza es esencialmente probabilística. La probabilidad de un evento, por ejemplo, cuando en la pantalla aparece una partícula en el experimento de la doble rendija, está relacionada con el cuadrado del valor absoluto de la amplitud de su función de onda. (Regla de Born, de Max Born, que da un significado físico a la función de onda en la interpretación de Copenhague: la amplitud de probabilidad).
4) No es posible conocer los valores de todas las propiedades del sistema al mismo tiempo; aquellas propiedades que no se conocen con precisión deben ser descritas por probabilidades. (Principio de incertidumbre de Heisenberg).
5) La materia, como la energía, exhibe una dualidad onda-partícula. Un experimento puede demostrar las propiedades de la materia como partículas, o sus propiedades como ondas; pero no los dos al mismo tiempo. (Principio de complementariedad debido a Bohr).
6) Los dispositivos de medición son esencialmente dispositivos clásicos y miden propiedades clásicas como la posición y el momento.
7) La descripción mecánica cuántica de grandes sistemas debería aproximarse mucho a la descripción clásica. (Principio de correspondencia de Bohr y Heisenberg).

Principio de incertidumbre

[Principio de incertidumbre de Heisemberg] Suponga que se desea medir la posición y la velocidad de un objeto, por ejemplo, un automóvil que pasa por una trampa de velocidad de radar. Se puede suponer que el automóvil tiene una posición y una velocidad definidas en un momento determinado. La precisión con la que se pueden medir estos valores depende de la calidad del equipo de medición. Si se mejora la precisión del equipo de medición, proporciona un resultado más cercano al valor real. Podría suponerse que la velocidad del automóvil y su posición podrían definirse operativamente y medirse simultáneamente, con la precisión que se desee.

En 1927, Heisenberg demostró que esta última suposición no es correcta. La mecánica cuántica muestra que ciertos pares de propiedades físicas, por ejemplo, la posición y la velocidad, no pueden medirse simultáneamente, ni definirse en términos operativos, con precisión arbitraria: cuanto más precisamente se mide una propiedad o se define en términos operativos, con menos precisión se puede medir o definir en términos operativos. el otro. Esta afirmación se conoce como el principio de incertidumbre. El principio de incertidumbre no es solo una declaración sobre la precisión de nuestro equipo de medición, sino que, más profundamente, se trata de la naturaleza conceptual de las cantidades medidas: la suposición de que el automóvil tenía la posición y la velocidad definidas simultáneamente no funciona en la mecánica cuántica. En una escala de automóviles y personas, estas incertidumbres son insignificantes, pero cuando se trata de átomos y electrones se vuelven críticas.

Heisenberg dio, como ilustración, la medida de la posición y el momento de un electrón usando un fotón de luz. Al medir la posición del electrón, cuanto mayor sea la frecuencia del fotón, más precisa será la medición de la posición del impacto del fotón con el electrón, pero mayor será la perturbación del electrón. Esto se debe a que a partir del impacto con el fotón, el electrón absorbe una cantidad aleatoria de energía, lo que hace que la medida obtenida de su impulso sea cada vez más incierta (el impulso es la velocidad multiplicada por la masa), ya que necesariamente se está midiendo su impulso perturbado posterior al impacto a partir de la productos de colisión y no su impulso original (impulso que debe medirse simultáneamente con la posición). Con un fotón de menor frecuencia, la perturbación (y por lo tanto la incertidumbre) en el impulso es menor, pero también lo es la precisión de la medición de la posición del impacto.

En el corazón del principio de incertidumbre está el hecho de que para cualquier análisis matemático en los dominios de la posición y la velocidad, lograr una curva más pronunciada (más precisa) en el dominio de la posición solo se puede lograr a expensas de una curva más gradual (menos precisa). en el dominio de la velocidad y viceversa. Más nitidez en el dominio de la posición requiere contribuciones de más frecuencias en el dominio de la velocidad para crear la curva más estrecha y viceversa. Es una compensación fundamental inherente a cualquier medida relacionada o complementaria, pero solo es realmente perceptible en la escala más pequeña (Planck), cerca del tamaño de las partículas elementales.

El principio de incertidumbre muestra matemáticamente que el producto de la incertidumbre en la posición y el momento de una partícula (el momento es la velocidad multiplicada por la masa) nunca puede ser inferior a un valor determinado, y que este valor está relacionado con la constante de Planck.

Colapso de la función de onda

[Colapso de la función de onda] El colapso de la función de onda significa que una medición ha forzado o convertido un estado cuántico (probabilidad o potencial) en un valor medido definido. Este fenómeno solo se ve en la mecánica cuántica en lugar de la mecánica clásica.

Por ejemplo, antes de que un fotón realmente "aparezca" en una pantalla de detección, solo se puede describir con un conjunto de probabilidades de dónde podría aparecer. Cuando aparece, por ejemplo en el CCD de una cámara electrónica, el tiempo y el espacio donde interactuó con el dispositivo se conocen dentro de límites muy estrictos. Sin embargo, el fotón ha desaparecido en el proceso de ser capturado (medido) y su función de onda cuántica ha desaparecido con él. En su lugar, ha aparecido algún cambio físico macroscópico en la pantalla de detección, por ejemplo, un punto expuesto en una hoja de película fotográfica, o un cambio en el potencial eléctrico en alguna celda de un CCD.

Estados propios y valores propios

[Estados propios y valores propios] Debido al principio de incertidumbre, las afirmaciones sobre la posición y el momento de las partículas pueden asignar solo una probabilidad de que la posición o el momento tengan algún valor numérico. Por tanto, es necesario formular claramente la diferencia entre el estado de algo indeterminado, como un electrón en una nube de probabilidad, y el estado de algo que tiene un valor definido. Cuando un objeto definitivamente puede ser "fijado" en algún aspecto, se dice que posee un estado propio.

En el experimento de Stern-Gerlach discutido anteriormente, el espín del átomo alrededor del eje vertical tiene dos estados propios: arriba y abajo. Antes de medirlo, solo podemos decir que cualquier átomo individual tiene la misma probabilidad de tener un giro hacia arriba o hacia abajo. El proceso de medición hace que la función de onda colapse en uno de los dos estados.

Los estados propios de espín sobre el eje vertical no son simultáneamente estados propios de espín sobre el eje horizontal, por lo que este átomo tiene la misma probabilidad de tener cualquier valor de espín sobre el eje horizontal. Como se describió en la sección anterior, medir el giro sobre el eje horizontal puede permitir que un átomo que giró hacia arriba gire hacia abajo: medir su giro sobre el eje horizontal colapsa su función de onda en uno de los estados propios de esta medición, lo que significa que es ya no está en un estado propio de giro sobre el eje vertical, por lo que puede tomar cualquier valor.

El principio de exclusión de Pauli

[El Principio de exclusión de Pauli] En 1924, Wolfgang Pauli propuso un nuevo grado cuántico de libertad (o número cuántico), con dos valores posibles, para resolver las inconsistencias entre los espectros moleculares observados y las predicciones de la mecánica cuántica. En particular, el espectro del hidrógeno atómico tenía un doblete, o un par de líneas que diferían en una pequeña cantidad, donde solo se esperaba una línea. Pauli formuló su principio de exclusión, afirmando: "No puede existir un átomo en tal estado cuántico que dos electrones dentro [de él] tengan el mismo conjunto de números cuánticos".

Un año después, Uhlenbeck y Goudsmit identificaron el nuevo grado de libertad de Pauli con la propiedad llamada espín cuyos efectos se observaron en el experimento de Stern-Gerlach.

Referencias

[Referencias]

Bernstein, Jeremy (2005). "Max Born and the quantum theory". American Journal of Physics. 73 (11): 999–1008.

Beller, Mara (2001). Quantum Dialogue: The Making of a Revolution. University of Chicago Press.

Bohr, Niels (1958). Atomic Physics and Human Knowledge. John Wiley & Sons]. ISBN 0486479285. OCLC 530611.

de Broglie, Louis (1953). The Revolution in Physics. Noonday Press.

Bronner, Patrick; Strunz, Andreas; Silberhorn, Christine; Meyn, Jan-Peter (2009). "Demonstrating quantum random with single photons". European Journal of Physics. 30 (5): 1189–1200.

Einstein, Albert (1934). Essays in Science. Philosophical Library. ISBN 0486470113.

Feigl, Herbert; Brodbeck, May (1953). Readings in the Philosophy of Science. Appleton-Century-Crofts. ISBN 0390304883.

Feynman, Richard P. (1949). "Space-Time Approach to Quantum Electrodynamics". Physical Review. 76 (6): 769–89.

Feynman, Richard P. (1990). QED, The Strange Theory of Light and Matter. Penguin Books. ISBN 978-0140125054.

Fowler, Michael (1999). The Bohr Atom. University of Virginia.

Heisenberg, Werner (1958). Physics and Philosophy. Harper and Brothers. ISBN 0061305499.

Lakshmibala, S. (2004). "Heisenberg, Matrix Mechanics and the Uncertainty Principle". Resonance: Journal of Science Education. 9 (8): 46–56.

Liboff, Richard L. (1992). Introductory Quantum Mechanics (2nd ed.). Addison-Wesley Pub. Co. ISBN 9780201547153.

Lindsay, Robert Bruce; Margenau, Henry (1957). Foundations of Physics. Dover. ISBN 0918024188.

McEvoy, J. P.; Zarate, Oscar (2004). Introducing Quantum Theory. ISBN 1874166374.

Nave, Carl Rod (2005). "Quantum Physics". HyperPhysics. Georgia State University.

Peat, F. David (2002). From Certainty to Uncertainty: The Story of Science and Ideas in the Twenty-First Century. Joseph Henry Press.

Reichenbach, Hans (1944). Philosophic Foundations of Quantum Mechanics. University of California Press. ISBN 0486404595.

Schilpp, Paul Arthur (1949). Albert Einstein: Philosopher-Scientist. Tudor Publishing Company.

Scientific American Reader, 1953.

Sears, Francis Weston (1949). Optics (3rd ed.). Addison-Wesley. ISBN 0195046013.

Shimony, A. (1983). "(title not given in citation)". Foundations of Quantum Mechanics in the Light of New Technology (S. Kamefuchi et al., eds.). Tokyo: Japan Physical Society.

p. 225.; cited in: Popescu, Sandu; Daniel Rohrlich (1996). "Action and Passion at a Distance: An Essay in Honor of Professor Abner Shimony".

Tavel, Morton; Tavel, Judith (illustrations) (2002). Contemporary physics and the limits of knowledge. Rutgers University Press. ISBN 978-0813530772.

Van Vleck, J. H.,1928, "The Correspondence Principle in the Statistical Interpretation of Quantum Mechanics", Proc. Natl. Acad. Sci. 14: 179.

Westmoreland; Benjamin Schumacher (1998). "Quantum Entanglement and the Nonexistence of Superluminal Signals".

Wheeler, John Archibald; Feynman, Richard P. (1949). "Classical Electrodynamics in Terms of Direct Interparticle Action" (PDF). Reviews of Modern Physics. 21 (3): 425–33.

Wieman, Carl; Perkins, Katherine (2005). "Transforming Physics Education". Physics Today. 58 (11): 36.




Modelación y simulación · Simulación cuántica · Software cuántico · Monte Carlo cuántico


camara3
QNuclei. N=5, Z=6


Quantum Metropolis, S.M.C.

28034 Madrid, España · https://fisica-cuantica.com/


Quantum Metropolis · Software de Mecánica Quántica

Miembro de MAPO: Red Europea


Software de simulación cuántica. Aplicaciones en computación cuántica, decoherencia, entrelazamiento cuántico, redes, sistemas de información cuántica, algoritmos, efecto túnel cuántico, programación, puntos y pozos cuánticos.