Introducción a la Física Cuántica · Quantum Metropolis software
Software basado la Teoría de Perturbaciones y en el método Monte Carlo de cálculo. Herramienta para el trabajo en el laboratorio, para la investigación, para la industria y para el sistema educativo. Aplicaciones en Física, Química e Ingeniería.
Introducción
[Introducción] La mecánica cuántica es el estudio de la materia y sus interacciones con la energía a escala de partículas atómicas y subatómicas. Por el contrario, la Física clásica explica la materia y la energía solo en una escala familiar para la experiencia humana, incluido el comportamiento de los cuerpos astronómicos como la Luna. La Física clásica todavía se usa en gran parte de la ciencia y la tecnología modernas. Sin embargo, hacia fines del siglo XIX, los científicos descubrieron fenómenos tanto en el mundo grande (macro) como en el pequeño (micro) que la física clásica no podía explicar. El deseo de resolver las inconsistencias entre los fenómenos observados y la teoría clásica condujo a dos grandes revoluciones en la física que crearon un cambio en el paradigma científico original: la teoría de la relatividad y el desarrollo de la mecánica cuántica. Este artículo describe estos conceptos aproximadamente en el orden en que fueron descubiertos por primera vez.
La luz se comporta en algunos aspectos como partículas y en otros
aspectos como ondas. La materia, la "cosa" del universo que consta
de partículas como electrones y átomos, también exhibe un
comportamiento ondulatorio. Algunas fuentes de luz, como las luces
de neón, emiten solo ciertas frecuencias específicas de luz, un
pequeño conjunto de colores puros distintos determinados por la
estructura atómica del neón. La mecánica cuántica muestra que la
luz, junto con todas las demás formas de radiación electromagnética,
viene en unidades discretas, llamadas fotones, y predice sus
energías espectrales (correspondientes a colores puros) y las
intensidades de sus haces de luz. Un solo fotón es un cuanto, o la
partícula observable más pequeña, del campo electromagnético. Un
fotón parcial nunca se observa experimentalmente. En términos más
generales, la mecánica cuántica muestra que muchas propiedades de
los objetos, como la posición, la velocidad y el momento angular,
que parecían continuas en la vista ampliada de la mecánica clásica,
resultan ser (en la minúscula escala ampliada de mecánica cuántica)
cuantizados. Se requiere que tales propiedades de las partículas
elementales tomen uno de un conjunto de valores permisibles pequeños
y discretos, y dado que la brecha entre estos valores también es
pequeña, las discontinuidades solo son evidentes en escalas
(atómicas) muy pequeñas.
Muchos aspectos de la mecánica cuántica son contrarios a la
intuición y pueden parecer paradójicos porque describen un
comportamiento muy diferente al observado a escalas mayores. En
palabras del físico cuántico Richard Feynman, la mecánica cuántica
se ocupa de "la naturaleza tal como es: absurda". Una de las
principales "paradojas" es la aparente inconsistencia entre las
leyes de Newton y la mecánica cuántica, que puede explicarse
utilizando el teorema de Ehrenfest, que muestra que los valores
promedio obtenidos de la mecánica cuántica (por ejemplo, posición y
momento) obedecen a leyes clásicas. Sin embargo, el teorema de
Ehrenfest está lejos de ser capaz de explicar todos los fenómenos
contrarios a la intuición (rarezas cuánticas) que se han observado,
sino que es una expresión matemática del principio de
correspondencia.
Por ejemplo, el principio de incertidumbre de la mecánica cuántica
significa que cuanto más se fije una medida (como la posición de una
partícula), menos precisa será otra medida complementaria
perteneciente a la misma partícula (como su velocidad). Otro ejemplo
es el entrelazamiento, en el que una medición de cualquier estado de
dos valores de una partícula (como la luz polarizada hacia arriba o
hacia abajo) realizada en cualquiera de las dos partículas
"entrelazadas" que están muy separadas provoca una medición
posterior en la otra partícula. siempre será el otro de los dos
valores (por ejemplo, polarizado en la dirección opuesta). Un último
ejemplo es la superfluidez, en la que un recipiente de helio
líquido, enfriado hasta casi el cero absoluto de temperatura, fluye
espontáneamente (lentamente) hacia arriba y sobre la abertura de su
recipiente, contra la fuerza de la gravedad.
La primera teoría cuántica: Max Planck y la radiación del cuerpo negro
[La
primera teoría cuántica] La radiación térmica es radiación
electromagnética emitida desde la superficie de un objeto debido a
la energía interna del objeto. Si un objeto se calienta lo
suficiente, comienza a emitir luz en el extremo rojo del espectro, a
medida que se vuelve al rojo vivo. Al calentarlo más, el color
cambia de rojo a amarillo, blanco y azul, ya que emite luz en
longitudes de onda cada vez más cortas (frecuencias más altas). Un
emisor perfecto es también un absorbente perfecto: cuando hace frío,
dicho objeto parece perfectamente negro, porque absorbe toda la luz
que incide sobre él y no emite ninguna. En consecuencia, un emisor
térmico ideal se conoce como cuerpo negro, y la radiación que emite
se denomina radiación de cuerpo negro.
A fines del siglo XIX, la radiación térmica se había caracterizado
experimentalmente bastante bien. Sin embargo, la física clásica
condujo a la ley de Rayleigh-Jeans que, como se muestra en la
figura, concuerda bien con los resultados experimentales a bajas
frecuencias, pero fuertemente discrepa a altas frecuencias. Los
físicos buscaron una sola teoría que explicara todos los resultados
experimentales.
El primer modelo que fue capaz de explicar el espectro completo de
la radiación térmica fue presentado por Max Planck en 1900. Propuso
un modelo matemático en el que la radiación térmica estaba en
equilibrio con un conjunto de osciladores armónicos. Para reproducir
los resultados experimentales, tuvo que suponer que cada oscilador
emitía un número entero de unidades de energía en su única
frecuencia característica, en lugar de poder emitir cualquier
cantidad arbitraria de energía. En otras palabras, se cuantizó la
energía emitida por un oscilador. La cantidad de energía para cada
oscilador, según Planck, era proporcional a la frecuencia del
oscilador; la constante de proporcionalidad ahora se conoce como la
constante de Planck. La constante de Planck, generalmente escrita
como h, tiene el valor de 6.63×10−34 J s. Entonces, la energía E de
un oscilador de frecuencia f está dada por
E= n h f, n=1,2,3,...
Para cambiar el color de tal cuerpo radiante, es necesario cambiar
su temperatura. La ley de Planck explica por qué: aumentar la
temperatura de un cuerpo le permite emitir más energía en general y
significa que una mayor proporción de la energía se encuentra en el
extremo violeta del espectro.
La ley de Planck fue la primera teoría cuántica en física, y Planck
ganó el Premio Nobel en 1918 "en reconocimiento a los servicios que
prestó al avance de la Física por su descubrimiento de los cuantos
de energía". En ese momento, sin embargo, la opinión de Planck era
que la cuantización era puramente una construcción matemática
heurística, en lugar de (como se cree ahora) un cambio fundamental
en nuestra comprensión del mundo.
Fotones: la cuantización de la luz
[Fotones] En 1905, Albert Einstein dio un paso más. Sugirió que la cuantización no era solo una construcción matemática, sino que la energía en un haz de luz en realidad ocurre en paquetes individuales, que ahora se llaman fotones. La energía de un solo fotón de luz de frecuencia f está dada por la frecuencia multiplicada por la constante de Planck h (un número positivo extremadamente pequeño): E=hf.
Durante siglos, los científicos habían debatido entre dos posibles teorías de la luz: ¿era una onda o, en cambio, comprendía una corriente de partículas diminutas? Para el siglo XIX, generalmente se consideraba que el debate se había resuelto a favor de la teoría ondulatoria, ya que podía explicar los efectos observados como la refracción, la difracción, la interferencia y la polarización. James Clerk Maxwell había demostrado que la electricidad, el magnetismo y la luz son manifestaciones del mismo fenómeno: el campo electromagnético. Las ecuaciones de Maxwell, que son el conjunto completo de leyes del electromagnetismo clásico, describen la luz como ondas: una combinación de campos eléctricos y magnéticos oscilantes. Debido a la preponderancia de la evidencia a favor de la teoría ondulatoria, las ideas de Einstein fueron inicialmente recibidas con gran escepticismo. Eventualmente, sin embargo, el modelo de fotones se convirtió en el favorito. Una de las pruebas más significativas a su favor fue su capacidad para explicar varias propiedades desconcertantes del efecto fotoeléctrico, que se describen en la siguiente sección. No obstante, la analogía ondulatoria siguió siendo indispensable para ayudar a comprender otras características de la luz: difracción, refracción e interferencia.
El efecto fotoeléctrico
[El efecto fotoeléctrico] En 1887, Heinrich Hertz observó que
cuando la luz con suficiente frecuencia golpea una superficie
metálica, la superficie emite electrones. En 1902, Philipp Lenard
descubrió que la energía máxima posible de un electrón expulsado
está relacionada con la frecuencia de la luz, no con su intensidad:
si la frecuencia es demasiado baja, no se expulsan electrones
independientemente de la intensidad. Los haces de luz fuertes hacia
el extremo rojo del espectro podrían no producir ningún potencial
eléctrico, mientras que los haces de luz débiles hacia el extremo
violeta del espectro producirían voltajes cada vez más altos. La
frecuencia de luz más baja que puede hacer que se emitan electrones,
llamada frecuencia umbral, es diferente para diferentes metales.
Esta observación está en desacuerdo con el electromagnetismo
clásico, que predice que la energía del electrón debería ser
proporcional a la intensidad de la radiación incidente. la luz
produciría un voltaje más alto del dispositivo fotoeléctrico.
Einstein explicó el efecto postulando que un haz de luz es una
corriente de partículas ("fotones") y que, si el haz es de
frecuencia f, entonces cada fotón tiene una energía igual a hf. Es
probable que un electrón sea golpeado solo por un único fotón, que
imparte como máximo una energía hf al electrón. Por lo tanto, la
intensidad del haz no tiene ningún efecto y solo su frecuencia
determina la energía máxima que se le puede impartir al electrón.
Para explicar el efecto de umbral, Einstein argumentó que se
necesita una cierta cantidad de energía, llamada función de trabajo
y denotada por φ, para quitar un electrón del metal. Esta cantidad
de energía es diferente para cada metal. Si la energía del fotón es
menor que la función de trabajo, entonces no lleva suficiente
energía para sacar el electrón del metal. La frecuencia umbral, es
la frecuencia de un fotón cuya energía es igual a la función de
trabajo. Si f es mayor que f0, la energía hf es suficiente para
quitar un electrón. El electrón expulsado tiene una energía
cinética, EK, que es, como máximo, igual a la energía del fotón
menos la energía necesaria para desalojar el electrón del metal.
Consecuencias de la cuantificación de la luz
[Consecuencias del efecto fotoeléctrico] La relación entre la
frecuencia de la radiación electromagnética y la energía de cada
fotón es la razón por la cual la luz ultravioleta puede causar
quemaduras solares, pero la luz visible o infrarroja no. Un fotón de
luz ultravioleta entrega una gran cantidad de energía, suficiente
para contribuir al daño celular como el que ocurre en una quemadura
solar. Un fotón de luz infrarroja entrega menos energía, solo lo
suficiente para calentar la piel. Por lo tanto, una lámpara
infrarroja puede calentar una superficie grande, tal vez lo
suficientemente grande como para mantener a las personas cómodas en
una habitación fría, pero no puede quemar a nadie.
Todos los fotones de la misma frecuencia tienen energía idéntica, y
todos los fotones de diferentes frecuencias tienen energías
diferentes. Sin embargo, aunque la energía impartida por los fotones
es invariable a cualquier frecuencia dada, el estado de energía
inicial de los electrones en un dispositivo fotoeléctrico antes de
la absorción de la luz no es necesariamente uniforme. Pueden
producirse resultados anómalos en el caso de electrones
individuales. Por ejemplo, un electrón que ya estaba excitado por
encima del nivel de equilibrio del dispositivo fotoeléctrico podría
ser expulsado cuando absorbiera una iluminación de baja frecuencia.
Sin embargo, estadísticamente, el comportamiento característico de
un dispositivo fotoeléctrico refleja el comportamiento de la gran
mayoría de sus electrones, que se encuentran en su nivel de
equilibrio. Este punto ayuda a aclarar la distinción entre el
estudio de partículas individuales pequeñas en la dinámica cuántica
y el estudio de partículas individuales masivas en la física
clásica.
La cuantización de la materia: el modelo de Bohr del átomo
[El modelo de Bohr del átomo] A principios del siglo XX, la evidencia requería un modelo del átomo con una nube difusa de electrones cargados negativamente que rodeaban un núcleo pequeño, denso y cargado positivamente. Estas propiedades sugirieron un modelo en el que los electrones giran alrededor del núcleo como los planetas que orbitan alrededor de una estrella. Sin embargo, también se sabía que el átomo en este modelo sería inestable: según la teoría clásica, los electrones que orbitan experimentan una aceleración centrípeta y por lo tanto, deben emitir radiación electromagnética, la pérdida de energía también hace que se desplacen en espiral hacia el núcleo, chocando con él en una fracción de segundo.
Un segundo rompecabezas relacionado fue el espectro de emisión de
los átomos. Cuando se calienta un gas, emite luz solo a frecuencias
discretas. Por ejemplo, la luz visible emitida por el hidrógeno
consta de cuatro colores diferentes, como se muestra en la imagen a
continuación. La intensidad de la luz a diferentes frecuencias
también es diferente. Por el contrario, la luz blanca consiste en
una emisión continua en todo el rango de frecuencias visibles. A
finales del siglo XIX, una sencilla regla conocida como fórmula de
Balmer mostraba cómo se relacionaban entre sí las frecuencias de las
distintas líneas, aunque sin explicar por qué, ni hacer ninguna
predicción sobre las intensidades. La fórmula también predijo
algunas líneas espectrales adicionales en luz ultravioleta e
infrarroja que no se habían observado en ese momento. Estas líneas
se observaron más tarde de forma experimental, aumentando la
confianza en el valor de la fórmula.
En 1913, Niels Bohr propuso un nuevo modelo del átomo que incluía órbitas de electrones cuantizadas: los electrones aún orbitan el núcleo como los planetas orbitan alrededor del sol, pero se les permite habitar solo ciertas órbitas, no orbitar a ninguna distancia arbitraria. Cuando un átomo emitía (o absorbía) energía, el electrón no se movía en una trayectoria continua de una órbita alrededor del núcleo a otra, como cabría esperar clásicamente. En cambio, el electrón saltaría instantáneamente de una órbita a otra, emitiendo la luz emitida en forma de fotón. Las posibles energías de los fotones emitidos por cada elemento estaban determinadas por las diferencias de energía entre las órbitas, por lo que el espectro de emisión de cada elemento contendría una serie de líneas.
Partiendo de una sola suposición simple sobre la regla que deben obedecer las órbitas, el modelo de Bohr pudo relacionar las líneas espectrales observadas en el espectro de emisión del hidrógeno con constantes previamente conocidas. En el modelo de Bohr, al electrón no se le permitía emitir energía continuamente y chocar contra el núcleo: una vez que estaba en la órbita más cercana permitida, era estable para siempre. El modelo de Bohr no explicaba por qué las órbitas debían cuantificarse de esa manera, ni podía hacer predicciones precisas para átomos con más de un electrón, ni explicar por qué algunas líneas espectrales son más brillantes que otras.
Pronto se demostró que algunas suposiciones fundamentales del modelo
de Bohr eran incorrectas, pero el resultado clave, de que las líneas
discretas en los espectros de emisión se deben a alguna propiedad de
los electrones en los átomos que se están cuantificando, es
correcto. La forma en que los electrones se comportan realmente es
sorprendentemente diferente del átomo de Bohr y de lo que vemos en
el mundo de nuestra experiencia cotidiana.
Experimento de Stern-Gerlach
[Experimento de Stern-Gerlach] En 1922, Otto Stern y Walther
Gerlach dispararon átomos de plata a través de un campo magnético no
homogéneo. En relación con su polo norte, apuntando hacia arriba,
hacia abajo o en algún punto intermedio, en la mecánica clásica, un
imán lanzado a través de un campo magnético puede desviarse una
distancia pequeña o grande hacia arriba o hacia abajo. Los átomos
que Stern y Gerlach lanzaron a través del campo magnético actuaron
de manera similar. Sin embargo, mientras que los imanes podrían
desviarse a distancias variables, los átomos siempre se desviarían a
una distancia constante, ya sea hacia arriba o hacia abajo. Esto
implicaba que la propiedad del átomo que corresponde a la
orientación del imán debe cuantificarse, tomando uno de dos valores
(hacia arriba o hacia abajo), en lugar de elegirse libremente desde
cualquier ángulo.
Ralph Kronig originó la teoría de que las partículas como los átomos
o los electrones se comportan como si rotaran, o "giraran",
alrededor de un eje. El espín explicaría el momento magnético
faltante [se necesita aclaración] y permitiría que dos electrones en
el mismo orbital ocuparan estados cuánticos distintos si "giraran"
en direcciones opuestas, satisfaciendo así el principio de
exclusión. El número cuántico representaba el sentido (positivo o
negativo) del espín.
La elección de la orientación del campo magnético utilizado en el
experimento de Stern-Gerlach es arbitraria. En la animación que se
muestra aquí, el campo es vertical, por lo que los átomos se desvían
hacia arriba o hacia abajo. Si el imán se gira un cuarto de vuelta,
los átomos se desvían hacia la izquierda o hacia la derecha. El uso
de un campo vertical muestra que el giro a lo largo del eje vertical
está cuantificado, y el uso de un campo horizontal muestra que el
giro a lo largo del eje horizontal está cuantificado.
Si en lugar de golpear la pantalla de un detector, uno de los haces
de átomos que salen del aparato de Stern-Gerlach pasa a otro campo
magnético (no homogéneo) orientado en la misma dirección, todos los
átomos se desvían de la misma manera en este segundo campo. . Sin
embargo, si el segundo campo está orientado a 90° con respecto al
primero, entonces la mitad de los átomos se desvían en un sentido y
la otra mitad en el otro, de modo que el giro del átomo sobre los
ejes horizontal y vertical es independiente entre sí. Sin embargo,
si uno de estos rayos (por ejemplo, los átomos que se desviaron
hacia arriba y luego hacia la izquierda) pasa a un tercer campo
magnético, orientado de la misma manera que el primero, la mitad de
los átomos van en una dirección y la otra mitad en la otra, aunque
todos ellos iba en la misma dirección originalmente. La acción de
medir el espín de los átomos con respecto a un campo horizontal ha
cambiado su espín con respecto a un campo vertical.
El experimento de Stern-Gerlach demuestra varias características
importantes de la mecánica cuántica:
1) Se ha demostrado que una característica del mundo natural está
cuantificada y puede tomar solo ciertos valores discretos.
2) Las partículas poseen un momento angular intrínseco que es muy similar al momento angular de un objeto que gira clásicamente.
3) La medición cambia el sistema que se mide en la mecánica cuántica. Solo se puede conocer el giro de un objeto en una dirección, y observar el giro en otra dirección destruye la información original sobre el giro.
4) La mecánica cuántica es probabilística: si el giro de cualquier átomo individual enviado al aparato es positivo o negativo es aleatorio.
Desarrollo de la mecánica cuántica moderna
[Desarrollo de la mecánica cuántica moderna] En 1925, Werner
Heisenberg intentó resolver uno de los problemas que el modelo de
Bohr dejaba sin resolver, explicando las intensidades de las
distintas líneas en el espectro de emisión del hidrógeno. A través
de una serie de analogías matemáticas, escribió el análogo
mecánico-cuántico para el cálculo clásico de intensidades. Poco
tiempo después, el colega de Heisenberg, Max Born, se dio cuenta de
que el método de Heisenberg para calcular las probabilidades de las
transiciones entre los diferentes niveles de energía se podía
expresar mejor usando el concepto matemático de matrices.
En el mismo año, basándose en la hipótesis de De Broglie, Erwin
Schrödinger desarrolló la ecuación que describe el comportamiento de
una onda mecánica cuántica. El modelo matemático, llamado ecuación
de Schrödinger en honor a su creador, es fundamental para la
mecánica cuántica, define los estados estacionarios permitidos de un
sistema cuántico y describe cómo cambia el estado cuántico de un
sistema físico en el tiempo. La onda en sí se describe mediante una
función matemática conocida como "función de onda". Schrödinger dijo
que la función de onda proporciona los "medios para predecir la
probabilidad de los resultados de la medición".
Schrödinger pudo calcular los niveles de energía del hidrógeno
tratando el electrón de un átomo de hidrógeno como una onda clásica,
moviéndose en un pozo del potencial eléctrico creado por el protón.
Este cálculo reprodujo con precisión los niveles de energía del
modelo de Bohr.
En mayo de 1926, Schrödinger demostró que la mecánica de matrices de
Heisenberg y su propia mecánica ondulatoria hacían las mismas
predicciones sobre las propiedades y el comportamiento del electrón;
matemáticamente, las dos teorías tenían una forma común subyacente.
Sin embargo, los dos hombres no estaban de acuerdo en la
interpretación de su teoría mutua. Por ejemplo, Heisenberg aceptó la
predicción teórica de saltos de electrones entre orbitales en un
átomo, pero Schrödinger esperaba que una teoría basada en
propiedades ondulatorias continuas pudiera evitar lo que él llamó
(parafraseado por Wilhelm Wien) "esta tontería sobre saltos
cuánticos". Al final, triunfó el enfoque de Heisenberg y se
confirmaron los saltos cuánticos.
Interpretación de Copenhague
[Interpretación de Copenhague] Bohr, Heisenberg y otros trataron de
explicar qué significan realmente estos resultados experimentales y
modelos matemáticos. Su descripción, conocida como la interpretación
de Copenhague de la mecánica cuántica, tenía como objetivo describir
la naturaleza de la realidad que estaba siendo probada por las
mediciones y descrita por las formulaciones matemáticas de la
mecánica cuántica.
Los principios fundamentales de la interpretación de Copenhague son:
1) Un sistema se describe completamente mediante una función de
onda, generalmente representada por la letra griega "psi".
2) La forma en que "psi" cambia con el tiempo viene dada por la
ecuación de Schrödinger.
3) La descripción de la naturaleza es esencialmente probabilística.
La probabilidad de un evento, por ejemplo, cuando en la pantalla
aparece una partícula en el experimento de la doble rendija, está
relacionada con el cuadrado del valor absoluto de la amplitud de su
función de onda. (Regla de Born, de Max Born, que da un significado
físico a la función de onda en la interpretación de Copenhague: la
amplitud de probabilidad).
4) No es posible conocer los valores de todas las propiedades del
sistema al mismo tiempo; aquellas propiedades que no se conocen con
precisión deben ser descritas por probabilidades. (Principio de
incertidumbre de Heisenberg).
5) La materia, como la energía, exhibe una dualidad onda-partícula.
Un experimento puede demostrar las propiedades de la materia como
partículas, o sus propiedades como ondas; pero no los dos al mismo
tiempo. (Principio de complementariedad debido a Bohr).
6) Los dispositivos de medición son esencialmente dispositivos
clásicos y miden propiedades clásicas como la posición y el momento.
7) La descripción mecánica cuántica de grandes sistemas debería
aproximarse mucho a la descripción clásica. (Principio de
correspondencia de Bohr y Heisenberg).
Principio de incertidumbre
[Principio de incertidumbre de Heisemberg] Suponga que se desea
medir la posición y la velocidad de un objeto, por ejemplo, un
automóvil que pasa por una trampa de velocidad de radar. Se puede
suponer que el automóvil tiene una posición y una velocidad
definidas en un momento determinado. La precisión con la que se
pueden medir estos valores depende de la calidad del equipo de
medición. Si se mejora la precisión del equipo de medición,
proporciona un resultado más cercano al valor real. Podría suponerse
que la velocidad del automóvil y su posición podrían definirse
operativamente y medirse simultáneamente, con la precisión que se
desee.
En 1927, Heisenberg demostró que esta última suposición no es
correcta. La mecánica cuántica muestra que ciertos pares de
propiedades físicas, por ejemplo, la posición y la velocidad, no
pueden medirse simultáneamente, ni definirse en términos operativos,
con precisión arbitraria: cuanto más precisamente se mide una
propiedad o se define en términos operativos, con menos precisión se
puede medir o definir en términos operativos. el otro. Esta
afirmación se conoce como el principio de incertidumbre. El
principio de incertidumbre no es solo una declaración sobre la
precisión de nuestro equipo de medición, sino que, más
profundamente, se trata de la naturaleza conceptual de las
cantidades medidas: la suposición de que el automóvil tenía la
posición y la velocidad definidas simultáneamente no funciona en la
mecánica cuántica. En una escala de automóviles y personas, estas
incertidumbres son insignificantes, pero cuando se trata de átomos y
electrones se vuelven críticas.
Heisenberg dio, como ilustración, la medida de la posición y el
momento de un electrón usando un fotón de luz. Al medir la posición
del electrón, cuanto mayor sea la frecuencia del fotón, más precisa
será la medición de la posición del impacto del fotón con el
electrón, pero mayor será la perturbación del electrón. Esto se debe
a que a partir del impacto con el fotón, el electrón absorbe una
cantidad aleatoria de energía, lo que hace que la medida obtenida de
su impulso sea cada vez más incierta (el impulso es la velocidad
multiplicada por la masa), ya que necesariamente se está midiendo su
impulso perturbado posterior al impacto a partir de la productos de
colisión y no su impulso original (impulso que debe medirse
simultáneamente con la posición). Con un fotón de menor frecuencia,
la perturbación (y por lo tanto la incertidumbre) en el impulso es
menor, pero también lo es la precisión de la medición de la posición
del impacto.
En el corazón del principio de incertidumbre está el hecho de que
para cualquier análisis matemático en los dominios de la posición y
la velocidad, lograr una curva más pronunciada (más precisa) en el
dominio de la posición solo se puede lograr a expensas de una curva
más gradual (menos precisa). en el dominio de la velocidad y
viceversa. Más nitidez en el dominio de la posición requiere
contribuciones de más frecuencias en el dominio de la velocidad para
crear la curva más estrecha y viceversa. Es una compensación
fundamental inherente a cualquier medida relacionada o
complementaria, pero solo es realmente perceptible en la escala más
pequeña (Planck), cerca del tamaño de las partículas elementales.
El principio de incertidumbre muestra matemáticamente que el
producto de la incertidumbre en la posición y el momento de una
partícula (el momento es la velocidad multiplicada por la masa)
nunca puede ser inferior a un valor determinado, y que este valor
está relacionado con la constante de Planck.
Colapso de la función de onda
[Colapso de la función de onda] El colapso de la función de onda
significa que una medición ha forzado o convertido un estado
cuántico (probabilidad o potencial) en un valor medido definido.
Este fenómeno solo se ve en la mecánica cuántica en lugar de la
mecánica clásica.
Por ejemplo, antes de que un fotón realmente "aparezca" en una
pantalla de detección, solo se puede describir con un conjunto de
probabilidades de dónde podría aparecer. Cuando aparece, por ejemplo
en el CCD de una cámara electrónica, el tiempo y el espacio donde
interactuó con el dispositivo se conocen dentro de límites muy
estrictos. Sin embargo, el fotón ha desaparecido en el proceso de
ser capturado (medido) y su función de onda cuántica ha desaparecido
con él. En su lugar, ha aparecido algún cambio físico macroscópico
en la pantalla de detección, por ejemplo, un punto expuesto en una
hoja de película fotográfica, o un cambio en el potencial eléctrico
en alguna celda de un CCD.
Estados propios y valores propios
[Estados propios y valores propios] Debido al principio de
incertidumbre, las afirmaciones sobre la posición y el momento de
las partículas pueden asignar solo una probabilidad de que la
posición o el momento tengan algún valor numérico. Por tanto, es
necesario formular claramente la diferencia entre el estado de algo
indeterminado, como un electrón en una nube de probabilidad, y el
estado de algo que tiene un valor definido. Cuando un objeto
definitivamente puede ser "fijado" en algún aspecto, se dice que
posee un estado propio.
En el experimento de Stern-Gerlach discutido anteriormente, el espín
del átomo alrededor del eje vertical tiene dos estados propios:
arriba y abajo. Antes de medirlo, solo podemos decir que cualquier
átomo individual tiene la misma probabilidad de tener un giro hacia
arriba o hacia abajo. El proceso de medición hace que la función de
onda colapse en uno de los dos estados.
Los estados propios de espín sobre el eje vertical no son
simultáneamente estados propios de espín sobre el eje horizontal,
por lo que este átomo tiene la misma probabilidad de tener cualquier
valor de espín sobre el eje horizontal. Como se describió en la
sección anterior, medir el giro sobre el eje horizontal puede
permitir que un átomo que giró hacia arriba gire hacia abajo: medir
su giro sobre el eje horizontal colapsa su función de onda en uno de
los estados propios de esta medición, lo que significa que es ya no
está en un estado propio de giro sobre el eje vertical, por lo que
puede tomar cualquier valor.
El principio de exclusión de Pauli
[El Principio de exclusión de Pauli] En 1924, Wolfgang Pauli
propuso un nuevo grado cuántico de libertad (o número cuántico), con
dos valores posibles, para resolver las inconsistencias entre los
espectros moleculares observados y las predicciones de la mecánica
cuántica. En particular, el espectro del hidrógeno atómico tenía un
doblete, o un par de líneas que diferían en una pequeña cantidad,
donde solo se esperaba una línea. Pauli formuló su principio de
exclusión, afirmando: "No puede existir un átomo en tal estado
cuántico que dos electrones dentro [de él] tengan el mismo conjunto
de números cuánticos".
Un año después, Uhlenbeck y Goudsmit identificaron el nuevo grado de
libertad de Pauli con la propiedad llamada espín cuyos efectos se
observaron en el experimento de Stern-Gerlach.
Referencias
[Referencias]
Bernstein, Jeremy (2005). "Max Born and the quantum theory". American Journal of Physics. 73 (11): 999–1008.
Beller, Mara (2001). Quantum Dialogue: The Making of a Revolution. University of Chicago Press.
Bohr, Niels (1958). Atomic Physics and Human Knowledge. John Wiley & Sons]. ISBN 0486479285. OCLC 530611.
de Broglie, Louis (1953). The Revolution in Physics. Noonday Press.
Bronner, Patrick; Strunz, Andreas; Silberhorn, Christine; Meyn, Jan-Peter (2009). "Demonstrating quantum random with single photons". European Journal of Physics. 30 (5): 1189–1200.
Einstein, Albert (1934). Essays in Science. Philosophical Library. ISBN 0486470113.
Feigl, Herbert; Brodbeck, May (1953). Readings in the Philosophy of Science. Appleton-Century-Crofts. ISBN 0390304883.
Feynman, Richard P. (1949). "Space-Time Approach to Quantum Electrodynamics". Physical Review. 76 (6): 769–89.
Feynman, Richard P. (1990). QED, The Strange Theory of Light and Matter. Penguin Books. ISBN 978-0140125054.
Fowler, Michael (1999). The Bohr Atom. University of Virginia.
Heisenberg, Werner (1958). Physics and Philosophy. Harper and Brothers. ISBN 0061305499.
Lakshmibala, S. (2004). "Heisenberg, Matrix Mechanics and the Uncertainty Principle". Resonance: Journal of Science Education. 9 (8): 46–56.
Liboff, Richard L. (1992). Introductory Quantum Mechanics (2nd ed.). Addison-Wesley Pub. Co. ISBN 9780201547153.
Lindsay, Robert Bruce; Margenau, Henry (1957). Foundations of Physics. Dover. ISBN 0918024188.
McEvoy, J. P.; Zarate, Oscar (2004). Introducing Quantum Theory. ISBN 1874166374.
Nave, Carl Rod (2005). "Quantum Physics". HyperPhysics. Georgia State University.
Peat, F. David (2002). From Certainty to Uncertainty: The Story of Science and Ideas in the Twenty-First Century. Joseph Henry Press.
Reichenbach, Hans (1944). Philosophic Foundations of Quantum Mechanics. University of California Press. ISBN 0486404595.
Schilpp, Paul Arthur (1949). Albert Einstein: Philosopher-Scientist. Tudor Publishing Company.
Scientific American Reader, 1953.
Sears, Francis Weston (1949). Optics (3rd ed.). Addison-Wesley. ISBN 0195046013.
Shimony, A. (1983). "(title not given in citation)". Foundations of Quantum Mechanics in the Light of New Technology (S. Kamefuchi et al., eds.). Tokyo: Japan Physical Society.
p. 225.; cited in: Popescu, Sandu; Daniel Rohrlich (1996). "Action and Passion at a Distance: An Essay in Honor of Professor Abner Shimony".
Tavel, Morton; Tavel, Judith (illustrations) (2002). Contemporary physics and the limits of knowledge. Rutgers University Press. ISBN 978-0813530772.
Van Vleck, J. H.,1928, "The Correspondence Principle in the Statistical Interpretation of Quantum Mechanics", Proc. Natl. Acad. Sci. 14: 179.
Westmoreland; Benjamin Schumacher (1998). "Quantum Entanglement and the Nonexistence of Superluminal Signals".
Wheeler, John Archibald; Feynman, Richard P. (1949). "Classical Electrodynamics in Terms of Direct Interparticle Action" (PDF). Reviews of Modern Physics. 21 (3): 425–33.
Wieman, Carl; Perkins, Katherine (2005). "Transforming Physics Education". Physics Today. 58 (11): 36.
Quantum Metropolis, S.M.C.
28034 Madrid, España · https://fisica-cuantica.com/
Quantum Metropolis · Software de Mecánica Quántica
Miembro de MAPO: Red Europea
Software de simulación cuántica. Aplicaciones en computación cuántica, decoherencia, entrelazamiento cuántico, redes, sistemas de información cuántica, algoritmos, efecto túnel cuántico, programación, puntos y pozos cuánticos.