Introdução à Física Quântica · Quantum Metropolis software

Software baseado na teoria da Perturbação e no método de cálculo de Monte Carlo. Ferramenta para trabalho em laboratório, para pesquisa, para a indústria e para o sistema educacional. Aplicações em Física, Química e Engenharia.


camara3
QNuclei · Quantum Metropolis software

Introdução

A mecânica quântica é o estudo da matéria e suas interações com a energia na escala de partículas atômicas e subatômicas. Em contraste, a Física clássica explica matéria e energia apenas em uma escala familiar à experiência humana, incluindo o comportamento de corpos astronômicos como a Lua. A Física Clássica ainda é usada em grande parte da ciência e tecnologia modernas. No entanto, no final do século 19, os cientistas descobriram fenômenos nos mundos grande (macro) e pequeno (micro) que a física clássica não conseguia explicar. O desejo de resolver inconsistências entre os fenômenos observados e a teoria clássica levou a duas grandes revoluções na física que criaram uma mudança no paradigma científico original: a teoria da relatividade e o desenvolvimento da mecânica quântica. Este artigo descreve esses conceitos aproximadamente na ordem em que foram descobertos pela primeira vez.


A luz se comporta em alguns aspectos como partículas e em outros como ondas. A matéria, a "coisa" no universo que consiste em partículas como elétrons e átomos, também exibe um comportamento ondulatório. Algumas fontes de luz, como as luzes de néon, emitem apenas certas frequências específicas de luz, um pequeno conjunto de cores puras distintas determinadas pela estrutura atômica do néon. A mecânica quântica mostra que a luz, juntamente com todas as outras formas de radiação eletromagnética, vem em unidades discretas, chamadas fótons, e prevê suas energias espectrais (correspondentes a cores puras) e as intensidades de seus feixes de luz. Um único fóton é um quantum, ou a menor partícula observável, do campo eletromagnético. Um fóton parcial nunca é observado experimentalmente. De maneira mais geral, a mecânica quântica mostra que muitas propriedades de objetos, como posição, velocidade e momento angular, que pareciam contínuas na visão ampliada da mecânica clássica, acabam sendo (na pequena escala ampliada da mecânica quântica) ) quantizadas. Essas propriedades das partículas elementares são necessárias para assumir um conjunto de valores pequenos e discretos permitidos e, como a diferença entre esses valores também é pequena, as descontinuidades são aparentes apenas em escalas muito pequenas (atômicas).


Muitos aspectos da mecânica quântica são contra-intuitivos e podem parecer paradoxais porque descrevem um comportamento muito diferente daquele observado em escalas maiores. Nas palavras do físico quântico Richard Feynman, a mecânica quântica lida com a "natureza como ela é: absurda". Um dos principais "paradoxos" é a aparente inconsistência entre as leis de Newton e a mecânica quântica, que pode ser explicada pelo teorema de Ehrenfest, que mostra que os valores médios obtidos da mecânica quântica (por exemplo, posição e momento) obedecem às leis clássicas . No entanto, o teorema de Ehrenfest está longe de ser capaz de explicar todos os fenômenos contra-intuitivos (estranhezas quânticas) que foram observados, mas é uma expressão matemática do princípio da correspondência.

Por exemplo, o princípio da incerteza da mecânica quântica significa que quanto mais uma medida (como a posição de uma partícula) é fixa, menos precisa outra medida complementar pertencente à mesma partícula (como sua velocidade) se torna. Outro exemplo é o emaranhamento, no qual uma medição de qualquer estado de dois valores de uma partícula (como luz polarizada para cima ou para baixo) feita em quaisquer duas partículas "emaranhadas" que estão distantes causa uma medição subsequente na outra partícula. sempre será o outro dos dois valores (por exemplo, tendencioso na direção oposta). Um exemplo final é a superfluidez, na qual um recipiente de hélio líquido, resfriado a temperatura próxima do zero absoluto, flui espontaneamente (lentamente) para cima e sobre a abertura de seu recipiente, contra a força da gravidade.

A primeira teoria quântica: Max Planck e a radiação do corpo negro

A radiação térmica é a radiação eletromagnética emitida da superfície de um objeto devido à energia interna do objeto. Se um objeto é quente ou o suficiente, ele começa a emitir luz na extremidade vermelha do espectro, à medida que se torna vermelho quente. À medida que envelhece, ao mudar de vermelho para amarelo, branco e azul, emite luz em compressões de ondas cada vez mais curtas (frequências mais altas). Um emissor perfeito também é um absorvedor perfeito: quando está frio, este objeto parece perfeitamente escuro, porque absorve toda a luz que incide sobre ele e não emite luz. Consequentemente, um emissor de calor ideal é conhecido como corpo negro, e a radiação que ele emite é chamada de radiação de corpo negro.

No final do século XIX, a radiação térmica foi caracterizada experimentalmente. No entanto, a física clássica levou à lei de Rayleigh-Jeans que, como mostrado na figura, concorda bem com os resultados experimentais em baixas frequências, mas discorda fortemente em altas frequências. Os físicos buscarão uma única teoria que explique todos os resultados que você experimenta.

O primeiro modelo capaz de explicar todo o espectro de radiação térmica foi apresentado por Max Planck em 1900. Ele propôs um modelo matemático em que a radiação térmica estava em equilíbrio com um conjunto de osciladores harmônicos. Para reproduzir os resultados experimentais, tivemos que assumir que cada oscilador estava emitindo um número inteiro de unidades de energia em sua frequência característica única, em vez de ser capaz de emitir qualquer quantidade arbitrária de energia. Em outras palavras, a energia emitida por um oscilador foi quantizada. A quantidade de energia para cada oscilador, segundo Planck, era proporcional à frequência do oscilador; A constante de proporcionalidade é agora conhecida como constante de Planck. A constante de Planck, geralmente escrita como h, tem ou valor 6,63×10−34 J s. Portanto, a energia E de um oscilador de frequência f é dada por E= n h f, n=1,2,3,...

Para mudar a cor de um corpo radiante, é necessário alterar sua temperatura. A lei de Planck explica o porquê: Aumentar a temperatura de um corpo permite que ele emita mais energia em geral e significa que uma proporção maior de energia está na extremidade violeta do espectro.

A lei de Planck foi a primeira teoria quântica da física, e Planck ganhou o Prêmio Nobel em 1918 "em reconhecimento aos serviços que prestou à física avançada por seus dois quanta de energia descobertos". Na época, no entanto, a visão de Planck era que a quantização era puramente uma construção matemática heurística, e não (como agora se acredita) uma mudança fundamental em nossa compreensão do mundo.

Fótons: a quantização da luz

Em 1905, Albert Einstein deu um passo adiante. Ele sugeriu que a quantização não era apenas uma construção matemática, mas que a energia em um feixe de luz realmente ocorre em pacotes individuais, agora chamados de fótons. A energia de um único fóton de luz de freqüência f é dada pela freqüência multiplicada pela constante de Planck h (um número positivo extremamente pequeno): E=hf.

Durante séculos, os cientistas debateram entre duas possíveis teorias da luz: era uma onda ou, em vez disso, compreendia um fluxo de partículas minúsculas? No século 19, o debate foi geralmente considerado como tendo se estabelecido em favor da teoria das ondas, uma vez que poderia explicar efeitos observados como refração, difração, interferência e polarização. James Clerk Maxwell havia mostrado que eletricidade, magnetismo e luz são manifestações do mesmo fenômeno: o campo eletromagnético. As equações de Maxwell, que são o conjunto completo de leis do eletromagnetismo clássico, descrevem a luz como ondas: uma combinação de campos elétricos e magnéticos oscilantes. Devido à preponderância de evidências a favor da teoria das ondas, as ideias de Einstein foram inicialmente recebidas com grande ceticismo. Eventualmente, no entanto, o modelo de fótons se tornou o favorito. Uma das evidências mais significativas a seu favor foi sua capacidade de explicar várias propriedades intrigantes do efeito fotoelétrico, descritas na próxima seção. No entanto, a analogia da onda permaneceu indispensável para ajudar a entender outras características da luz: difração, refração e interferência.

O efeito fotoelétrico

Em 1887, Heinrich Hertz observou que quando a luz atinge com bastante frequência uma superfície de metal, a superfície emite elétrons. Em 1902, Philipp Lenard descobriu que a energia máxima possível de um elétron ejetado está relacionada à frequência da luz, não à sua intensidade: se a frequência for muito baixa, nenhum elétron é ejetado, independentemente da intensidade. Feixes de luz fortes em direção à extremidade vermelha do espectro podem não produzir nenhum potencial elétrico, enquanto feixes de luz fracos em direção à extremidade violeta do espectro produziriam voltagens cada vez mais altas. A frequência mais baixa de luz que pode causar a emissão de elétrons, chamada de frequência limite, é diferente para diferentes metais. Esta observação está em desacordo com o eletromagnetismo clássico, que prevê que a energia do elétron deve ser proporcional à intensidade da radiação incidente. a luz produziria uma voltagem mais alta do dispositivo fotoelétrico.

Einstein explicou o efeito postulando que um feixe de luz é um fluxo de partículas ("fótons") e que, se o feixe é de frequência f, então cada fóton tem uma energia igual a hf. É provável que um elétron seja atingido por apenas um único fóton, que transmite no máximo uma energia hf ao elétron. Portanto, a intensidade do feixe não tem efeito e apenas sua frequência determina a energia máxima que pode ser transmitida ao elétron.

Para explicar o efeito limiar, Einstein argumentou que uma certa quantidade de energia, chamada de função trabalho e denotada por φ, é necessária para remover um elétron do metal. Esta quantidade de energia é diferente para cada metal. Se a energia do fóton for menor que a função trabalho, então ele não carrega energia suficiente para expulsar o elétron do metal. A frequência limite é a frequência de um fóton cuja energia é igual à função trabalho. Se f for maior que f0, a energia hf é suficiente para remover um elétron. O elétron ejetado tem uma energia cinética, EK, que é no máximo igual à energia do fóton menos a energia necessária para desalojar o elétron do metal.
A descrição de Einstein da luz como composta de partículas estendeu a noção de energia quantizada de Planck, que é que um único fóton de uma dada frequência, f, fornece uma quantidade invariável de energia, hf. Em outras palavras, fótons individuais podem fornecer mais ou menos energia, mas apenas em função de suas frequências. Na natureza, fótons únicos raramente são encontrados. O Sol e as fontes de emissão disponíveis no século 19 emitem um grande número de fótons a cada segundo, então a importância da energia transportada por cada fóton não era óbvia. A ideia de Einstein de que a energia contida em unidades individuais de luz depende de sua frequência tornou possível explicar resultados experimentais que pareciam contraditórios. No entanto, mesmo que o fóton seja uma partícula, ainda foi descrito como tendo a propriedade de frequência de onda. De fato, a descrição da luz como uma partícula é insuficiente e sua natureza ondulatória ainda é necessária.

Consequências da quantização de luz

A relação entre a frequência da radiação eletromagnética e a energia de cada fóton é o motivo pelo qual a luz ultravioleta pode causar queimaduras solares, mas a luz visível ou infravermelha não. Um fóton de luz ultravioleta fornece uma grande quantidade de energia, o suficiente para contribuir para danos às células, como o que ocorre em uma queimadura solar. Um fóton de luz infravermelha fornece menos energia, apenas o suficiente para aquecer a pele. Assim, uma lâmpada infravermelha pode aquecer uma grande área de superfície, talvez grande o suficiente para manter as pessoas confortáveis ​​em uma sala fria, mas não pode queimar ninguém.

Todos os fótons de mesma frequência têm energia idêntica e todos os fótons de frequências diferentes têm energias diferentes. No entanto, embora a energia transmitida pelos fótons seja invariável em qualquer frequência, o estado inicial de energia dos elétrons em um dispositivo fotoelétrico antes da absorção da luz não é necessariamente uniforme. Resultados anômalos podem ocorrer no caso de elétrons únicos. Por exemplo, um elétron que já estava excitado acima do nível de equilíbrio do dispositivo fotoelétrico poderia ser ejetado quando absorvesse iluminação de baixa frequência. No entanto, estatisticamente, o comportamento característico de um dispositivo fotoelétrico reflete o comportamento da grande maioria de seus elétrons, que estão em seu nível de equilíbrio. Este ponto ajuda a esclarecer a distinção entre o estudo de pequenas partículas simples na dinâmica quântica e o estudo de partículas massivas na física clássica.

A quantização da matéria: o modelo de Bohr do átomo

No início do século 20, a evidência exigia um modelo do átomo com uma nuvem difusa de elétrons carregados negativamente em torno de um núcleo pequeno, denso e carregado positivamente. Essas propriedades sugeriram um modelo no qual os elétrons orbitam o núcleo como planetas orbitando uma estrela. No entanto, também se sabia que o átomo neste modelo seria instável: de acordo com a teoria clássica, os elétrons em órbita experimentam uma aceleração centrípeta e, portanto, devem emitir radiação eletromagnética, a perda de energia também os faz espiralar para baixo. com ele em uma fração de segundo.

Um segundo quebra-cabeça relacionado era o espectro de emissão dos átomos. Quando um gás é aquecido, ele emite luz apenas em frequências discretas. Por exemplo, a luz visível emitida pelo hidrogênio consiste em quatro cores diferentes, como mostra a imagem abaixo. A intensidade da luz em diferentes frequências também é diferente. Pelo contrário, a luz branca consiste em uma emissão contínua em toda a faixa de frequências visíveis. No final do século 19, uma regra simples conhecida como fórmula de Balmer mostrava como as frequências de diferentes linhas se relacionavam, embora sem explicar o porquê ou fazer previsões sobre as intensidades. A fórmula também previu algumas linhas espectrais adicionais na luz ultravioleta e infravermelha que não haviam sido observadas na época. Essas linhas foram posteriormente observadas experimentalmente, aumentando a confiança no valor da fórmula.

Em 1913, Niels Bohr propôs um novo modelo do átomo que incluía órbitas eletrônicas quantizadas: os elétrons ainda orbitam o núcleo como os planetas orbitam o sol, mas eles podem habitar apenas certas órbitas, não orbitar a qualquer distância arbitrária. Quando um átomo emitia (ou absorvia) energia, o elétron não se movia em um caminho contínuo de uma órbita ao redor do núcleo para outra, como se esperaria classicamente. Em vez disso, o elétron saltaria instantaneamente de uma órbita para outra, emitindo a luz emitida na forma de um fóton. As energias possíveis dos fótons emitidos por cada elemento foram determinadas pelas diferenças de energia entre as órbitas, de modo que o espectro de emissão de cada elemento conteria uma série de linhas.

Partindo de uma simples suposição sobre a regra que as órbitas devem obedecer, o modelo de Bohr foi capaz de relacionar as linhas espectrais observadas no espectro de emissão do hidrogênio a constantes previamente conhecidas. No modelo de Bohr, o elétron não podia emitir energia continuamente e colidir com o núcleo: uma vez que estava na órbita mais próxima permitida, era estável para sempre. O modelo de Bohr não explica por que as órbitas devem ser quantizadas dessa maneira, nem pode fazer previsões precisas para átomos com mais de um elétron, nem explicar por que algumas linhas espectrais são mais brilhantes que outras.

Algumas suposições fundamentais do modelo de Bohr logo se mostraram incorretas, mas o resultado principal, que as linhas discretas nos espectros de emissão são devidos a alguma propriedade dos elétrons nos átomos que estão sendo quantizados, está correto. A maneira como os elétrons realmente se comportam é notavelmente diferente do átomo de Bohr e do que vemos no mundo de nossa experiência cotidiana.

Experiência Stern-Gerlach

Em 1922, Otto Stern e Walther Gerlach dispararam átomos de prata através de um campo magnético não homogêneo. Em relação ao seu pólo norte, apontando para cima, para baixo, ou em algum lugar no meio, na mecânica clássica, um ímã lançado através de um campo magnético pode desviar uma pequena ou grande distância para cima ou para baixo. Os átomos que Stern e Gerlach lançaram através do campo magnético agiram de maneira semelhante. No entanto, enquanto os ímãs podem ser desviados por distâncias variadas, os átomos sempre seriam desviados por uma distância constante, para cima ou para baixo. Isso implicava que a propriedade do átomo correspondente à orientação do ímã deve ser quantizada, tomando um de dois valores (para cima ou para baixo), em vez de ser escolhido livremente de qualquer ângulo.

Ralph Kronig originou a teoria de que partículas como átomos ou elétrons se comportam como se girassem, ou "rotassem", em torno de um eixo. O spin seria responsável pelo momento magnético ausente [esclarecimento necessário] e permitiria que dois elétrons no mesmo orbital ocupassem diferentes estados quânticos se eles "girem" em direções opostas, satisfazendo assim o princípio de exclusão. O número quântico representava a direção (positiva ou negativa) do spin.

A escolha da orientação do campo magnético usado no experimento de Stern-Gerlach é arbitrária. Na animação mostrada aqui, o campo é vertical, então os átomos são desviados para cima ou para baixo. Se o ímã é girado um quarto de volta, os átomos são desviados para a esquerda ou para a direita. O uso de um campo vertical mostra que o spin ao longo do eixo vertical é quantizado e o uso de um campo horizontal mostra que o spin ao longo do eixo horizontal é quantizado.

Se, em vez de atingir a tela de um detector, um dos feixes de átomos que saem do aparelho de Stern-Gerlach passa para outro campo magnético (não homogêneo) orientado na mesma direção, todos os átomos são desviados da mesma maneira nesse segundo campo. . No entanto, se o segundo campo estiver orientado a 90° em relação ao primeiro, então metade dos átomos são desviados para um lado e metade para o outro, de modo que o spin do átomo em torno dos eixos horizontal e vertical é independente um do outro. No entanto, se um desses raios (por exemplo, os átomos que foram desviados para cima e depois para a esquerda) passa para um terceiro campo magnético, orientado da mesma forma que o primeiro, metade dos átomos vai em uma direção. metade na outra, embora todos estivessem indo na mesma direção originalmente. A ação de medir o spin dos átomos em relação a um campo horizontal mudou seu spin em relação a um campo vertical.

O experimento de Stern-Gerlach demonstra várias características importantes da mecânica quântica:

1) Foi demonstrado que uma característica do mundo natural é quantizada e pode assumir apenas certos valores discretos.

2) As partículas possuem um momento angular intrínseco que é muito semelhante ao momento angular de um objeto em rotação clássica.

3) A medição altera o sistema que está sendo medido na mecânica quântica. O giro de um objeto só pode ser conhecido em uma direção, e observar o giro em outra direção destrói a informação original sobre o giro.

4) A mecânica quântica é probabilística: se o spin de qualquer átomo individual enviado ao aparelho é positivo ou negativo é aleatório.

Desenvolvimento da mecânica quântica moderna

Em 1925, Werner Heisenberg tentou resolver um dos problemas não resolvidos pelo modelo de Bohr, explicando as intensidades das várias linhas no espectro de emissão do hidrogênio. Através de uma série de analogias matemáticas, ele escreveu o análogo da mecânica quântica para o cálculo clássico de intensidades. Pouco tempo depois, o colega de Heisenberg, Max Born, percebeu que o método de Heisenberg de calcular as probabilidades de transições entre diferentes níveis de energia poderia ser melhor expresso usando o conceito matemático de matrizes.

No mesmo ano, baseado na hipótese de de Broglie, Erwin Schrödinger desenvolveu a equação que descreve o comportamento de uma onda da mecânica quântica. O modelo matemático, chamado de equação de Schrödinger em homenagem ao seu criador, é fundamental para a mecânica quântica, definindo os estados estacionários permitidos de um sistema quântico e descrevendo como o estado quântico de um sistema físico muda ao longo do tempo. A onda em si é descrita por uma função matemática conhecida como "função de onda". Schrödinger disse que a função de onda fornece os "meios de prever a probabilidade de resultados de medição".

Schrödinger foi capaz de calcular os níveis de energia do hidrogênio tratando o elétron em um átomo de hidrogênio como uma onda clássica, movendo-se em um poço de potencial elétrico criado pelo próton. Este cálculo reproduziu com precisão os níveis de energia do modelo de Bohr.

Em maio de 1926, Schrödinger mostrou que a mecânica matricial de Heisenberg e sua própria mecânica ondulatória faziam as mesmas previsões sobre as propriedades e o comportamento do elétron; matematicamente, as duas teorias tinham uma forma comum subjacente. No entanto, os dois homens discordaram sobre a interpretação de sua teoria mútua. Por exemplo, Heisenberg aceitou a previsão teórica de salto de elétrons entre orbitais em um átomo, mas Schrödinger esperava que uma teoria baseada em propriedades de ondas contínuas pudesse evitar o que ele chamou (parafraseado por Wilhelm Wien) de "esse absurdo de salto quântico". No final, a abordagem de Heisenberg venceu e os saltos quânticos foram confirmados.

Interpretação de Copenhague

Bohr, Heisenberg e outros tentaram explicar o que esses resultados experimentais e modelos matemáticos realmente significam. Sua descrição, conhecida como a interpretação de Copenhague da mecânica quântica, visava descrever a natureza da realidade que estava sendo testada por medições e descrita pelas formulações matemáticas da mecânica quântica.

Os princípios fundamentais da interpretação de Copenhague são:

1) Um sistema é completamente descrito por uma função de onda, geralmente representada pela letra grega "psi".
2) A forma como "psi" muda ao longo do tempo é dada pela equação de Schrödinger.
3) A descrição da natureza é essencialmente probabilística. A probabilidade de um evento, por exemplo, quando uma partícula aparece na tela no experimento da dupla fenda, está relacionada ao quadrado do valor absoluto da amplitude de sua função de onda. (Regra de Born, de Max Born, que dá um significado físico à função de onda na interpretação de Copenhague: a amplitude de probabilidade).
4) Não é possível saber os valores de todas as propriedades do sistema ao mesmo tempo; aquelas propriedades que não são conhecidas com precisão devem ser descritas por probabilidades. (princípio da incerteza de Heisenberg).
5) A matéria, como a energia, exibe uma dualidade onda-partícula. Um experimento pode demonstrar as propriedades da matéria como partículas, ou suas propriedades como ondas; mas não os dois ao mesmo tempo. (Princípio da complementaridade devido a Bohr).
6) Dispositivos de medição são dispositivos essencialmente clássicos e medem propriedades clássicas como posição e momento.
7) A descrição da mecânica quântica de grandes sistemas deve ser muito próxima da descrição clássica. (princípio da correspondência de Bohr e Heisenberg).

Princípio da incerteza de Heisenberg

Suponha que você queira medir a posição e a velocidade de um objeto, digamos, um carro passando por um radar. O carro pode ser assumido como tendo uma posição e velocidade definidas em um determinado momento. A precisão com que esses valores podem ser medidos depende da qualidade do equipamento de medição. Se a precisão do equipamento de medição for aprimorada, ele fornecerá um resultado mais próximo do valor real. Pode-se supor que a velocidade do carro e sua posição podem ser operacionalmente definidas e medidas simultaneamente, com qualquer precisão desejada.

Em 1927, Heisenberg mostrou que esta última suposição não é correta. A mecânica quântica mostra que certos pares de propriedades físicas, como posição e velocidade, não podem ser medidos simultaneamente, ou definidos em termos operacionais, com precisão arbitrária: quanto mais precisamente uma propriedade é medida ou definida em termos operacionais, menos precisão pode ser medida ou definidos em termos operacionais. o outro. Esta afirmação é conhecida como o princípio da incerteza. O princípio da incerteza não é apenas uma afirmação sobre a precisão do nosso equipamento de medição, mas mais profundamente sobre a natureza conceitual das grandezas medidas: a suposição de que o carro tinha posição e velocidade definidas simultaneamente não funciona na mecânica quântica. Em uma escala de carros e pessoas, essas incertezas são insignificantes, mas quando se trata de átomos e elétrons, elas se tornam críticas.

Heisenberg deu, como ilustração, a medida da posição e momento de um elétron usando um fóton de luz. Ao medir a posição do elétron, quanto maior a frequência do fóton, mais precisa a medição da posição do impacto do fóton com o elétron, mas maior a perturbação do elétron. Isso porque a partir do impacto com o fóton, o elétron absorve uma quantidade aleatória de energia, o que torna a medida obtida de seu momento cada vez mais incerta (o momento é a velocidade multiplicada pela massa), uma vez que seu pós-impacto é perturbado momento dos produtos de colisão está necessariamente sendo medido e não seu momento original (momento a ser medido simultaneamente com a posição). Com um fóton de frequência mais baixa, a perturbação (e, portanto, a incerteza) no pulso é menor, mas também a precisão da medição da posição de impacto.

No coração do princípio da incerteza está o fato de que, para qualquer análise matemática nos domínios de posição e velocidade, alcançar uma curva mais inclinada (mais precisa) no domínio de posição só pode ser alcançada às custas de uma curva mais suave. preciso). no domínio da velocidade e vice-versa. Mais nitidez no domínio da posição requer contribuições de mais frequências no domínio da velocidade para criar a curva mais estreita e vice-versa. É uma troca fundamental inerente a qualquer medida relacionada ou complementar, mas só é realmente perceptível na menor escala (Planck), próxima ao tamanho das partículas elementares.

O princípio da incerteza mostra matematicamente que o produto da incerteza na posição e momento de uma partícula (momento é a velocidade multiplicada pela massa) nunca pode ser menor que um determinado valor, e que este valor está relacionado à constante de Planck.

Recolhimento da função de onda

O colapso da função de onda significa que uma medição forçou ou converteu um estado quântico (probabilidade ou potencial) em um valor medido definido. Este fenômeno só é visto na mecânica quântica e não na mecânica clássica.

Por exemplo, antes de um fóton realmente "aparecer" em uma tela de detecção, ele só pode ser descrito com um conjunto de probabilidades de onde ele pode aparecer. Quando aparece, por exemplo, no CCD de uma câmera eletrônica, o tempo e o espaço em que interagiu com o dispositivo são conhecidos dentro de limites muito rígidos. No entanto, o fóton desapareceu no processo de ser capturado (medido) e sua função de onda quântica desapareceu com ele. Em vez disso, alguma mudança física macroscópica apareceu na tela de detecção, por exemplo, um ponto exposto em uma folha de filme fotográfico ou uma mudança no potencial elétrico em alguma célula de um CCD.

Autoestados e Autovalores

Devido ao princípio da incerteza, declarações sobre a posição e o momento das partículas podem atribuir apenas uma probabilidade de que a posição ou o momento tenham algum valor numérico. Portanto, é necessário formular claramente a diferença entre o estado de algo indeterminado, como um elétron em uma nuvem de probabilidade, e o estado de algo que tem um valor definido. Quando um objeto pode definitivamente ser "fixado" em algum aspecto, diz-se que ele tem um estado próprio.

No experimento de Stern-Gerlach discutido acima, o giro do átomo em torno do eixo vertical tem dois autoestados: para cima e para baixo. Antes de medi-lo, podemos apenas dizer que qualquer átomo individual tem a mesma probabilidade de ter um spin para cima ou para baixo. O processo de medição faz com que a função de onda entre em colapso em um dos dois estados.

Autoestados de spin no eixo vertical não são simultaneamente autoestados de spin no eixo horizontal, de modo que este átomo tem a mesma chance de ter qualquer valor de spin no eixo horizontal. Conforme descrito na seção anterior, medir o spin sobre o eixo horizontal pode permitir que um átomo que foi girado para cima diminua: medir seu spin sobre o eixo horizontal colapsa sua função de onda em um dos autoestados dessa medida, o que significa que não é mais tempo em seu próprio estado de rotação em torno do eixo vertical, de modo que pode assumir qualquer valor.

O Princípio de Exclusão de Pauli

Em 1924, Wolfgang Pauli propôs um novo grau quântico de liberdade (ou número quântico), com dois valores possíveis, para resolver inconsistências entre os espectros moleculares observados e as previsões da mecânica quântica. Em particular, o espectro do hidrogênio atômico tinha um dubleto, ou um par de linhas que diferiam por uma pequena quantidade, onde apenas uma linha era esperada. Pauli formulou seu princípio de exclusão, afirmando: "Um átomo não pode existir em tal estado quântico que dois elétrons dentro dele tenham o mesmo conjunto de números quânticos".

Um ano depois, Uhlenbeck e Goudsmit identificaram o novo grau de liberdade de Pauli com a propriedade chamada spin cujos efeitos foram observados no experimento de Stern-Gerlach.

Referências

Bernstein, Jeremy (2005). "Max Born and the quantum theory". American Journal of Physics. 73 (11): 999–1008.

Beller, Mara (2001). Quantum Dialogue: The Making of a Revolution. University of Chicago Press.

Bohr, Niels (1958). Atomic Physics and Human Knowledge. John Wiley & Sons]. ISBN 0486479285. OCLC 530611.

de Broglie, Louis (1953). The Revolution in Physics. Noonday Press.

Bronner, Patrick; Strunz, Andreas; Silberhorn, Christine; Meyn, Jan-Peter (2009). "Demonstrating quantum random with single photons". European Journal of Physics. 30 (5): 1189–1200.

Einstein, Albert (1934). Essays in Science. Philosophical Library. ISBN 0486470113.

Feigl, Herbert; Brodbeck, May (1953). Readings in the Philosophy of Science. Appleton-Century-Crofts. ISBN 0390304883.

Feynman, Richard P. (1949). "Space-Time Approach to Quantum Electrodynamics". Physical Review. 76 (6): 769–89.

Feynman, Richard P. (1990). QED, The Strange Theory of Light and Matter. Penguin Books. ISBN 978-0140125054.

Fowler, Michael (1999). The Bohr Atom. University of Virginia.

Heisenberg, Werner (1958). Physics and Philosophy. Harper and Brothers. ISBN 0061305499.

Lakshmibala, S. (2004). "Heisenberg, Matrix Mechanics and the Uncertainty Principle". Resonance: Journal of Science Education. 9 (8): 46–56.

Liboff, Richard L. (1992). Introductory Quantum Mechanics (2nd ed.). Addison-Wesley Pub. Co. ISBN 9780201547153.

Lindsay, Robert Bruce; Margenau, Henry (1957). Foundations of Physics. Dover. ISBN 0918024188.

McEvoy, J. P.; Zarate, Oscar (2004). Introducing Quantum Theory. ISBN 1874166374.

Nave, Carl Rod (2005). "Quantum Physics". HyperPhysics. Georgia State University.

Peat, F. David (2002). From Certainty to Uncertainty: The Story of Science and Ideas in the Twenty-First Century. Joseph Henry Press.

Reichenbach, Hans (1944). Philosophic Foundations of Quantum Mechanics. University of California Press. ISBN 0486404595.

Schilpp, Paul Arthur (1949). Albert Einstein: Philosopher-Scientist. Tudor Publishing Company.

Scientific American Reader, 1953.

Sears, Francis Weston (1949). Optics (3rd ed.). Addison-Wesley. ISBN 0195046013.

Shimony, A. (1983). "(title not given in citation)". Foundations of Quantum Mechanics in the Light of New Technology (S. Kamefuchi et al., eds.). Tokyo: Japan Physical Society.

p. 225.; cited in: Popescu, Sandu; Daniel Rohrlich (1996). "Action and Passion at a Distance: An Essay in Honor of Professor Abner Shimony".

Tavel, Morton; Tavel, Judith (illustrations) (2002). Contemporary physics and the limits of knowledge. Rutgers University Press. ISBN 978-0813530772.

Van Vleck, J. H.,1928, "The Correspondence Principle in the Statistical Interpretation of Quantum Mechanics", Proc. Natl. Acad. Sci. 14: 179.

Westmoreland; Benjamin Schumacher (1998). "Quantum Entanglement and the Nonexistence of Superluminal Signals".

Wheeler, John Archibald; Feynman, Richard P. (1949). "Classical Electrodynamics in Terms of Direct Interparticle Action" (PDF). Reviews of Modern Physics. 21 (3): 425–33.

Wieman, Carl; Perkins, Katherine (2005). "Transforming Physics Education". Physics Today. 58 (11): 36.



Modelagem de Simulação · Simulação Quântica · Quantum Software · Quantum Monte Carlo



camara3
QNuclei. N=5, Z=6


Quantum Metropolis, S.M.C.

28034 Madri, Espanha · https://fisica-cuantica.com/


Quantum Metropolis · Software de Mecânica Quântica

Membro da MAPO: Rede Europeia


Software de simulação quântica. Aplicações em computação quântica, estudos de decoerência, emaranhamento quântico, redes, sistemas de informação quântica, algoritmos, tunelamento quântico, programação e pontos e poços quânticos.