En física cuántica, ¿el principio de “incertidumbre” implica que cada cosa cuántica es incierta por sí misma? Pero la física cuántica en sí misma se basa en el 100% de certeza de las partículas.

No

P. ¿Qué significa el principio de incertidumbre?

R: Suponga que tiene una partícula clásica , como una canica, moviéndose en el espacio. Ahora, si la ilumina (tal vez usando un estroboscopio y una cámara), puede saber exactamente dónde está la partícula y cuál es su velocidad (de ahí el momento ) está en cada punto.

Sin embargo, en mecánica cuántica la imagen es diferente . Si mide la posición o la velocidad, perturba el sistema. Esto significa que al medir la posición, cambia significativamente la velocidad de las partículas y viceversa.

Entonces, el principio de incertidumbre (para posición y velocidad / momento) se define como:

[matemáticas] \ Delta x \ Delta p \ geq \ frac {\ hbar} {2} [/ matemáticas]

lo que significa que la incertidumbre que tiene en la medición de la posición multiplicada por la incertidumbre en el momento es igual o mayor que [matemática] \ frac {\ hbar} {2} [/ matemática], [matemática] \ hbar [/ matemática] es la constante de Dirac (también conocida como constante de Planck reducida).

Supongamos que hago una medición y mi incertidumbre en la posición es [matemática] \ Delta x = 4 \ hbar [/ matemática]

Entonces

[matemáticas] \ Delta p \ geq \ frac {1} {8} [/ matemáticas]

lo que significa que mi incertidumbre en la medición del momento es 1/8 o mayor.

¡Tenga en cuenta que no importa cuán preciso sea su aparato de medición! Si su aparato mide la posición de manera increíblemente precisa, tendrá una “incertidumbre” muy grande en la medición de su impulso.

Físicamente, esto también tiene sentido: para medir una posición con mucha precisión, se necesita radiación de longitud de onda pequeña, que tiene alta energía y, por lo tanto, afectará en gran medida a la partícula.

Tenga en cuenta también que [matemáticas] \ frac {1} {8} >> 4 \ hbar [/ matemáticas]

Entonces, si mido la posición con tanta precisión, básicamente tengo muy poca precisión en mi impulso (y, por lo tanto, en la velocidad).

Eso es todo lo que significa. No significa que la partícula es incierta donde quiere estar o que su existencia es incierta o cualquier otra cosa.

P2: Entonces, ¿por qué no vemos esto con canicas?

Porque [math] \ frac {\ hbar} {2} [/ math] es un número increíblemente pequeño para partículas macroscópicas.

Por lo tanto, el “error” * de las máquinas de medición es mucho más grande que [math] \ frac {\ hbar} {2} [/ math], por lo tanto, la relación de incertidumbre de Heisenberg se vuelve básicamente irrelevante.

* NOTA: error no es lo mismo que incertidumbre, aunque están relacionados. El error de una máquina está fuertemente relacionado con sus limitaciones como aparato de medición. Por ejemplo, una regla que tiene una escala milimétrica, tiene un error de aproximadamente 0.5 milímetros si mide una longitud.
La incertidumbre también está relacionada con el tipo de medición que realiza y se define principalmente por la interacción que tienen las partículas. Por ejemplo, si utiliza la luz de una determinada longitud de onda, la precisión será la mitad de la longitud de onda.

En física cuántica, el estado de una partícula se describe mediante una función de onda que cambia con el tiempo. La forma en que cambia con el tiempo está completamente determinada.

Sin embargo, la función de onda solo nos dice la probabilidad de que la partícula tenga una posición particular o un momento particular. Estas cantidades son desconocidas hasta que realmente se miden, aunque la función de onda nos da esas probabilidades.

El principio de incertidumbre, desarrollado por Heisenberg, nos da la cantidad mínima de incertidumbre de posición y momento que existe antes de la medición. Algunas funciones de onda tienen posiciones bien definidas pero momentos muy difusos. Lo contrario también es posible. El principio de incertidumbre dice que ambas cantidades no pueden estar bien definidas al mismo tiempo.

La incertidumbre está en lo cuántico, pero depende de qué valor medir; entonces también depende de lo que se mida. Debido a que depende de lo que se mide que haya llevado a una percepción errónea común (una que Heisenberg comenzó con su “microscopio”) de que la incertidumbre proviene de perturbar el sistema cuántico. Es cierto que, en general, una medición perturba el sistema, pero no es de allí de donde proviene el HUP. La mayoría de las mediciones en realidad destruyen el sistema cuántico medido (por ejemplo, el fotón se absorbe en un detector) y el valor medido se refiere a qué propiedad tenía el sistema antes de la medición. La incertidumbre está en el sistema cuántico en sí mismo, porque puedes medir ambos pares de conjugados (por ejemplo, momento y posición) con una precisión arbitrariamente alta. La incertidumbre surge porque si repite exactamente el mismo experimento, preparando el sistema exactamente en el mismo estado, los valores medidos no serán los mismos. Repitiendo el experimento muchas veces, habrá una dispersión en los valores de modo que el HUP esté satisfecho. El mejor libro de texto sobre QM es Asher Peres “Teoría cuántica, conceptos y métodos”. La incertidumbre se discute en las páginas 89–95.

No sé a qué se refiere “100% de certeza de las partículas”. En la teoría del campo cuántico está permitido que las partículas se creen y destruyan, pero eso no tiene nada que ver con el HUP.