En mecánica cuántica , el principio de incertidumbre de Heisenberg [Nota 1] [1] [2] establece límites en la medición [Nota 2] [3] [4] de los valores de cantidades físicas conjugadas [Nota 3] o, en formulaciones más reciente y general, incompatible [Nota 4] [5] en un sistema físico .
En la forma más conocida, se expresa mediante la relación:
entre la incertidumbre sobre la posición ( ) y la cantidad de movimiento ( ) de una partícula, donde es la constante de Planck reducida .
Enunciado en 1927 por Werner Karl Heisenberg [6] y confirmado por innumerables experimentos, representa un concepto clave de la mecánica cuántica que ha sancionado una ruptura radical con respecto a las leyes de la mecánica clásica .
« En el reino de la realidad cuyas condiciones son formuladas por la teoría cuántica, las leyes naturales no conducen por lo tanto a una determinación completa de lo que sucede en el espacio y el tiempo; el acontecimiento [...] se deja más bien al juego del azar. " |
( Werner Karl Heisenberg, [Nota 5] [7] 1942 ) |
Los postulados de la mecánica cuántica , así como los detalles del proceso de medida, establecen una serie de relaciones de incertidumbre y desigualdades [8] [9] que pueden correlacionarse en ocasiones con la imposibilidad de conocer los detalles de un sistema sin perturbarlo. ella (incertidumbre de Heisenberg), la incertidumbre intrínseca de los sistemas cuánticos (desigualdad de Robertson) o la imposibilidad de determinar el valor de dos observables complementarios en el mismo sistema al mismo tiempo ( principio de complementariedad de Bohr ) . En el transcurso de décadas de investigación se ha comprobado que a partir de los postulados de la mecánica cuántica es posible derivar estas relaciones (tanto en la formulación original de Heisenberg, [2] [10] como en las posteriores [8] [9] [ 11] ), es decir, demostrar por qué ciertos pares de cantidades físicas no son medibles simultáneamente ( complementariedad de Bohr ) o en sucesión [Nota 6] (incertidumbre de Heisenberg) con precisión arbitraria (y menos absoluta).
Dado que el principio de incertidumbre expresa la imposibilidad de determinar los valores de dos variables incompatibles con una precisión a priori ilimitada , el observador tendrá que elegir qué medida privilegiar y disponer los instrumentos de medida en consecuencia. Tenga en cuenta que el principio de incertidumbre no se aplica a todos los posibles pares de observables. Por ejemplo, siempre es posible, en principio, medir la posición y la carga eléctrica con precisión arbitraria . De manera similar, mientras que el principio de incertidumbre se aplica a la medición de y del componente de momento largo , esto no se aplica a la medición de y de (dado que ). Finalmente, este principio no impone restricciones a la medición de una sola cantidad (como la energía; consulte la sección Relaciones de incertidumbre entre energía y tiempo ), que se puede determinar con precisión arbitraria.
El papel del principio de incertidumbre en la física moderna y en los fundamentos de la mecánica cuántica ha sido objeto de un largo debate. [12] En rigor, las relaciones de incertidumbre se derivan como consecuencia de los postulados de la mecánica cuántica . Según un posible punto de vista, la importancia del descubrimiento de Heisenberg es, por lo tanto, principalmente histórica, relevante más que nada por haber resaltado las propiedades de una teoría completamente diferente de la física clásica . [Nota 7] [13] Sin embargo, según un punto de vista diferente, el principio de incertidumbre en su forma más general de indeterminismo cuántico sigue siendo un principio de generalidad absoluta que, como el principio de relatividad , es el fundamento de la física moderna. [12]
En el artículo [6] de 1927, se obtiene la relación de incertidumbre posición/momento , mediante el experimento mental del microscopio, a partir de leyes ópticas y del efecto Compton de interacción entre un fotón energético y un electrón inicialmente estacionario. El fotón (verde) viene por la izquierda (eje ), choca con el electrón (azul) que se desplazará y es a su vez desviado, entrando al microscopio (fotón rojo) con una longitud de onda mayor que la del fotón verde incidente ( efecto Compton : ) . La lente del microscopio tiene una aceptación angular y la resolución óptica con la que el microscopio "ve" el electrón es:
.El fotón entra al microscopio con un ángulo indeterminado , pero ciertamente entre y (esta es la única información disponible sobre la dirección del fotón). El momento del fotón a lo largo del eje se ve afectado por una incertidumbre proporcional a
en el que se hizo uso del informe de de Broglie
.Para la conservación del momento a lo largo del eje , también es la indeterminación del momento lineal del electrón. Por lo tanto, debe cumplirse para el electrón
.Esta relación, todavía semicuantitativa, pronto fue reformulada en los términos conocidos hoy:
utilizando el límite inferior calculado por Kennard a partir de las desviaciones estándar y (consulte la desigualdad de Kennard ).
La desigualdad posición/momento impone que el producto de las dos incertidumbres ( e ) sea siempre mayor o como máximo igual a un valor mínimo. El principio de incertidumbre implica por tanto que para una partícula no es posible medir en tiempos sucesivos [Nota 6] , y por tanto conocer, un valor definido de la posición y del momento con precisión absoluta, es decir con incertidumbre cero. Cuanto más se intenta reducir la incertidumbre sobre una variable, más aumenta la incertidumbre sobre la otra ( relación de proporcionalidad inversa entre las dos). En un libro de divulgación [14] se utiliza la metáfora del ladrón pillado de noche mientras robaba. Si lo enciendes con una lámpara, huye para no ser identificado, mientras que si te quedas a oscuras seguirás sus acciones sin poder saber su identidad.
En muchos textos populares y, a veces, incluso universitarios, se afirma que la incertidumbre de Heisenberg se refiere a mediciones simultáneas. Heisenberg las cita en el resumen del artículo original: " cantidades conjugadas canónicamente pueden determinarse simultáneamente solo con una imprecisión característica ". [6] En el resto de su obra no menciona medidas o procedimientos simultáneos, sino que se limita a hablar de cantidades físicas y las incertidumbres con las que se pueden conocer. En cambio, fue Bohr quien introdujo la imposibilidad de medidas simultáneas, que sin embargo debería referirse a la complementariedad de Heisenberg y no a la indeterminación de Heisenberg: " Bohr criticó a Heisenberg por su sugerencia de que estas relaciones se debían solo a cambios discontinuos que ocurren durante la medida e indicó que las incertidumbres del experimento no surgieron exclusivamente de la discontinuidad (existencia del cuanto de acción), sino también del hecho de que la posición y el momento del electrón no pueden definirse simultáneamente en el experimento del microscopio ("suma de las corrientes de aire" en Heisenberg [6] ), y que debemos considerar tanto la teoría corpuscular como la teoría ondulatoria. » [15] Posteriormente, el propio Heisenberg argumentó en cambio la simultaneidad de las dos medidas. En las conferencias dictadas en la Universidad de Chicago en 1929 afirmó que “ Las relaciones de incertidumbre conciernen al grado de exactitud alcanzable en el conocimiento de los valores que asumen simultáneamente las diferentes cantidades que intervienen en la teoría cuántica… ”. [4] Pero, haciendo un análisis crítico, H. Margenau señaló [16] en 1963 que las relaciones de incertidumbre de Heisenberg para mediciones simultáneas de variables dinámicas canónicamente conjugadas no son atribuibles a ninguna interpretación significativa en el campo de la mecánica cuántica habitual. [15] La medida simultánea de observables incompatibles se llevó a cabo experimentalmente [17] por primera vez en 2016. En la siguiente sección se proporcionan detalles sobre el significado de estas medidas y sobre la diferencia con las medidas secuenciales típicas de la incertidumbre de Heisenberg .
En el artículo [6] de 1927, Heisenberg introdujo tres relaciones de incertidumbre (posición / momento - tiempo / energía - ángulo / acción ) considerándolas sustancialmente equivalentes, porque todas ellas se basan en el conmutador canónico
donde es el operador hamiltoniano , asociado a la energía total del sistema cuántico.
Pero, mientras que y son variables continuas, en la mecánica cuántica la acción suele ser discreta, ya que está sujeta a la condición de cuantización de Wilson-Sommerfeld . Por lo tanto, la incertidumbre de la acción/ángulo no es equivalente a esa posición/momento (para una discusión más detallada sobre este tema, consulte [18] ). Lo mismo ocurre -por diferentes razones- también con la incertidumbre energía/tiempo . En la mecánica cuántica no relativista, como en la mecánica clásica, el tiempo juega un papel privilegiado: es el parámetro de evolución de las cantidades físicas, no una cantidad física en sí misma. Por lo tanto, no es posible asociarle ningún operador autoadjunto que caracterizaría un observable cuántico (ver Sección Relaciones de incertidumbre de energía / tiempo ).
Si indicamos con el error sobre la medida del observable y con la perturbación producida por la medida anterior de sobre una medida posterior de la variable conjugada [Nota 3] la incertidumbre generalizada de Heisenberg es
.Usando una notación más moderna, [19] si indicamos en cambio con el error en la medida del observable y con la perturbación producida por la medida anterior de en una medida posterior de la variable conjugada [Nota 3] la incertidumbre de Heisenberg para las medidas posteriores (primero luego ) [Nota 8] se convierte en
con
valor esperado idéntico del conmutador para cualquier función de onda del sistema cuántico.
Usando el mismo formalismo, es posible describir otra situación física, [19] a veces confundida con la anterior, a saber, el caso de medidas simultáneas ( y simultáneas) de cantidades incompatibles : [Nota 4] [5]
donde esta vez, siendo e incompatible, es más genéricamente válido
.Dos compases simultáneos en e son necesariamente [20] débiles o poco nítidos . [21] Por lo tanto, cada uno extrae solo parcialmente la información disponible en el sistema. [Nota 9] La medición simultánea de observables incompatibles se realizó de forma experimental [17] recién en 2016.
En términos más generales, cuando dos cantidades físicas, denominadas físicas observables , del mismo sistema no pueden medirse ambas con medidas proyectivas ( aguda o fuerte ) se denominan complementarias . Ejemplos de pares de observables complementarios son los componentes de los vectores de espín (o momento angular ), la posición y la velocidad en una dirección . Los observables complementarios necesariamente tienen un interruptor distinto de cero y, por lo tanto, también son incompatibles. En este sentido, la incertidumbre está conectada (de manera todavía poco clara [Nota 10] [22] ) al principio de complementariedad . Según Bohr, el ejemplo típico de complementariedad lo da el dualismo onda/partícula : el mismo tipo de partícula subatómica ( electrón , por ejemplo) puede presentar alternativamente propiedades ondulatorias o corpusculares , dependiendo de si el instrumento de medida utilizado es capaz de detectar ondas . o partículas. Más tarde se entendió y se demostró experimentalmente que los sistemas cuánticos a veces pueden exhibir propiedades ondulatorias y corpusculares simultáneamente . Esta es la dualidad onda/partícula , expresada por las desigualdades de Greenberger/Yasin [23] y Berthold-Georg Englert [24] , que generaliza el concepto original de dualidad onda/partícula .
En la formulación hamiltoniana de la mecánica cuántica , las variables físicas se representan mediante operadores autoadjuntos , [Nota 11] como ( posición de la partícula) y (componente del momento lineal de la partícula larga ).
Estos dos operadores no conmutan , como se puede ver calculando los productos y sobre una función de onda unidimensional :
.De la comparación es evidente que el cambio entre y resulta ser distinto de cero:
El conmutador de e coincide, salvo la constante , con el ejemplo anterior:
.Al eliminar la función de onda genérica de todos los miembros, encontramos el valor del conmutador entre y como una ecuación entre operadores:
.En general, dos cantidades observables , correspondientes a operadores autoadjuntos y que no conmutan, se denominan incompatibles . [5]
En particular, si el conmutador tiene , los observables incompatibles correspondientes ( y , por ejemplo) también se conjugan canónicamente . [Nota 12] [25] [26]
El principio de incertidumbre de Heisenberg se refiere a observables incompatibles y conjugados , cuyo conmutador es del tipo [Nota 13] Estos observables no son cognoscibles, siguiendo mediciones simultáneas ( complementariedad de Bohr ) o posteriores (incertidumbre de Heisenberg), arbitrarias. Por ejemplo, el valor del cambio entre y dicta que la posición y el momento lineal a lo largo de esa dirección no pueden determinarse con precisión arbitraria.
En el caso de los momentos angulares atómicos del hidrógeno, EU Condon [27] en 1929 produjo tres ejemplos de aparente violación de la relación de incertidumbre de Heisenberg [Nota 14] . En los tres casos eran observables incompatibles pero no conjugados , cuyo conmutador es del tipo . Para estos observables, la desigualdad de Heisenberg (que se aplica a observables incompatibles y conjugados ) no se cumple, sino solo la de Robertson, [28] que se aplica a todos los observables incompatibles . La aparente violación en realidad se resolvió, dada la inaplicabilidad de la incertidumbre de Heisenberg a los tres ejemplos de Condon.
Mientras que las incertidumbres y del microscopio de Heisenberg se refieren a medidas sucesivas de observables incompatibles y conjugados, la introducción de las desviaciones estándar y en la relación de Heisenberg y en la desigualdad de Kennard (o análogas y para Robertson y Schrödinger) está relacionada con su carácter estadístico. La notación diferente está relacionada con el significado diferente de estas desigualdades en comparación con las de Heisenberg, como se discutirá en la Sección Indeterminación intrínseca y operativa . Las deducciones de Bohr, aunque no utilizan desviaciones estándar, son más similares a las estadísticas de Kennard, Robertson y Schrödinger que a las relaciones de Heisenberg, que implican una medida cuántica y la perturbación inevitablemente asociada a ella.
En 1928 , Niels Bohr derivó las incertidumbres de posición/momento y energía/tiempo de Heisenberg de una manera diferente, [29] a partir de las relaciones de dispersión de Fourier , conocidas desde el primer cuarto del siglo XIX.
El número de onda , es decir, el número de oscilaciones de una onda en la unidad de longitud, corresponde al recíproco de la longitud de onda :
.En condiciones óptimas, la caracterización espacial de una onda viene dada por la relación de dispersión de Fourier I:
.Aplicando la relación de De Broglie para la dualidad onda/partícula en el caso unidimensional:
se obtiene inmediatamente
a partir del cual
que, sustituida en la primera relación de dispersión de Fourier, da la relación de incertidumbre posición/momento :
.Siempre en condiciones óptimas, la caracterización temporal de una onda la proporciona la relación de dispersión de Fourier II:
.De la relación de Planck / Einstein para la energía
usted obtiene
que, reemplazada en la segunda relación de dispersión de Fourier, da la relación de incertidumbre energía/tiempo :
.Bohr nunca compartió la interpretación de Heisenberg de que las relaciones de incertidumbre se deben a la perturbación inevitablemente asociada con el proceso cuántico de medición. En cambio, argumentó que son una expresión del principio de complementariedad, [30] que enunció en el Congreso Internacional de Físicos en 1927 y publicó en su artículo [29] de 1928.
En el segundo párrafo de su artículo de 1927, Heisenberg también introdujo la incertidumbre estadística, [6] partiendo de una onda gaussiana para la posición, y convirtiéndola en la transformada de Fourier en el espacio de momentos. Para este caso en particular obtuvo el informe [Nota 15]
Este es un resultado que es válido sólo en el caso gaussiano: « El artículo de Heisenberg [6] [...] proporciona un análisis incisivo de la física del principio de incertidumbre, pero contiene poca precisión matemática. Este vacío, sin embargo, pronto fue llenado por Kennard [31] y Weyl [32] (quien, en el Apéndice I, le da crédito a Pauli por el resultado). [ 33]
Debido a un error de interpretación, Heisenberg asumió que era la misma incertidumbre analizada en el caso del microscopio (ver Sección El experimento mental con el microscopio ). La diferencia entre los dos casos fue comprendida por Karl Popper [34] recién a mediados de la década de 1930 (ver Sección Indeterminación intrínseca y operativa ).
La incertidumbre posición/momento , en la formulación introducida [31] por Earle Hesse Kennard también en 1927, toma la forma de una desigualdad del producto entre la desviación estándar de la posición y la del momento de una partícula :
.La demostración parte de la definición de las desviaciones estándar e y utiliza la desigualdad de Cauchy-Schwarz . La única hipótesis física asumida en la prueba es que las funciones de partida y -una la transformada de Fourier de la otra- representan la función de onda de la posición y el momento de una partícula cuántica, respectivamente.
Paquete de ondas gaussianasUn ejemplo típico es la evolución espontánea de un paquete de ondas gaussianas [35] - asociado a una partícula de masa - centrado en el origen ( ) y descrito por la función gaussiana
con desviación estándar de la posición y número de onda angular constante.
La densidad de probabilidad también tiene las mismas características funcionales que el paquete de ondas:
La amplitud del paquete de ondas aumenta con el tiempo. Entonces el paquete se dispersa y se definirá espacialmente con menos precisión:
con desviación estándar del número de onda angular y tiempo de difusión característico que depende de la masa de la partícula asociada con el paquete de ondas:
En el instante inicial ( ) el paquete de ondas tiene la mínima dispersión:
que le permite reescribir la relación para resaltar su dependencia de
Asintóticamente (por y por lo tanto ) el aumento en la desviación estándar es lineal con el tiempo
Teniendo en cuenta que y por tanto , la dispersión mínima ( ) del paquete de ondas pasa a ser ahora
mientras que para todos los tiempos posteriores ( ) se obtiene una mayor dispersión:
La relación válida para todo valor no negativo de coincide con la relación de incertidumbre de Kennard:
.La relación de incertidumbre demostrada por Kennard para la incertidumbre posición/momento fue extendida en 1929 por HP Robertson [36] al caso de dos variables genéricas incompatibles, haciendo uso de las desviaciones estándar y de dos observables incompatibles asociados a un sistema cuántico: [Nota 16] [37]
El segundo término contiene el valor esperado de cambio calculado para una función de onda específica del sistema cuántico:
Por lo tanto, podría suceder que, incluso con un cambio distinto de cero , el valor esperado sea cero. Por cierto
depende del valor que, dependiendo de la forma del operador y de la función de onda , podría ser . [Nota 17]
DemostraciónTomando los operadores y (asociados con las cantidades observables A y B), las desviaciones de la media se pueden definir como
.En consecuencia, las varianzas tienen la forma
.El producto de varianzas se puede reescribir como:
o la desigualdad de Cauchy-Schwarz . Para proceder reescribimos según el conmutador y el anticonmutador
y notamos que dado que las traslaciones no afectan a los conmutadores.
Suponiendo que puedas escribir
(esto es cierto, por ejemplo, para todos los pares de cantidades conjugadas, para las cuales ), obtenemos
es decir
que es la relación de incertidumbre estadística en su forma más general.
En el caso particular de la indeterminación entre posición y cantidad de movimiento , dado que se vuelve a obtener la desigualdad de Kennard .
La incertidumbre de medida debida a la incertidumbre cuántica es radicalmente diferente de la correlación estadística.La desigualdad de Robertson implica, de hecho, entre cantidades observables y covarianza cero y correlación .
La covarianza estadística entre y -expresada como la diferencia entre el valor esperado de su producto y el producto de sus valores esperados- está representada en muchos casos por el índice de correlación de Pearson :
.Hay tres posibles casos de correlación:
Los estados cuánticos con correlación distinta de cero son, por ejemplo , estados coherentes y comprimidos .
Si existe una correlación cuántica entre los operadores y :
con
donde denota el anticonmutador entre dos operadores, obtenemos una desigualdad, introducida por Erwin Schrödinger [38] en 1930, diferente a la de Robertson:
Es inmediato comprobar que, si la correlación cuántica está ausente , la desigualdad de Schrödinger se reduce a la de Robertson:
.La desigualdad de Schrödinger también muestra que la incertidumbre intrínseca (desigualdad de Robertson) es el término relacionado con la correlación cuántica
son independientes y contribuyen en cuadratura al producto de las dos desviaciones estándar .
Una función distinta de cero y su transformada de Fourier no pueden localizarse claramente a la vez. Traducido al lenguaje de la mecánica cuántica, esto significa que los valores de un par de observables conjugados canónicamente, como la posición y el momento, no pueden determinarse con precisión en ningún estado cuántico. " |
( Gerald B. Folland, Alladi Sitaram, [39] 1997 ) |
El principio de incertidumbre también es una expresión de las propiedades matemáticas de la transformada de Fourier de una función: [Nota 18] el producto de la varianza de una función y la varianza de su transformada de Fourier está acotado por abajo. De hecho, para cada uno en el espacio de Sobolev y para cada si tiene
donde denota la transformada de Fourier de y , son las varianzas de y respectivamente . Gracias a la densidad de in ( Space Lp ) esta propiedad se traslada inmediatamente a los espacios . [40] Teniendo en cuenta que cantidades como la posición y el momento son la transformada de Fourier de la otra, tenemos el principio de incertidumbre.
Al abordar la cuestión con el lenguaje de la transformada de Fourier, también es posible probar que si una función tiene un soporte compacto, entonces su transformada de Fourier no es un soporte compacto y viceversa [41] ( indeterminación débil ). Este resultado implica no solo que no es posible establecer al mismo tiempo el valor de algunos pares de cantidades, sino que tampoco es posible identificar dos rangos de valores en los que ambos caen: si uno localiza uno, uno deslocaliza el otro.
Por el principio de incertidumbre sabemos que si está muy localizada entonces no se puede concentrar en un punto, entonces podríamos preguntarnos si se puede concentrar en dos o más puntos distantes entre sí para que la varianza de siga siendo tal que satisfaga el principio de incertidumbre (ver Figura). De esta forma se sabría que las variables en cuestión asumen valores alrededor de algunos puntos conocidos. Desafortunadamente, esto también viola una propiedad de la transformada de Fourier. En efecto se demuestra que , si , dictando un conjunto medible según Lebesgue e indicando con su medida, entonces existe una constante positiva [42] tal que:
Una desigualdad similar existe para . Este resultado puede leerse como una versión fuerte (o local) del principio de incertidumbre .
La condición de validez de la desigualdad de Robertson:
por lo tanto no coincide con eso para la validez de la desigualdad de Heisenberg:
.Esto se debe al hecho de que las dos desigualdades aparentemente muy similares son, de hecho, profundamente diferentes. Mientras que Heisenberg se aplica en el caso de mediciones sucesivas (con incertidumbres y ) de observables y sobre un mismo sistema ( incertidumbre operativa ), la desigualdad de Robertson se refiere a la distribución de valores (con desviaciones estándar y ) de observables y en un conjunto estadístico de Sistemas cuánticos idénticos ( indeterminación intrínseca ).
Ambos tipos de incertidumbre fueron introducidos por Heisenberg [6] en su artículo de 1927 (en el primer y segundo párrafo respectivamente) pero, debido a un error de interpretación, Heisenberg asumió que eran la misma incertidumbre. La diferencia entre los dos casos: [43] interacción/perturbación, que se refiere a la imposibilidad experimental ( operacional ) de especificar con precisión arbitraria los valores de dos variables incompatibles (como y ) al realizar mediciones sucesivas en un solo sistema físico ; La estadística o dispersión, para la cual el producto de las desviaciones estándar de dos observables incompatibles tiene un límite inferior ( intrínseco ) dado por ,
fue comprendida por Karl Popper [34] recién a mediados de la década de 1930.
Si bien se refiere a medidas sucesivas de variables incompatibles realizadas sobre el mismo sistema físico, - que encuentra su expresión matemática realizada en las desigualdades introducidas por Kennard [31] en 1927, por Robertson [36] en 1929 y por Schrödinger [38] en 1930: en cambio, se refiere a la dispersión de los resultados de las mediciones de dos observables incompatibles, realizadas en diferentes muestras de sistemas cuánticos, todos preparados de la misma manera. Se trata pues, como decía de Broglie [44] en 1969, de relaciones de incertidumbre premedida y postmedida .
Las desigualdades de Kennard, Robertson y Schrödinger se refieren a la incertidumbre intrínseca de los observables cuánticos, cuantificada por la desviación estándar . La incertidumbre de Heisenberg, en cambio, se refería a un error sistemático: la perturbación producida en el sistema cuántico por el acto de medir por medio de un aparato clásico ( incertidumbre operativa ).
Las relaciones de incertidumbre universales se definen como aquellas que dan cuenta simultáneamente de la incertidumbre operativa de Heisenberg:
ambos del intrínseco de Robertson:
.En 2003 Masanao Ozawa [45] propuso una desigualdad universal, que incluye tanto la incertidumbre intrínseca como la operativa:
Con el tiempo, se ha acumulado una creciente evidencia experimental [46] [47] [48] [49] de que la incertidumbre cuántica general de un sistema no puede explicarse solo mediante el término operativo de Heisenberg, sino que requiere la coexistencia de todos y tres sumandos de la desigualdad de Ozawa. .
La publicación del artículo [2] de P. Busch, P. Lahti y RF Werner (BLW) " Prueba de la relación error-perturbación de Heisenberg " en 2013 provocó una respuesta [50] - controversia justo desde el título " Refutación del error-perturbación de Heisenberg relación "- por M. Ozawa. Su tesis es que no existe una relación de incertidumbre error/perturbación siempre válida, y que sólo su compleción con los términos estadísticos proporciona una relación de incertidumbre universal. Ozawa afirma haber encontrado un error en la prueba de BLW y poder proporcionar contraejemplos de sistemas que violan sistemáticamente la desigualdad de Heisenberg, cualquiera que sea su formulación, y por lo tanto también la propuesta por BLW.
A su vez, BLW respondió con un preprint [51] a los argumentos de Ozawa. Los tres autores argumentan que las cantidades definidas por Ozawa como error para la posición q y perturbación para el momento conjugado p no lo son. De ahí la desigualdad
generalmente es falso. En consecuencia, el hecho de que los resultados experimentales [46] [47] [48] [49] violen esta desigualdad es inevitable e insignificante. Finalmente, BLW sugirió, en otro artículo [11] de 2014, un nuevo análisis de los datos de dos experimentos [46] [47] para mostrar cómo su definición generalizada de la relación error/perturbación para un qubit genérico interpreta correctamente los datos experimentales.
Se ha observado que las definiciones de error y perturbación de Ozawa y BLW son profundamente diferentes. [10] Así que el hecho de que en algunos casos se viole la desigualdad de Heisenberg propuesta por Ozawa mientras que la -diferente- de BLW es universalmente válida no crea ninguna contradicción. [10] Queda por entender cuál de las dos relaciones expresa mejor el significado físico de la incertidumbre error/perturbación de Heisenberg.
En 2012, Kazou Fujikawa [52] sugirió otra relación de incertidumbre universal que, como la de Ozawa, combina tanto la incertidumbre intrínseca como la operativa, pero se expresa de una forma muy similar a la original de Heisenberg. Sumando la desigualdad de Robertson con la de Ozawa, Fujikawa obtuvo:
.Los cuatro sumandos se pueden reescribir como
.Definición:
como la inexactitud en la medición del valor del observable e
como la fluctuación resultante en la medida del observable incompatible , Fujikawa obtuvo una relación formalmente similar a la de Heisenberg, válida tanto para la incertidumbre operacional como para la intrínseca:
.La incertidumbre energía/tiempo es estructuralmente diferente a las demás. Esta característica no fue inmediatamente comprendida: en el artículo [6] de 1927, Heisenberg introdujo tres relaciones de incertidumbre (posición /momento - tiempo /energía - ángulo /acción ) considerándolas sustancialmente equivalentes, porque todas basadas en el conmutador canónico
donde es el operador hamiltoniano , asociado a la energía total del sistema cuántico.
Pero, mientras que y son variables continuas, en la mecánica cuántica la acción suele ser discreta, ya que está sujeta a la condición de cuantización de Wilson-Sommerfeld . La incertidumbre de acción/ángulo por lo tanto no es equivalente a esa posición/momento . Lo mismo ocurre -por diferentes razones- también con la incertidumbre energía/tiempo . En la mecánica cuántica no relativista, como en la mecánica clásica, el tiempo juega un papel privilegiado: es el parámetro de evolución de las cantidades físicas, no una cantidad física en sí misma. Por lo tanto, no es posible asociarle ningún operador autoadjunto , que caracterizaría un observable cuántico. En consecuencia, no hay interruptor
y por lo tanto no es posible expresar la incertidumbre temporal intrínseca por medio de la desigualdad de Robertson
.En 1933 W. Pauli demostró [53] que, si absurdamente existiera el operador autoadjunto , se podría extraer una cantidad infinita de energía de un sistema cuántico con energía finita , asociado al operador hamiltoniano .
La incertidumbre energía/tiempo también se manifiesta de dos formas diferentes: como incertidumbre operativa (en el caso de la medición del sistema) o intrínseca (evolución espontánea del sistema).
De acuerdo con la interpretación más común (pero no siempre correcta) de la indeterminación energía / tiempo operacional, en desigualdad
representa el intervalo de tiempo mínimo necesario para medir con precisión la energía del sistema . Esto es cierto si no se conoce la forma analítica del operador hamiltoniano del sistema . Si, por el contrario, se conoce el hamiltoniano, se puede medir la energía de un sistema, en un intervalo de tiempo arbitrariamente corto , con una precisión arbitraria. [54]
«Aharonov y Bohm [55] han demostrado que el tiempo en la relación de incertidumbre es el intervalo de tiempo en el que el sistema permanece imperturbable, no el tiempo durante el cual el aparato experimental está encendido. La mecánica cuántica de hoy dicta que todos los observables se pueden medir con una precisión arbitrariamente buena en un tiempo (externo) arbitrariamente corto, y la energía no es una excepción. [56] " |
( Debashis Sen, [57] 2014 ) |
Si por el contrario consideramos la duración de una perturbación de energía externa, resulta ser la diferencia entre dos valores exactos de la energía del sistema, medidos en el intervalo . Lo que se acaba de decir es válido sólo en una teoría de perturbaciones de primer orden. [58]
“ A menudo se dice que el principio de incertidumbre significa que en la mecánica cuántica la energía no se conserva exactamente: se le permite 'tomar prestada' una energía , siempre y cuando la 'devuelva' a tiempo ; cuanto mayor sea la violación, menor será su duración. Ahora bien, es cierto que hay muchas interpretaciones más o menos legítimas del principio de incertidumbre energía-tiempo, pero esta no es una de ellas. En ninguna parte la mecánica cuántica autoriza la violación de la conservación de la energía, y ciertamente tal licencia no encaja en absoluto en la derivación de la ecuación . Pero el principio de incertidumbre es extraordinariamente sólido: también puede usarse incorrectamente sin dar lugar a resultados gravemente erróneos; como resultado, los físicos se han acostumbrado a aplicarlo con demasiada despreocupación. " |
( David J. Griffiths, [59] 2005 ) |
Los sistemas cuánticos que no están en un estado propio del hamiltoniano presentan, además de cualquier incertidumbre operativa, una incertidumbre intrínseca de energía/tiempo, que no se puede eliminar.
Como no hay interruptor
,no es posible expresar la incertidumbre temporal intrínseca mediante la desigualdad de Robertson
.Sin embargo, el análisis de Fourier , [Nota 19] [60] junto con la dualidad onda/partícula expresada por la relación
,permiten formular la incertidumbre intrínseca de energía/tiempo:
.Queda por entender de qué se trata en este caso . Seguramente no es la desviación estándar de un conjunto de medidas de tiempo (lo que posiblemente se referiría a una incertidumbre operativa). Este es aproximadamente el intervalo de tiempo necesario, al que nos referimos , para tener un cambio significativo en el sistema cuántico. Luego reescribimos la ecuación anterior en la forma
.Sea un observable arbitrario. El cálculo de la derivada temporal del valor esperado lleva a la conclusión de que, si se cumple la desigualdad anterior, entonces
donde es el intervalo de tiempo necesario para que el valor esperado de varíe en una desviación estándar . Claramente, la duración de depende críticamente de la elección del observable que se esté considerando: el cambio podría ser rápido para uno y lento para otro. Pero si es pequeño, entonces todos los observables deben cambiar muy gradualmente; por el contrario, si alguno de los observables cambia rápidamente, la incertidumbre energética debe ser grande. [62]
donde es el intervalo de tiempo mínimo necesario para que un sistema con desviación estándar en energía evolucione desde el estado inicial a un estado ortogonal al primero:
.El estado ortogonal puede representar un decaimiento (con variación de energía ), o simplemente una evolución del sistema que conserva la energía inicial .
La desigualdad de Kennard, relativa a la preparación de un sistema cuántico, ha sido objeto de verificación experimental desde finales de los años 60 del siglo pasado mediante experimentos de difracción o interferencia . [64] El ancho de la rendija única (difracción) o la distancia entre las dos rendijas (interferencia) se tomaron como medidas de incertidumbre posicional . La incertidumbre del momento lineal se estimó a partir de la distribución de las partículas detectadas en la pantalla de fondo, derivando la desviación estándar de la distribución observada .
En 1969 C. Shull realizó el primer experimento de difracción de neutrones para la verificación de la incertidumbre de Kennard. [65] Las mediciones de interferometría de neutrones se realizaron solo en la década de 1980. [66] [67] En 2002 se publicó una verificación de la relación de Kennard [68] midiendo el aumento en la dispersión en el momento de las moléculas de fullereno C después de cruzar una rendija de ancho variable.
Las primeras comprobaciones de la relación incertidumbre operativa (error/perturbación) datan de 2012. [64] Estos experimentos se basan en la derivación indirecta de la perturbación inducida sobre componentes del espín del neutrón [47] o en mediciones ópticas cuánticas débiles [46] ] [48] [49] para poder caracterizar directamente la perturbación provocada en un sistema por la interacción con un aparato de medida. Todos estos experimentos confirmaron que la desigualdad de Heisenberg por sí sola no es suficiente para justificar los resultados, y la de Ozawa debe usarse para obtener un acuerdo entre la predicción teórica y los datos experimentales.
Un sistema que no está en un estado propio de energía puede decaer desde un nivel excitado a un nivel de energía más bajo . Dada su vida media , tiene una frecuencia de transición (con ) para el decaimiento espontáneo igual a y por tanto es la probabilidad de que, en el intervalo de tiempo , cambie la energía del sistema. La probabilidad de que, después de un tiempo , el sistema todavía se caracterice por el valor de la energía está dada por
donde es el ancho a media altura (FWHM) de la distribución de energía Lorentz del sistema.
Para sistemas inestables, la verificación de la indeterminación intrínseca energía/tiempo se traduce por lo tanto en la de la relación
Midiendo la energía para un conjunto estadístico de sistemas idénticos, se obtiene experimentalmente la distribución lorentziana , y de ahí se obtiene el ancho relativo a la mitad de la altura. Por otro lado, el decaimiento exponencial de un conjunto estadístico de sistemas idénticos se puede reconstruir contando los decaimientos durante un largo período, obteniendo la curva exponencial y de esta la vida promedio como una tangente a la curva en el origen. Teniendo los valores experimentales de e es inmediato calcular que su producto es igual a . Con este método se verificó la relación energía intrínseca/ incertidumbre temporal para numerosas desintegraciones atómicas , nucleares , mesónicas y bariónicas .
De acuerdo con la extendida (pero no universalmente aceptada) interpretación de Copenhague de la mecánica cuántica, un sistema físico microscópico no posee propiedades objetivas ( antirrealismo ) antes de que éstas sean medidas por un aparato de medición. [Nota 21] La mecánica cuántica proporcionaría a priori sólo un conjunto de probabilidades atribuibles al posible resultado de una medición ( probabilidad ontológica [Nota 22] ). Por ejemplo, la distribución de probabilidad ( patrón de interferencia ) producida por muchos electrones que pasan a través de una doble rendija se puede calcular utilizando la mecánica cuántica. Pero, según la interpretación de Copenhague, la trayectoria exacta de un único electrón entre las rendijas y la pantalla no puede predecirse mediante la mecánica cuántica, [Nota 23] [69] ni determinarse experimentalmente. [Nota 24] [70] Albert Einstein estaba convencido de que esta interpretación era incorrecta y que todas las distribuciones de probabilidad computables por la mecánica cuántica tenían que corresponder a eventos deterministas subyacentes, que podrían conocerse a través de una teoría más completa de la mecánica cuántica.
Con referencia al probabilismo intrínseco de la interpretación de Copenhague, Einstein afirmó, en una carta a Bohr del 4 de diciembre de 1926, " Dios no juega a los dados con el Universo ". [71] Parece que Niels Bohr , el principal autor de esta interpretación, respondió a Einstein: " Deja de decirle a Dios qué hacer con sus dados ". [71] En 1996 Stephen Hawking comentó el famoso chiste de Einstein a la luz del conocimiento astrofísico sobre la estructura del universo: “ Einstein […] se equivocó cuando dijo, 'Dios no juega a los dados'. De hecho, la consideración de los agujeros negros sugiere no sólo que Dios juega a los dados, sino que a veces nos confunde arrojándolos donde no se ven ». [72]
La posición realista ("existe una realidad física independiente del sujeto que la estudia") y determinista ("las cantidades físicas siempre tienen valores determinados por una teoría física adecuada") de Albert Einstein lo hizo crítico también hacia el indeterminismo cuántico. Durante el quinto congreso de Solvay , celebrado en Bruselas en 1927, Einstein propuso varios experimentos mentales basados en fenómenos de difracción de una partícula a través de una única rendija, o interferencia producida por muchas partículas que cruzan una doble rendija . La intención de Einstein fue siempre probar -en principio- la posibilidad de medir pares de variables conjugadas (posición/momento o energía/tiempo) mejor que la prevista por el límite de incertidumbre de Heisenberg. Bohr pudo contrarrestar con eficacia, demostrando que los experimentos citados implicaban una variación inevitable (perturbación) de la variable conjugada asociada a la medida, de modo que el producto del error de medida de uno con la perturbación del otro era superior al límite h predicho por Heisenberg. [73]
Einstein volvió a desafiar a Bohr en el sexto congreso de Solvay , celebrado en París en 1930, al proponer el siguiente experimento mental : llenamos una caja con material radiactivo y la enganchamos verticalmente a una balanza de resorte de precisión. La caja tiene una puerta, que se abre y se cierra inmediatamente, lo que permite que escape parte de la radiación. El mecanismo es accionado por un reloj en el interior de la caja, que mide el instante exacto en que se abre y se cierra la puerta. De esta manera se sabe con precisión el tiempo. Ahora queremos medir con precisión la variable conjugada (energía): pesamos la caja antes y después de la emisión de radiación, simplemente leyendo el índice de la balanza en la que está colgada la caja. La equivalencia entre masa y energía, resultante de la relatividad especial , nos permitirá determinar con precisión cuánta energía ha salido de la caja. De esta manera, saltando el límite impuesto por la relación de incertidumbre energía/tiempo.
Bohr le replicó a Einstein que no había tenido en cuenta un efecto predicho con precisión por la relatividad general de Einstein: si la energía se apaga, la caja es más liviana y se elevará ligeramente en la escala de resorte que debe soportar la caja para medir la variación. masa. Esto cambiará la posición del reloj en el campo gravitatorio de la Tierra. Como resultado, su medida de tiempo diferirá de su posición anterior, lo que conducirá a un error inevitable al determinar el intervalo de tiempo. El análisis detallado del fenómeno, realizado por Bohr, muestra que la inexactitud de la medida es correctamente predicha por la relación de incertidumbre energía/tiempo de Heisenberg. [74]
« Si se acepta que la interpretación de la mecánica cuántica aquí propuesta ya es correcta en algunos puntos esenciales, entonces debería permitirse tratar en pocas palabras las consecuencias de principio. [...] en la clara formulación del principio de causalidad: "si conocemos el presente con precisión, podemos prever el futuro", no es falsa la conclusión, sino la premisa. En principio no podemos conocer el presente en todos sus detalles. [...] dado que todos los experimentos están sujetos a las leyes de la mecánica cuántica y por tanto a la ecuación , mediante la mecánica cuántica se establece definitivamente la invalidez del principio de causalidad. [Nota 25] [75] [76] [77] [78] " |
( Werner Karl Heisenberg, [6] 1927 ) |
« Incluso si hay un cuerpo de leyes matemáticas "exactas", estas no expresan relaciones entre objetos existentes en el espacio-tiempo; es cierto que se puede hablar toscamente de "ondas" y "corpúsculos", pero las dos descripciones tienen la misma validez. A la inversa, la descripción cinemática de un fenómeno requiere observación directa; pero como observar significa interactuar, esto excluye la validez rigurosa del principio de causalidad. [Nota 25] [75] [76] [77] [78] " |
( Werner Karl Heisenberg, [4] 1930 ) |
Las dos citas destacan la conciencia de Heisenberg de haber hecho una contribución fundamental no solo a la física , sino también a la epistemología y filosofía de la ciencia del siglo XX . El principio de incertidumbre marca el final de la descripción de la realidad física de acuerdo con el determinismo mecanicista [79] (que implica tanto determinismo como predictibilidad ), expresado de manera casi análoga por Ruggero Giuseppe Boscovich (quien escribió sobre la descripción dinámica de un conjunto de puntos materiales) y por Pierre Simon Laplace en el contexto de la física clásica :
" Incluso si tal problema supera el poder del intelecto humano, cualquier matemático puede ver que el problema está bien definido [...] y que una mente que tenía las habilidades para tratar ese problema correctamente y era lo suficientemente brillante como para percibir el [...] tal mente, digo, partiendo de un arco continuo descrito en un intervalo de tiempo, por pequeño que sea, de todos los puntos de la materia, podría derivar las leyes de la fuerza [...] Si la ley de Si se conocieran las fuerzas, así como la posición, velocidad y dirección de todos los puntos en un instante dado, sería posible para tal mente prever todos los movimientos sucesivos que necesariamente deben tener lugar, y predecir todos los fenómenos que necesariamente siguen. de ellos " |
( Ruggero Giuseppe Boscovich , [80] 1763 ) |
“ Deberíamos considerar el estado presente del universo como el efecto de su estado antecedente y la causa de su estado subsiguiente. Una inteligencia que conociera todas las fuerzas que operan en la naturaleza en un instante dado y las posiciones instantáneas de todos los objetos del universo, sería capaz de comprender en una sola fórmula los movimientos de los cuerpos más grandes y los de los átomos más ligeros del mundo. mundo, siempre que su intelecto fuera lo suficientemente poderoso como para someter a análisis todos los datos: para tal inteligencia nada sería incierto, el futuro y el pasado estarían presentes ante sus ojos. " |
( Pierre Simón Laplace , [81] 1812 ) |
Sin embargo, el término determinismo recién fue acuñado en 1865 por el fisiólogo Claude Bernard . Según el enfoque determinista, un estado físico presente completamente definido corresponde a un único estado futuro compatible, igualmente definido; dos estados presentes muy similares corresponden a dos estados futuros muy similares . [82]
Hay previsibilidad cuando siempre es posible predecir la evolución de los sistemas físicos a partir del conocimiento de las condiciones del sistema en un instante dado y de las leyes que determinan de forma única su dinámica. El ejemplo típico lo da la segunda ley de Newton :
.Del conocimiento de la fuerza que actúa sobre el cuerpo, de la masa y de las condiciones iniciales ( , ) es posible derivar la trayectoria , es decir determinar el conjunto continuo de puntos del espacio en el que ha estado el cuerpo en el pasado ( ), o será en el futuro ( ). El determinismo no implica necesariamente previsibilidad (aunque no la excluye). [75] Hablamos de determinismo mecanicista [79] en el caso en que se supone que tanto el determinismo como la previsibilidad son válidos .
El surgimiento de la física estadística en la segunda mitad del siglo XIX difundió el uso de métodos estadísticos, y la conciencia de que de algunos observables es posible conocer solo el valor medio y la desviación estándar , pero no un valor único ("exacto" dentro de los límites de precisión de los instrumentos utilizados en la medición). Sin embargo, las probabilidades utilizadas en la mecánica estadística dependen en principio solo del conocimiento limitado que podemos obtener experimentalmente del fenómeno físico investigado [ sistemas de muchos cuerpos ( gas) ( moléculas de gas )]. Por ello estas probabilidades se definen como epistémicas . La hipotética "mente de Boscovich" o "inteligencia de Laplace" mencionada anteriormente no necesitaría métodos estadísticos: podrían seguir las moléculas del gas una por una, y para cada una calcular su trayectoria usando la ley II de Newton. Si bien hablamos, en este caso, de indeterminismo estadístico , [79] la incertidumbre surge a nivel macroscópico, mientras que no está presente a nivel microscópico ni en el formalismo matemático de los procesos de choque a nivel molecular. La mecánica estadística , por lo tanto, todavía cae dentro de la definición de determinismo mecanicista , [79] que combina determinismo y previsibilidad :
« Sólo la imposibilidad práctica: 1 ° determinar exactamente las condiciones iniciales de las moléculas; 2 ° seguir hechos moleculares únicos con el cálculo, nos ha llevado a contentarnos con "leyes promedio" (sin sentir pena por ellas, porque representan precisamente lo que realmente podemos observar con nuestros sentidos burdos, y porque estas leyes todavía tienen tales precisión que nos permita hacer predicciones suficientemente seguras). Por lo tanto: continuamos imaginando los fenómenos determinados de manera estrictamente causal en el contexto de átomos y moléculas tomados individualmente. Esto de alguna manera constituía el trasfondo o base de las leyes estadísticas de la masa, las únicas, en realidad, accesibles a la experiencia. La mayoría de los físicos creían que una base estrictamente determinista era indispensable para el mundo físico. Estaban convencidos de que lo contrario ni siquiera era "pensable"; ciertamente admitieron que, al menos en el proceso elemental, por ejemplo en la colisión de dos átomos, el "resultado final" estaba implícitamente contenido, con precisión y certeza completa, en las condiciones iniciales. Aún hoy se ha dicho ya veces se ha dicho que una ciencia natural exacta no sería posible, bajo ninguna circunstancia, sobre otra base; que sin una base estrictamente determinista todo se tornaría inconsistente. Nuestra "imagen" de la naturaleza degeneraría en caos y por lo tanto no correspondería a la naturaleza efectivamente "existente", porque ésta, al fin y al cabo, no es un caos perfecto. " |
( Erwin Schrodinger , [83] 1931 ) |
La obra de Henri Poincaré publicada en 1890 sobre el problema de los tres cuerpos y la estabilidad del sistema solar [84] [85] es la base de la teoría del caos determinista , o teoría de los sistemas complejos . La teoría del caos es el estudio a través de modelos físicos matemáticos de sistemas físicos no lineales que exhiben una sensibilidad exponencial con respecto a las condiciones iniciales . [86] Los sistemas de este tipo se rigen por leyes deterministas , pero son capaces de exhibir aleatoriedad empírica en la evolución de las variables dinámicas. [87] Este comportamiento aleatorio ocurre solo cuando se compara el curso temporal asintótico de dos sistemas con configuraciones iniciales arbitrariamente similares. [86] El caos determinista implica la imprevisibilidad asintótica de los sistemas dinámicos complejos . Nos encontramos, por tanto, en una situación diferente a la del determinismo laplaciano: de nuevo un estado físico presente completamente definido corresponde a un único estado futuro compatible con él, igualmente definido; pero dos estados presentes muy similares pueden corresponder a dos estados futuros muy diferentes ( imprevisibilidad ). [82] Con el caos determinista hay una forma de determinismo (las leyes dinámicas de los sistemas no lineales) que excluye explícitamente la previsibilidad .
El advenimiento de la mecánica cuántica cambió radicalmente la situación. La ecuación de Schrödinger , formulada por Erwin Schrödinger en 1925 y publicada [88] [89] [90] [91] en 1926 , es la ecuación fundamental que determina la evolución temporal del estado cuántico de un sistema , como una partícula , un átomo o una molécula . Es una ecuación de onda diferencial parcial , lineal , compleja y no relativista, que tiene como incógnita la función de onda . Esta función de onda se introdujo a partir de la hipótesis de de Broglie , según la cual las partículas que componen la materia, como el electrón , están asociadas a una onda física característica (onda de materia) que tiene la forma de un paquete de ondas espacialmente localizadas. Erwin Schrödinger inicialmente imaginó que el módulo cuadrado de la función de onda asociada con el electrón describe la densidad de carga o densidad de masa de la partícula; esta interpretación pronto se descartó porque el paquete de ondas se dispersa con el tiempo, mientras que la carga y la masa del electrón siempre permanecen localizadas. En 1926 , Max Born interpretó [92] [93] como vinculado a la distribución de probabilidad de la posición del electrón en el espacio:
indica la probabilidad de encontrar la partícula en el volumen espacial V en un dato instantáneo . El argumento de la ecuación de Schrödinger ya no es una cantidad física medible, como en las ecuaciones de la física clásica , sino una función de onda compleja , cuyo módulo cuadrático se interpreta como una densidad de probabilidad. Por lo tanto las probabilidades que aparecen en la mecánica cuántica ya no son epistémicas , [Nota 26] sino estructurales . [Nota 27] Si creemos que la ecuación de Schrödinger con la interpretación de Born de la función de onda describe la realidad física ( suposición del realismo científico ), entonces el probabilismo de la mecánica cuántica resulta ser ontológico . [Nota 22]
La interpretación de Born más tarde se convirtió en parte de la interpretación ortodoxa de la mecánica cuántica, conocida como la interpretación de Copenhague . De acuerdo con esta interpretación generalizada (pero no universalmente aceptada) de la mecánica cuántica, un sistema físico microscópico no posee propiedades objetivas ( antirrealismo ) antes de que éstas sean medidas por un aparato de medición. [Nota 21] La mecánica cuántica proporcionaría a priori sólo un conjunto de probabilidades atribuibles al posible resultado de una medición ( probabilidad ontológica [Nota 22] ). Además, la imposibilidad de definir el valor de las variables antes de una medición [Nota 21] carece de una condición esencial para la evolución determinista del sistema: la definición completa del estado inicial. " Según la llamada "interpretación de Copenhague" de la mecánica cuántica, [...] los resultados de las mediciones que podemos hacer cuando se trata de partículas atómicas son, por lo tanto, esencial, sustancial y estructuralmente no deterministas " (Mariangela Priarolo, [94 ] 2011)
El indeterminismo introducido por las desigualdades de Heisenberg es aún más fundamental que el vinculado a la interpretación de Copenhague . De hecho, existen otras interpretaciones de la mecánica cuántica que no comparten el papel central del proceso de medida (por lo tanto antirrealismo e indeterminismo) asumido por la interpretación de Copenhague . Pero con Heisenberg, " en la formulación [...] del principio de causalidad: "si conocemos el presente con precisión, podemos prever el futuro", la conclusión no es falsa, sino la premisa ". De hecho, es suficiente reescribir la posición de incertidumbre/momento en la forma
darse cuenta de que, en principio, no se puede tener un conocimiento exacto de las condiciones del sistema en un instante dado : cuanto más se intenta reducir la incertidumbre sobre la variable , más incertidumbre sobre ( relación de proporcionalidad inversa entre las dos). Nos encontramos en el primero de dos posibles casos de indeterminismo: el estado presente no es completamente definible o muchos posibles estados futuros pueden corresponder a un mismo estado presente completamente definido, de los cuales solo uno se realizará. [82]
Las desigualdades de Kennard y Robertson muestran un significado adicional de la indeterminación cuántica. Mientras que las desigualdades de Heisenberg implican siempre una medida, y la consiguiente perturbación que ésta provoca sobre las medidas del conjugado observable ( indeterminismo operacional ), las de Kennard y Robertson muestran propiedades características de los sistemas cuánticos ( indeterminismo intrínseco ). La incertidumbre pasa de ser un fenómeno inherentemente ligado a instrumentos y medidas, a ser una peculiaridad de la mecánica cuántica. Es el formalismo matemático de la teoría ( espacios de Hilbert de dimensión infinita ) que implica el indeterminismo cuántico, según las tesis del realismo estructural . [95] O alternativamente es una característica de las entidades cuánticas ( fotones , partículas masivas ), que también difieren en este indeterminismo intrínseco [Nota 28] de las entidades de la física clásica ( ondas o partículas macroscópicas), como pretende el realismo científico . En ambos casos, la incertidumbre resulta ser una peculiaridad fundamental y esencial de la mecánica cuántica.
Una consecuencia inmediata de la desigualdad escrita anteriormente es la pérdida del concepto de trayectoria [Nota 29] para partículas atómicas y subatómicas: al no tener un conocimiento preciso de las condiciones iniciales ( , ), no es posible derivar la trayectoria , ni determinar el conjunto continuo de puntos en el espacio donde la partícula ha estado en el pasado ( ), o estará en el futuro ( ). Este hecho introduce otra diferencia fundamental entre las partículas clásicas y cuánticas: las partículas clásicas idénticas son distinguibles , mientras que las partículas cuánticas idénticas son indistinguibles . [Nota 30] La única forma de distinguir dos partículas idénticas que entran en contacto es, de hecho, la diferente trayectoria que siguieron antes de la colisión ( ), y que seguirán después de la colisión ( ). La segunda ley de Newton se aplica a dos partículas idénticas clásicas; por lo tanto, en principio, siempre es posible reconstruir sus trayectorias y saber qué le sucede a cada partícula después de la colisión. Pero para dos partículas cuánticas idénticas no existe un conocimiento preciso de las condiciones iniciales ( , ), y por lo tanto no es posible derivar las trayectorias. En ausencia de esta información, es imposible establecer "quién es quién" después de la colisión, o distinguirlos.
Otras propiedades típicamente cuánticas son la helicidad de los fotones y el espín [Nota 31] de las partículas masivas . El teorema de la estadística de espín relaciona el espín de una partícula con la estadística [Nota 32] a la que obedece. La tesis del teorema establece que las partículas con espín entero (0, 1, 2) siguen el estadístico de Bose-Einstein , mientras que aquellas con espín medio impar ( Fermi1/2, 3/2, 5/2) obedecen al . [Nota 33] El teorema fue establecido por primera vez en 1939 por Markus Fierz, [96] y fue reimaginado de una manera más sistemática por Wolfgang Pauli . [97] [98] Los argumentos en la teoría cuántica de campos (el requisito de invariancia para las reflexiones temporales impone una restricción en las propiedades del operador de campo que corresponde a la conexión entre las estadísticas de espín y de partículas) fueron proporcionados [99] por Julian Schwinger en 1951 . En 1961 , Richard Feynman dio una demostración más intuitiva [100] , partiendo de diferentes supuestos.
La clasificación de las partículas cuánticas se realiza a partir del espín , lo que permite distinguir dos clases de partículas: bosones , con espín entero (0, 1, 2) y fermiones , con espín medio impar (1/2, 3/2, 5 / 2). [Nota 34] Los fermiones obedecen el principio de exclusión de Pauli (dos fermiones idénticos no pueden ocupar simultáneamente el mismo estado cuántico ) y siguen las estadísticas de Fermi-Dirac . Los bosones, por otro lado, son libres de ocupar el mismo estado cuántico y seguir la estadística de Bose-Einstein .
Como se mencionó, las entidades cuánticas tienen propiedades peculiares que son profundamente diferentes a las de las entidades de la física clásica ( ondas o partículas macroscópicas ):
Por lo tanto, es impropio tratar de clasificar los bosones y fermiones sobre la base de categorías clásicas como ondas o partículas macroscópicas. La dualidad onda/partícula ha sido un concepto problemático que ha caracterizado a la mecánica cuántica desde sus orígenes. [101] La opinión de, entre otros, Richard Feynman [102] y Jean-Marc Lévy-Leblond [103] es que se deben evitar los términos clásicos al definir las entidades de la mecánica cuántica. El epistemólogo Mario Bunge acuñó [104] [105] en 1967 el término quanton para nombrar bosones y fermiones con un solo sustantivo .
Queda por entender por qué los cuantones del mismo tipo ( electrón , por ejemplo) manifiestan alternativamente propiedades corpusculares u ondulatorias ( dualismo onda/partícula ). Quizás la metáfora del cilindro ( quanton ) ayude a la intuición: no es ni un círculo ni un cuadrado, pero sus proyecciones ( visiones clásicas ) nos proporcionan, según la perspectiva, la imagen de un círculo ( onda ) o de un cuadrado ( partícula macroscópica ). Sin embargo, como se menciona en la Sección de otras desigualdades de Heisenberg, los cuantones a veces pueden mostrar simultáneamente propiedades ondulatorias y corpusculares (dualidad onda/partícula [23] [24] ), lo que demuestra definitivamente que el dominio cuántico no es atribuible a las categorías dicotómicas clásicas de ondas o partículas