Conceptos de la Física cuántica
Christian de Ronde, Raimundo Fernández Mouján, César Massri
1. Una teoría física en busca de sus conceptos
Casi un siglo y cuarto después de la constante de Planck, hay pocas cosas sobre las que se logró formar, alrededor de la física cuántica, un cierto consenso. Una de ellas, quizás la que presenta peor aspecto, es la siguiente: no sabemos de qué habla la teoría. Tenemos, sí, ya desde mediados de la década de 1920, cuando Heisenberg presenta su mecánica matricial y Schrödinger su ecuación de onda, un formalismo matemático consistente. Tenemos además una serie de experiencias que ese formalismo permite predecir. Y tenemos, por supuesto, una utilización instrumental de tal formalismo, a través de la cual se han ido realizando desarrollos tecnológicos cada vez más audaces. Pero una teoría física no es, y nunca fue, sólo un formalismo matemático instrumentalizado ciegamente. Igualmente fundamental es el desarrollo de una representación conceptual, y eso es de lo que la cuántica aún carece. El formalismo matemático no es capaz de representar; tal es el rol de los conceptos, que permiten por lo tanto trazar la relación de tal formalismo con la realidad, concebir la teoría en términos de una visión del mundo (basta solamente pensar en conceptos como el de partícula, onda electromagnética, campo, gravedad, etc.). En el mismo sentido, sin conceptos no hay comprensión de las observaciones experimentales. Como dice Heisenberg que enseñaba Einstein: “sólo la teoría decide lo que ha sido observado” (Heisenberg, 2004). O, tomando las palabras del propio Heisenberg:
La historia de la física no es sólo una secuencia de descubrimientos experimentales y observaciones, seguidos por su descripción matemática; es también una historia de conceptos. Para la comprensión de los fenómenos la primera condición es la introducción de conceptos adecuados. Sólo con la ayuda de conceptos correctos podemos saber lo que ha sido observado. (Heisenberg, 1973, p. 264)
Sucede, digamos, un “clic” en un detector, o aparece una mancha en una placa fotográfica. Se dice comúnmente que se trata de una partícula, que hemos observado el efecto de una partícula que chocó con la pantalla que contiene el detector, o con la placa. Pero no observamos de hecho ninguna “partícula”. Una partícula es un concepto, que pone en juego incluso toda una metafísica (la atomista), desde la cual se comprende a priori, desde la teoría, lo que ha sido observado.
Los conceptos atomistas son en particular un aspecto fundamental de la representación de la física clásica (sobre todo de la mecánica newtoniana), que, hacia fines del siglo XIX, parecía consolidarse como la teoría física final, como aquella teoría que parecía dar cuenta, de modo definitivo, de la descripción del “mundo físico”. Pero esa apariencia es justamente lo que entra en crisis con el descubrimiento de Max Planck y con los subsecuentes desarrollos en la física del siglo XX. Desde el comienzo, y a medida que se iba desarrollando la teoría, todos los aspectos de la cuántica parecían mostrar una completa incompatibilidad con los parámetros de la física clásica a los que estaban acostumbrados los científicos de la época. La discretitud implicada en el quantum de acción de Planck, el principio de indeterminación de Heisenberg, la superposición cuántica, el entrelazamiento cuántico, entre otros aspectos de la nueva teoría, entraban en conflicto con las condiciones fundamentales de la representación clásica. Por esos caminos, se iba desarrollando a su vez un formalismo matemático completamente nuevo. Sobre todo, la teoría cuántica encontraría su formulación formal definitiva por primera vez en 1925 gracias a la mecánica matricial de Heisenberg. Sin embargo, aunque reconocida, la solución de Heisenberg resultó desde el principio problemática para los físicos de la época. En términos inmediatos, esta incomodidad tenía que ver con el hecho de que la propuesta de Heisenberg se desarrollaba con una matemática que resultaba extraña, inhabitual, una matemática a la que no estaban acostumbrados y a la que juzgaban como demasiado “abstracta”. Pero había también una incomodidad más profunda, síntoma de las dificultades para abandonar la representación clásica: la mecánica matricial constituía su invariancia alrededor de cantidades intensivas, de intensidades[1]. La idea de un elemento físico originalmente intensivo resultaba algo radicalmente nuevo, ajeno a la representación atomista, y dominaba por lo tanto la presuposición indudable de que tales cantidades intensivas debían poder ser reconducidas a un estado de cosas no intensivo más fundamental, menos “abstracto”, efectivamente “real”. Había, digamos, un anhelo de que este nuevo formalismo pudiese ser reconducido de alguna manera a la representación sustancialista clásica, una esperanza de que, a pesar de sus extrañezas y novedades, hubiese una forma de darle sentido a la cuántica desde la visión del mundo físico que parecía ser la única indudable y sensata. Y es en última instancia de este intento –que, a pesar de continuar mostrándose infructuoso, sigue dominando aún– más que de la teoría cuántica misma, que vienen –según buscaremos mostrar– gran parte de los problemas que, hasta el día de hoy, nos impiden entender la física cuántica.
2. Heisenberg y la invariancia
Pero volvamos por un momento a la cuestión de la invariancia. ¿Qué significa? Podemos decir que una teoría física busca responder a su manera a una pregunta antigua, griega: ¿qué es lo mismo a través del cambio e independientemente de las perspectivas? Una pregunta que podríamos también parafrasear así: ¿es posible desarrollar un conocimiento de un devenir físico en constante movimiento?, ¿hay repetición, orden en el mundo físico, algo en lo que anclarse? Responder esto es el difícil prodigio que intentan realizar las teorías físicas. Y para hacerlo, la física matemática moderna ha construido una serie de condiciones. En primer lugar, toda teoría física contiene un formalismo matemático invariante. En esto, el énfasis debe ser puesto en la invariancia. La invariancia define, en términos puramente formales, aquello que debe ser considerado lo mismo en una teoría física, y, en este sentido, los elementos físicos en los que se ancla, de los que habla, cuya evolución puede describir. La invariancia es aquello que permite considerar que los diferentes marcos de referencia, las diferentes perspectivas, hacen referencia a un mismo estado de cosas, que, por lo tanto, se presenta como independiente del observador, y cuya evolución puede describirse como la evolución de lo mismo. Esto permite borrar los marcos de referencias particulares, eliminar sus diferencias, y redirigir hacia un estado de cosas físico independiente de las perspectivas. Esto está perfectamente realizado en la mecánica newtoniana, en el electromagnetismo de Maxwell, y también –gracias a las transformaciones de Lorentz– en la relatividad. Pero ¿es posible encontrar invariancia en la física cuántica? Contrariamente a lo que habitualmente se cree, lo cierto es que sí, que el formalismo cuántico contiene invariancia, y ya desde el principio, desde la formulación matricial de Werner Heisenberg.
Durante algunos años, Heisenberg había seguido la guía de Bohr, de su modelo atómico, y se había focalizado en la cuestión de describir las trayectorias de los electrones al interior del átomo. Pero la reacción crítica de Wolfgang Pauli y Arnold Sommerfeld lo llevó a pensar que quizás era necesario tomar otro camino. Entonces, en lugar de intentar describir las trayectorias de corpúsculos presupuestos, no observados, Heisenberg replanteó la cuestión en términos de cantidades observables. Como explican Jaan Hilgevoord y Joos Uffink:
Su idea guía era que tan sólo aquellas cantidades que son en principio observables deben ser consideradas en la teoría, y que todos los intentos de formar una imagen de aquello que sucede al interior del átomo deben ser evitados. En física atómica los datos observacionales eran obtenidos en espectroscopía y asociados con transiciones atómicas. De este modo, Heisenberg fue llevado a considerar las “cantidades transicionales” como los ingredientes básicos de la teoría. (Hilgevoord & Uffink, 2016)
En 1925, Heisenberg presentaría los resultados de su trabajo de esta manera:
En este artículo se realizará un intento de obtener las bases para una mecánica cuántica teórica basándose exclusivamente en relaciones entre cantidades en principio observables. (Heisenberg, 1925, p. 879)
Emancipándose completamente del discurso atomista, Heisenberg fue capaz de crear un formalismo matemático completamente nuevo. Como recordaría en su autobiografía:
Cuando retomé mi trabajo en Gotinga durante el semestre estival de 1925 –desde julio de 1924 yo era profesor no numerario en la universidad de dicha ciudad–, comencé mi tarea científica intentando averiguar las fórmulas correctas para las intensidades de las líneas en el espectro del hidrógeno; empleé métodos similares a los que había usado –y con éxito– durante mi trabajo con Kramers en Copenhague. El intento fracasó. Me sumergí en una espesura impenetrable de complejas fórmulas matemáticas cuya salida no lograba encontrar. A pesar de todo, el intento me convenció de que no era necesario indagar sobre las órbitas de los electrones en el átomo, sino que la totalidad de las frecuencias de oscilación y las magnitudes que determinan la intensidad de las líneas –las amplitudes– podían servir como un sustituto perfectamente válido de las órbitas. Al menos estas magnitudes sí podían ser observadas de forma directa. (Heisenberg, 2004, p. 100)
Heisenberg fue capaz de desarrollar la mecánica matricial siguiendo dos guías: en primer lugar, abandonando la noción de trayectoria de la partícula, en cuanto tal noción no parecía requerirse en mecánica cuántica y, por el contrario, parecía más bien una costumbre clásica que inadvertidamente coloreaba a priori el abordaje y la comprensión de la nueva teoría; en segundo lugar, y a partir de tal suspensión del atomismo, tomando como punto de partida metodológico (pero no como conclusión escéptica, antimetafísica) el positivismo de Ernst Mach, según el cual debemos considerar solamente aquello que de hecho es observado en el laboratorio. Y lo observado era un espectro de intensidades. Esto es lo que describen las tablas de datos que Heisenberg intentó modelar matemáticamente y que finalmente –con la ayuda de Max Born y Pascual Jordan– lo llevaron a la primera formulación matemática de la teoría cuántica. Tomemos nota nuevamente de las dos condiciones que fueron fundamentales para el desarrollo del formalismo cuántico. Primero, el abandono de la narrativa atomista de Bohr, que se focalizaba en la descripción de trayectorias inobservables de corpúsculos presupuestos (pero, según Bohr, irrepresentables). Segundo, la consideración del principio de observabilidad de Mach en cuanto un punto de partida metodológico que, aunque Heisenberg no abrazara el credo positivista, le permitió en primera instancia encontrar un abordaje liberado de la carga de aquellas presuposiciones clásicas, no inmediatamente para producir una representación nueva, pero sí para poder liberar el camino hacia la elaboración de un formalismo adecuado. De esta manera Heisenberg fue llevado a reemplazar las trayectorias ficcionales de partículas presupuestas por la consideración de las cantidades intensivas que aparecían en espectrometría y que eran de hecho observadas. Y esas cantidades intensivas, una vez independizadas de una supuestamente necesaria reducción a elementos atómicos, eran aquello que el formalismo indicaba como invariante. Radicalmente nueva, y de una importancia estrictamente fundamental para producir un formalismo consistente e invariante para la cuántica, era esta idea según la cual debemos aceptar a los valores intensivos como básicos, como “substitutos” perfectamente adecuados. Las intensidades aparecían, en términos formales, como básicas y suficientes, y parecían reclamar una representación que les fuese adecuada.
3. Schrödinger, Born y la probabilidad cuántica
La mecánica matricial, así como el proyecto que llevaba implícito, tuvieron sin embargo una fama muy breve. Apenas seis meses después de aparecida la propuesta de Heisenberg, Erwin Schrödinger presentó su famosa ecuación de onda. El alivio podía sentirse entre la comunidad física: aquel extraño formalismo matricial se veía reemplazado por una ecuación diferencial, algo a lo que ya estaban acostumbrados los físicos de la época. Desde ese momento, la ecuación de onda de Schrödinger se convirtió en la formulación matemática utilizada de forma unánime en la teoría cuántica. La propuesta de Schrödinger –en particular tras la interpretación de Max Born– convencía a los físicos además en otro sentido, ya que aquellas intensidades adquirían por fin un significado familiar: se trataba de “probabilidades”. La ecuación de onda describía las probabilidades de determinadas observaciones, es decir, las probabilidades de encontrar una “partícula” en determinado lugar. De este modo, en vez de avanzar hacia la determinación de un elemento físico originalmente intensivo, y así internarse en un camino radicalmente nuevo, se creía ahora poder reconducir la teoría hacia un estado de cosas atomista, hacia una visión del mundo físico coincidente con la representación clásica. Lo que había, en el fondo, eran partículas, y las ondas no eran más que ondas “de probabilidad”. Pero los problemas aparecieron de inmediato, y no eran exactamente detalles menores que se pudiesen ignorar. En primer lugar, la probabilidad que aparecía en la física cuántica se mostraba como radicalmente diferente de la probabilidad clásica. Se trataba, extrañamente, de probabilidades que interactuaban –algo que evidentemente no resultaba sostenible en la concepción clásica. En la física clásica la probabilidad se interpretó siempre como la medida de una ignorancia, como un cálculo epistémico realizado frente a un desconocimiento con respecto al estado actual de cosas realmente existentes. La probabilidad, de este modo, presentaba una naturaleza estrictamente epistémica, y no poseía por lo tanto una existencia física propia. Pero el hecho de que en la formulación ondulatoria de Schrödinger las probabilidades interactuasen significaba una incongruencia con la representación clásica. Como diría el propio Schrödinger, estas probabilidades parecían tener una existencia propia: “Algo que influencia el comportamiento físico de otra cosa no debe de ninguna manera ser considerado como menos real que aquello sobre lo cual ejerce una influencia” (Schrödinger, 1950, p. 185). ¿Pero qué es una “probabilidad” que existe realmente en cuanto tal y entra en interacciones físicas?
Igualmente problemático resultaba el hecho de que el formalismo ondulatorio cuántico no podía desarrollarse en un espacio clásico de tres dimensiones, sino que implicaba un espacio de configuración, esto es, un espacio cuyas dimensiones se definen no de forma universal según parámetros fijos, sino a partir de la consideración de los grados de libertad. Dicho brevemente, los elementos físicos parecían ellos mismos producir la dimensionalidad del espacio en que había que considerarlos. Así, los elementos considerados en la cuántica no podían pensarse como existentes al interior del espacio clásico universal, sólo en el cual la representación –convertida en sentido común– de la física clásica puede concebirse.
Finalmente, esta interpretación probabilística parecía fallar en otro sentido. Al considerar los valores indicados en las superposiciones cuánticas en cuanto probabilidades, debía ser posible llevar tales valores probabilísticos hacia valuaciones binarias determinadas, hacia observables en tanto ‘clics’ actuales. Es decir, los valores de las intensidades debían poder actualizarse en valores binarios. Sin embargo, esta simple operación aparecía, sorprendentemente, como imposible en el caso de la cuántica. Es decir, si se busca llevar esas probabilidades a valores binarios –que den cuenta del estado actual de cosas no probabilístico–, quedamos con una representación que ya no es invariante. Esto es, no es posible realizar una valuación global consistente. Si llevamos los valores probabilísticos a valores binarios, el resultado es una incompatibilidad entre las diferentes perspectivas del mismo estado físico. De este modo, si tratamos de ir más allá de la probabilidad (de las intensidades), los diferentes “escorzos” del mismo estado físico aparecen como incompatibles entre sí. Aún peor, al forzar dicha actualización a partir de la adición ad hoc de un nuevo “salto cuántico” (que luego sería denominado “colapso”) se destruye la linealidad de la teoría generando el famoso “problema de la medición” –que, como veremos, se convirtió en fuente de grandes confusiones.
4. Bohr, los conceptos clásicos y la medición
Es difícil sobreestimar la influencia de Niels Bohr en la física del último siglo. Se trata sin dudas del arquitecto fundamental de lo que hoy en día se considera la formulación estándar de la mecánica cuántica. Bohr estaba convencido de que los conceptos de la física clásica eran irremplazables, que sólo estos podían permitir una representación racional del mundo físico: “la interpretación desambiguada de cualquier medición debe ser esencialmente enmarcada en los términos de las teorías físicas clásicas, y podemos decir que, en este sentido, el lenguaje de Newton y Maxwell permanecerá como el lenguaje de la física en todo tiempo” (citado en: Wheeler & Zurek, 1983, p.7). Pero este convencimiento tenía que chocar con la realidad de las observaciones consideradas en la teoría cuántica, y que el nuevo formalismo permitía predecir. Un puente entre los fenómenos y el formalismo cuánticos, por un lado, y los conceptos clásicos, por el otro, parecía irrealizable. Sin embargo, en lugar de concebir los nuevos conceptos adecuados a la teoría cuántica, Bohr logró astutamente imponer su deseo de aferrarse a la representación clásica (Bokulich & Bokulich 2020). Esto, sin embargo, sólo podía hacerse pagando un alto precio. Digamos, primero, que aquello de lo que fundamentalmente habla la física clásica (la mecánica newtoniana y el electromagnetismo) puede ser pensado sólo en función de dos conceptos clave: el de partícula y el de onda (Bokulich 2005). Sin embargo, los fenómenos que aparecían en la cuántica no terminaban de adecuarse a ninguno de los dos, no podían comprenderse ni en términos de partículas ni en términos de ondas. Ahora bien, en vez de aceptar que se trataba simplemente de algo distinto, ni partícula ni onda, Bohr, transformando directamente, sin más, los problemas en soluciones, logró imponer su principio de complementariedad. Esto es, logró imponer la idea de que el mismo estado de cosas debía de hecho considerarse alternativamente en términos de estas dos nociones –que son en realidad evidentemente incompatibles. El mismo estado se mostraba en determinado arreglo experimental como corpuscular y en otro como ondulatorio. Esto, que parecía un grave problema, Bohr lo presentó directamente como una solución al problema de la representación en la teoría de los cuantos: era necesario en cuántica determinar el arreglo experimental específico para saber si hablábamos en cada caso –aunque se tratase del mismo estado– de algo ondulatorio o corpuscular. De este modo, la complementariedad de Bohr implicaba no sólo descartar la pregunta acerca de la naturaleza propia de los fenómenos cuánticos reconduciéndolos a un lenguaje clásico, sino también volver a ese lenguaje clásico mismo algo inconsistente, ya que habilitaba la posibilidad de considerar al mismo estado en términos de dos nociones que en el esquema clásico son incompatibles. Esta introducción de la inconsistencia, mediante la cual hacer entrar a la cuántica en la representación de la física anterior, Bohr la denominó, más amablemente, una “generalización” del lenguaje clásico (Bokulich, 2005).
Pero ese no era el único sacrificio a realizar para mantener los conceptos de la física clásica para la cuántica. La complementariedad implicaba que la determinación de la naturaleza del estado físico considerado (alternativamente en términos de partículas o de ondas) dependía del arreglo experimental utilizado. Esto es, la decisión respecto del arreglo experimental definía ahora la naturaleza del estado físico. La medición “creaba” ahora el estado considerado. De este modo Bohr introducía por primera vez a la medición al interior de las teorías físicas, y, al mismo tiempo, imponía un relativismo radical para la teoría cuántica, ya que a partir de entonces el estado resultaba dependiente de la perspectiva considerada, y, además, las diferentes representaciones resultaban incompatibles entre sí. En consecuencia, no era ya posible pensar un estado que fuese independiente de las perspectivas. Agreguemos además que la medición no fue jamás considerada como parte de teoría física alguna. La medición, en física, siempre fue entendida en términos de una práctica epistémica que supone un sujeto capaz de producir un vínculo entre el conocimiento provisto por una teoría ya “cerrada” y la experiencia. La razón, como dijimos, es que, como enseñaba Einstein, sólo la teoría dice lo que ha sido observado. El momento de unidad de una teoría física, aquello de lo que habla la teoría, es algo a ser definido a través de la invariancia formal y la objetividad conceptual al interior de la teoría misma.
5. La formulación de Dirac y el atomismo como fábrica de problemas
Tomando como base la propuesta bohriana –y llevándola hacia una axiomática ordenada–, Paul Dirac (1974) desarrolla, en su libro The principles of Quantum Mechanics, la que se volvería luego la formulación estándar de la mecánica cuántica. En ese trabajo, Dirac se apropiaba del relativismo bohriano para definir, en términos vectoriales, al “estado” del sistema físico como dependiente de la base considerada. Se aceptaba de este modo que la determinación de un estado físico en cuántica era dependiente de la base (i.e., el sistema de referencia) o el contexto seleccionado, es decir, de la perspectiva considerada. Así, ya no podía concebirse al estado como algo independiente de las perspectivas. Por otra parte, la medición era explícitamente incorporada en la teoría cuántica, como parte fundamental de su axiomática, mediante el “postulado de proyección”, que imponía la idea de un “colapso” físico que sucedía al momento de la medición, y gracias al cual se producía, extrañamente, un cambio físico al medir, que llevaba de los valores probabilísticos (intensivos) presentes en las misteriosas superposiciones cuánticas, a observaciones singulares, cada una de ellas entendida como la expresión evidente de una partícula microscópica.
Pero vale la pena analizar esto último con más detalle. Situémonos por un momento por fuera del punto de vista de Dirac. Sabemos que el formalismo cuántico constituye su invariancia alrededor de cantidades intensivas. Siguiendo la guía de tal formalismo, digamos que somos capaces de desarrollar el concepto de un elemento físico intensivo, del cual por lo tanto habla la teoría cuántica. Ahora bien, si quisiésemos verificar y medir tal elemento físico mediante experimentos en los que obtenemos una observación singular por vez, para alcanzar a dar tal medida, para hacer tal verificación, deberíamos evidentemente repetir el experimento, producir una frecuencia que nos dé un valor intensivo. La cuántica, de hecho, nos permite realizar tales verificaciones a la perfección. En este caso, como se ve claramente, una observación singular es una información parcial e insuficiente, y no aquello que, antes que nada, deberíamos explicar. Ahora veamos cómo procede Dirac. Su punto de partida presupuesto es, siguiendo a Bohr, que la mecánica cuántica habla de partículas que, aunque no podamos representarlas, tienen que estar. Partiendo de ahí, pasa a suponer que una observación singular, un “clic” en un detector, revela la presencia de una partícula: una partícula específica chocó contra la pantalla que contiene el detector. Por lo tanto, dado que nuestra teoría habla de partículas, y las observaciones singulares se igualan a partículas, la observación singular se vuelve aquello central a entender, aquello que la teoría debe explicar. Pero el formalismo cuántico no nos dice qué observación singular vamos a obtener en cada caso (nos da sí el patrón estadístico con exactitud si repetimos el experimento). Entre las cantidades intensivas que nos da el formalismo y cada observación singular, se abre un abismo. Es para colmar de algún modo ese abismo entre teoría y experiencia que Dirac introduce un postulado ad-hoc: el postulado de proyección, el “colapso de la función de onda”. Tal colapso, que no tiene ningún fundamento en el formalismo cuántico, y del que hasta el día de hoy no se ha podido ofrecer prueba alguna, se volvió sin embargo parte fundamental de la axiomática cuántica. Paper tras paper, libro tras libro, desde hace décadas, los especialistas buscan ofrecer diferentes explicaciones para este “problema de la medición”. Pero, como se ve, tal foco unilateral en la observación singular, y por lo tanto la necesidad del postulado de proyección, no provienen en realidad de la teoría cuántica, sino solamente de la proyección de una representación atomista sobre un formalismo y una experiencia que no son adecuados a tal visión. Esto sirve además para mostrar hasta qué punto la observación se ve determinada en física por la teoría, en qué medida es necesaria una representación conceptual para dar sentido a lo observado. Partiendo de un concepto intensivo de la realidad física expresada por la cuántica, la observación singular es una cosa (una información parcial, una medida insuficiente), y partiendo de un presupuesto atomista es otra cosa (una partícula, aquello de lo que queremos hablar). Del mismo modo, es en realidad también sólo por una serie de presupuestos incompatibles con la teoría que caemos en un relativismo que se ha vuelto la característica más reconocible de la mecánica cuántica. Sólo porque presuponemos que en el fondo se trata de partículas, y porque la cuántica sólo nos da cantidades intensivas que, por su parte, no pueden ser reconducidas de forma consistente a valuaciones binarias sin perder la invariancia, es que aceptamos que la determinación del estado físico depende de la elección de la base, y que perdemos la posibilidad de referir a un estado independiente de las perspectivas. Si no aceptásemos reconducir los valores intensivos a un estado de cosas atomista, ya no estaríamos obligados a abrazar tal relativismo, ya que tales intensidades son de hecho independientes de la base, consistentes en todo contexto. Tanto el “colapso” como el relativismo se muestran así no como cuestiones inherentes a la cuántica, “lecciones” de la cuántica, sino como problemas ajenos a la teoría que fueron creados por la persistente proyección de conceptos inadecuados. Una proyección que, de esta manera, nos hizo olvidar o desconocer incluso la invariancia que, desde el principio, se encuentra disponible en el formalismo de la cuántica.
6. Conceptos para la física cuántica
Así, cuestiones ampliamente difundidas de la cuántica, como el colapso de la función de onda, o la célebre idea de que la mecánica cuántica nos enseña que es el observador mismo el que de algún modo “crea” la realidad física (una idea ampliamente retomada y generalizada en las variadas formas contemporáneas de una “espiritualidad” esotérica), son en realidad confusiones o consecuencias de confusiones, apariencias de ideas o falsos problemas. En todo caso, lo que se dijo hasta ahora parece confirmar la necesidad de un camino: volver a la mecánica matricial de Heisenberg. Volver a ella suspendiendo el presupuesto que lleva a la proyección de la representación propia a la física clásica sobre toda concepción de la realidad física. De nuevo entonces al comienzo: el formalismo cuántico contiene invariancia, la que nos permite establecer aquello que aparece como consistentemente lo mismo entre los diferentes marcos de referencia. Esto que aparece como invariante, y que da cuenta de aquello que es observado, consiste en intensidades. Como vimos, si interpretamos a tales intensidades en términos de “probabilidades” fundadas en un estado de cosas no intensivo, y si, en consecuencia, buscamos llevarlas a valores binarios, esa invariancia se pierde. Hay que quedarse, por lo tanto, con los valores intensivos, y considerarlos, como dice Heisenberg, como “sustitutos perfectamente adecuados”, como suficientes. Ahora bien, para poder trazar una relación entre tal formalismo invariante (y predictivo) y la realidad física, así como para dar cuenta de aquello que es observado en los distintos experimentos, se hace necesario desarrollar una representación conceptual. Tal conceptualización no es por supuesto un mero agregado arbitrario, una mera imagen personal de la realidad, sino que debe ser desarrollada en estricta relación con el formalismo, y en dirección hacia su operacionalidad (es decir, permitiendo dar cuenta de lo observado, así como establecer las condiciones bajo las cuales se dan tales observaciones). De este modo, el punto de partida para tal representación es el desarrollo de un concepto de un elemento físico intensivo, que capture aquello que es señalado como invariante en el formalismo. Para esto, hemos propuesto en los últimos años el concepto de poder (de Ronde, 2016; de Ronde & Massri, 2021). La noción de poder busca capturar tanto la invariancia de las intensidades encontrada en la mecánica matricial, como la realidad física originalmente intensiva, no atomista, expresada en la idea de cuantos de acción (es por eso que, en algunos contextos, referimos al poder en términos de poder de acción). Un poder es un elemento físico existente originalmente intensivo (que no es una mera probabilidad, que existe realmente en términos intensivos y que no es dependiente de un estado de cosas de tipo atomista), que se cuantifica en términos de su potencia o intensidad. Es decir, el valor intensivo específico de cada poder es su intensidad o potencia. En cuanto no son partículas, corpúsculos independientes y sustanciales en el espacio, los poderes no responden a una lógica clásica de conjuntos. No son partes independientes cuya mera suma nos daría el todo. Es decir, no son separables. Los poderes van siempre como agregados relacionales, no existen en cuanto entidades aisladas, y siempre son tomados en una composición de poderes. Es por eso que decimos que son evidentemente relacionales. Si tomamos a estos existentes intensivos en cuanto aquello de lo que habla la teoría, y por lo tanto aquello que se busca medir y verificar en las observaciones, encontramos que ya no existe abismo alguno con la experiencia: tales elementos son exactamente verificados en la experiencia (en el caso, como dijimos, de experimentos donde procedemos de a una observación singular a la vez, tal medida requiere de la repetición). Tal como mostramos en diferentes trabajos, tomando como base este desarrollo es posible avanzar hacia una valuación global consistente de todo estado de cosas, siempre y cuando lo concibamos en términos de un estado intensivo de cosas (de Ronde & Massri, 2021). Esto quiere decir que se puede siempre determinar un estado de cosas (en términos intensivos) que es consistente con todas las perspectivas posibles, eliminando de este modo la necesidad del relativismo y la contextualidad. También mostramos cómo este esquema permite desarrollar una comprensión del entrelazamiento cuántico, evitando los múltiples problemas que, hasta el día de hoy, impiden una inteligibilidad de este importante fenómeno cuántico.
La física cuántica, al final, no es tan rara. Las interpretaciones de la teoría que hoy vemos multiplicarse como mundos de una ciencia ficción exagerada, como las que hablan de universos paralelos, las que crean dimensionalidades absurdas o fenómenos irrepresentables, aparecen no tanto como representaciones físicas consistentes, sino como los rodeos cada vez más exagerados y absurdos para mantener los conceptos propios de la física clásica. Se prefiere, así, por ejemplo, multiplicar los mundos antes que concebir al mundo físico bajo otros conceptos. No es tan rara, pero es diferente, porque, simplemente, sus conceptos son diferentes. El sacrificio necesario es otro, y uno probablemente menos costoso, aunque más exigente filosóficamente: hay que pensar otros conceptos, y no llevar los mismos conceptos hasta el punto del absurdo o la inconsistencia. En particular, hay que ser capaces de concebir, entre otras cosas, una realidad física de naturaleza originalmente intensiva, con todo lo que eso implica –lo que sin dudas significa una novedad importante–, así como repensar críticamente los conceptos básicos de una representación clásica que se ha vuelto sentido común (tales como, por ejemplo, los conceptos de espacio y tiempo universales de la física y la filosofía modernas). En suma, la teoría cuántica es, en términos metodológicos y estructurales, similar a las demás teorías físicas: contiene un formalismo matemático invariante que puede ser puesto en relación con una representación conceptual objetiva, que permite a su vez una comprensión consistente de lo observado. Metodológica y estructuralmente similar, pero conceptualmente diferente. La teoría cuántica es una teoría física consistente, invariante, objetiva, operacional, sólo si somos capaces de suspender la idea de que ya sabemos lo que la realidad física es, de embarcarnos en una crítica de conceptos que habíamos dado, sin pensar, por evidentes, y de finalmente avanzar en la tarea de proveer los conceptos adecuados para esta teoría tan poderosa. Una tarea exigente pero esencial para el pensamiento contemporáneo.
Bibliografía
Bokulich, A. & Bokulich, P., 2020, “Bohr’s Correspondence Principle”, The Stanford Encyclopedia of Philosophy (Fall 2020 Edition), E.N. Zalta (ed.), forthcoming. https://plato.stanford.edu/archives/fall2020/entries/bohr- correspondence/.
Bokulich, A., 2005, “Niels Bohr’s Generalization of Classical Mechanics”, Foundations of Physics, 35, 347-371.
de Ronde, C., 2016, “Probabilistic Knowledge as Objective Knowledge in Quantum Mechanics: Potential Immanent Powers instead of Actual Properties’.” In D. Aerts, C. de Ronde, H. Freytes and R. Giuntini (Eds.), Probing the Meaning of Quantum Mechanics: Superpositions, Semantics, Dynamics and Identity, pp. 141-178, World Scientific, Singapore.
de Ronde, C., 2019, “Immanent Powers versus Causal Powers (Propensities, Latencies and Dis- positions) in Quantum Mechanics.” In D. Aerts, M.L. Dalla Chiara, C. de Ronde and D. Krause (Eds.), Probing the Meaning of Quantum Mechanics. Information, Contextuality, Relationalism and Entanglement, pp. 121-157, World Scientific, Singapore.
de Ronde, C. & Massri, C., 2021, “The Logos Categorical Approach to Quantum Mechanics: I. Kochen- Specker Contextuality and Global Intensive Valuations.”, International Journal of Theoretical Physics, 60, 429-456.
Dirac, P.A.M., 1974, The Principles of Quantum Mechanics, 4th Edition, Oxford University Press, London.
Heisenberg, W., 1925, “Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen”, Zeitschrift für Physik, 33, pp. 879-893.
Heisenberg, W., 1973, “Development of Concepts in the History of Quantum Theory”, in The Physicist’s Conception of Nature, pp. 264-275, J. Mehra (Ed.), Reidel, Dordrecht.
Heisenberg, W, 2004, La parte y el todo. Conversando en torno a la física atómica, Ellago, Castellón de la Plana.
Hilgevoord, J. & Uffink, J., 2016, "The Uncertainty Principle", The Stanford Encyclopedia of Philosophy (Winter 2016 Edition), Edward N. Zalta (ed.), URL: <https://plato.stanford.edu/archives/win2016/entries/qt-uncertainty/>.
Schrödinger, E., 1950, “What is an elementary particle?”, Endeavor, Vol. IX, Núm. 35.
Wheeler, J.A. & Zurek, W.H., 1983, Quantum Theory and Measurement, J.A. Wheeler and W.H. Zurek (Eds.), Princeton University Press, New Jersey.
Nota:
[1] Se podría decir que la referencia a una realidad física intensiva se encontraba de hecho ya presente en el descubrimiento que da origen a la cuántica: el cuanto de acción propuesto por Planck.
César Massri es investigador del CONICET con lugar de trabajo en la Facultad de Ciencias Exactas y Nacionales de la UBA. Es Profesor Titularde Ciencias Matemáticas de la Universidad CAECE. Se doctoró en la UBA en ciencias matemáticas y realizó su posdoctorado sobre teoría de deformaciones en geometría algebraica. Actualmente trabaja sobre temas de geometría algebraica, física cuántica y fundamentos de la física. Es autor de varias publicaciones en revistas de renombre internacional. Dirección de correo electrónico: cmasssri@caece.edu.ar
Raimundo Fernández Mouján es Doctor en Filosofía por la Universidad de Buenos Aires. Investiga temas de filosofía contemporánea y de fundamentos de física cuántica. Posee un Magíster en Filosofía (Université Paris VIII) y es miembro investigador del Center Leo Apostel for Interdisciplinary Studies (Universidad libre de Bruselas), y miembro investigador de la International Network on Foundations of Quantum Mechanics and Quantum Information. Sus áreas de interés son Fundamentos y filosofía de la mecánica cuántica, la teoría de conocimiento en la filosofía antigua y contemporánea, entre otros. Dirección de correo electrónico: raifer86@gmail.com
Christian de Ronde obtuvo su grado en Física en la Universidad de Buenos Aires con una tesis supervisada por Dennis Dieks y Mario Castagnino. Posteriormente, alcanzó el título de Doctor en la Universidad de Utrecht, Países Bajos, bajo la supervisión de Dennis Dieks y Diederik Aerts. Su destacada formación le ha permitido desarrollarse como Investigador Asociado en el CONICET de Argentina. Asimismo, es miembro afiliado al Centro Leo Apostel para Estudios Interdisciplinarios y Fundamentos de las Ciencias Exactas en la Vrije Universiteit Brussel, Bélgica. Ocupa el cargo de Profesor Asociado en la Universidad Nacional Arturo Jauretche, donde imparte enseñanzas sobre Relatividad y Teoría Cuántica. Sus intereses de investigación abarcan enfoques categóricos en la Mecánica Cuántica, lógica cuántica, información y computación cuántica, así como la filosofía y los fundamentos de la física. Dirección de correo electrónico: cderonde@gmail.com