Inicio Intelectualidad El abracadabra matemático que salvó a la física de partículas

El abracadabra matemático que salvó a la física de partículas

En los años cuarenta del pasado siglo, los físicos desvelaron una nueva capa de la realidad. Los campos, entidades onduladas que llenan el espacio como un océano, sustituyeron a las partículas. En esta nueva imagen, un electrón o un fotón correspondían a los «pliegues» de sus respectivos campos, de tal modo que las interacciones entre ellos parecían explicar todos los fenómenos electromagnéticos.

No obstante, había un problema: la teoría se sostenía sobre un conjunto de esperanzas injustificadas. Solo usando una técnica conocida como renormalización, la cual implicaba barrer bajo la alfombra las cantidades infinitas que aparecían en los cálculos, era posible evitar predicciones sin sentido. Aquel truco funcionaba, pero incluso los fundadores de la teoría sospechaban que el edificio entero podía no ser más que un castillo de naipes.

«Es lo que yo llamaría un proceso sin cabeza», escribiría más tarde Richard Feynman. «Haber tenido que recurrir a semejante abracadabra nos ha impedido demostrar que la electrodinámica cuántica es una teoría coherente desde el punto de vista matemático.»

La justificación llegó décadas más tarde desde una rama de la física sin relación aparente. Los físicos de materiales que estudiaban la magnetización descubrieron que, en realidad, la renormalización no tenía nada que ver con suprimir cantidades infinitas. En su lugar, atañía a la posibilidad de dividir la naturaleza en reinos independientes, cada uno de los cuales hace referencia a una escala característica de tamaños, un enfoque que guía muchos rincones de la física actual. La renormalización, ha escrito el físico de la Universidad de Cambridge David Tong, «bien puede considerarse el avance más importante de la física teórica de los últimos 50 años».

El problema de la carga eléctrica

En cierto sentido, las teorías cuánticas de campos constituyen las teorías más exitosas de toda la ciencia. La electrodinámica cuántica, uno de los pilares del modelo estándar de la física de partículas, ha permitido predicciones teóricas que coinciden con las observaciones con una precisión de una parte en mil millones. Sin embargo, en los años treinta y cuarenta del siglo XX, su futuro distaba de estar claro. Aproximar el complejo comportamiento de los campos cuánticos conducía a menudo a resultados infinitos y carentes de sentido, lo que llevó a algunos físicos a pensar que las propias teorías de campos tal vez fuesen un callejón sin salida.

Feynman y otros comenzaron a explorar alternativas completamente nuevas —opciones que quizá devolvieran el protagonismo a las partículas—, pero, al final, acabaron concibiendo un apaño. Se percataron de que las ecuaciones de la electrodinámica cuántica podían ofrecer predicciones respetables si se remendaban con el inescrutable procedimiento de la renormalización.

El truco puede describirse más o menos como sigue. Si un cálculo da lugar a una suma divergente, dicha suma se trunca. Los términos que divergen se integran en un coeficiente (un número fijo), al cual se le asigna el valor de una medida finita obtenida en el laboratorio. Al acabar, se permite que la suma así «domada» siga su camino hacia el infinito.

Para muchos, esa receta no era más que un juego de trileros. «No son matemáticas razonables», llegó a escribir Paul Dirac, uno de los fundadores de la teoría cuántica. El nudo del problema —y la semilla de lo que más tarde acabaría convirtiéndose en su solución— puede verse en el modo en que los físicos aprendieron a tratar la carga del electrón.

En la manera de proceder que acabamos de describir, la carga eléctrica deriva del coeficiente, el parámetro que «engulle» la parte divergente del cálculo. Para quienes se afanaban en dotar de significado físico al proceso de renormalización, ello sugería que el electrón tenía dos cargas: una teórica, que era infinita, y la carga que los físicos medían en el laboratorio, que no lo era. Tal vez el centro del electrón portase una carga infinita. Pero, en la práctica, los efectos de los campos cuánticos (que podemos imaginar como una nube de partículas virtuales de carga positiva alrededor del electrón) apantallaban la partícula, de manera que los experimentos solo podían detectar una carga neta mucho menor.

En 1954, los físicos Murray Gell-Mann y Francis Low dieron cuerpo a esta idea vinculando esas dos cargas del electrón mediante el concepto de «carga efectiva», la cual variaba con la distancia. De esta manera, cuanto más nos acercásemos al electrón —y, por tanto, más penetrásemos en el interior de esa nube de cargas virtuales positivas—, mayor sería la carga eléctrica detectada.

Aquel trabajo fue el primero que relacionó el proceso de renormalización con la noción de escala. Y dio a entender que los físicos habían dado con la respuesta correcta al hacer una pregunta equivocada: en vez de preocuparse por los infinitos, tendrían que haberse centrado en conectar lo pequeño con lo grande. La renormalización «es la versión matemática de un microscopio», explica Astrid Eichhorn, física de la Universidad del Sur de Dinamarca que emplea técnicas de renormalización para explorar las teorías de gravedad cuántica. «Y a la inversa: también podemos comenzar con el sistema microscópico y alejar la imagen. Se trata de una combinación de microscopio y telescopio.»

El rescate de la física de materiales

La segunda pista llegó gracias a la física de la materia condensada. Por aquel entonces, los expertos trataban de entender cómo era posible que cierto modelo muy simplificado de los imanes, el llamado «modelo de Ising», lograse describir con tanto detalle ciertos procesos. Dicho modelo consistía en poco más que una red atómica de flechas que podían apuntar hacia arriba o hacia abajo. Sin embargo, era capaz de predecir el comportamiento de los imanes del mundo real con una precisión inverosímil.

A bajas temperaturas, los espines de la mayoría de los átomos se alinean en un mismo sentido y el material muestra una magnetización neta. A temperaturas elevadas, los átomos se desordenan y el material pierde su magnetización. No obstante, en el punto crítico en el que tiene lugar la transición entre un estado y otro, coexisten «islas» de átomos alineados que abarcan todos los tamaños posibles. Lo fundamental era que, cerca de dicho punto crítico, la manera en que variaban ciertas cantidades era idéntica en el modelo de Ising, en imanes reales formados por todo tipo de materiales e incluso en algunos sistemas sin relación aparente, como el cambio de fase a altas presiones en el que el agua líquida se torna indistinguible del vapor. El descubrimiento de este fenómeno, que los físicos bautizaron como «universalidad», supuso toda una rareza, algo así como encontrar que la velocidad máxima a la que puede moverse un elefante es la misma que la de una garza blanca.

En general, los físicos no acostumbran a tratar al mismo tiempo con objetos de tamaños muy distintos. Sin embargo, estudiar el comportamiento de un sistema en la vecindad de un punto crítico les obligó a idear algún método que tuviera en cuenta todas las escalas de longitud a la vez.

En 1966, el físico de materiales Leo Kadanoff halló una manera de abordar el problema. Concibió la técnica conocida como «bloques de espín», consistente en tomar una red de Ising compleja y «resumir» su comportamiento agrupando los constituyentes de la red original en un número reducido de bloques. Para ello, calculaba la orientación promedio de un conjunto de flechas y reemplazaba el conjunto entero por dicho valor. Al iterar el proceso, los detalles finos de la red se iban suavizando, lo que permitía predecir su comportamiento global.

Por último, Kenneth Wilson, un antiguo estudiante de Gell-Mann interesado tanto por la física de partículas como por la física de la materia condensada, unió las ideas de Gell-Mann y Low con las de Kadanoff. Su teoría del «grupo de renormalización», que describió por primera vez en 1971, permitía justificar los tortuosos cálculos de la electrodinámica cuántica y proporcionó una escalera con la que, por fin, los físicos podían subir y bajar a través de las distintas escalas de longitud un problema. Aquel trabajo acabaría valiéndole a Wilson el premio Nobel y cambiaría la física para siempre.

Para Paul Fendley, físico de la materia condensada de la Universidad de Oxford, la mejor manera de conceptualizar el grupo de renormalización de Wilson es viéndolo como una «teoría de teorías» que conecta lo microscópico con lo macroscópico. Consideremos una red magnética. A nivel microscópico, es fácil escribir una ecuación que relacione el comportamiento de dos espines vecinos. Sin embargo, extrapolar esa simple fórmula a billones y billones de partículas resulta imposible a efectos prácticos. Ello se debe a que no estamos pensando en la escala apropiada.

El grupo de renormalización de Wilson describe cómo se va transformando una teoría de los constituyentes elementales en otra que atañe a estructuras de tamaño cada vez mayor. A modo de ejemplo, imaginemos que comenzamos con una teoría que describe el comportamiento de los átomos en una bola de billar. A partir de ella, la manivela matemática de Wilson permite obtener otra teoría que describe agrupaciones de los constituyentes originales, como las moléculas de la bola de billar. Continuar el proceso daría lugar a teorías sobre grupos de moléculas, sobre sectores de la bola, etcétera, hasta llegar a fenómenos tan interesantes como la trayectoria de una bola entera.

Es aquí donde reside la magia del grupo de renormalización: ayuda a identificar qué propiedades del sistema global no hace falta medir y qué detalles microscópicos podemos ignorar. A un surfista le interesa la altura de las olas, no el intrincado movimiento de las moléculas del agua. Y en el ámbito subatómico, el grupo de renormalización dice a los físicos cuándo pueden considerar el protón como una partícula simple y cuándo deben verlo como una maraña de quarks y gluones.

De igual modo, el grupo de renormalización de Wilson implica que las tribulaciones de Feynman y sus coetáneos se debían a que intentaban entender el electrón desde un «primer plano» infinitamente cercano. «No esperamos que una teoría sea válida hasta escalas de longitud infinitamente pequeñas», explica James Fraser, filósofo de la física de la Universidad de Durham. Hoy, los físicos entienden que truncar una suma infinita y dejar de lado la parte divergente es la manera correcta de hacer un cálculo cuando la teoría viene equipada con un «tamaño de red» mínimo. «Ese punto de corte absorbe nuestra ignorancia de lo que ocurre a niveles inferiores», apunta Fraser.

En otras palabras: la electrodinámica cuántica y el modelo estándar simplemente no pueden decir nada sobre cuánto vale la llamada «carga desnuda» del electrón: el valor que mediríamos si pudiéramos observarlo a una distancia de cero nanómetros. Pertenecen a la clase de teorías que los físicos denominan «efectivas», las cuales funcionan bien en un intervalo de distancias bien definido. Describir con exactitud qué sucede a escalas aún menores constituye, de hecho, uno de los principales objetivos de la física de altas energías moderna.

De lo grande a lo pequeño

Hoy, el «proceso sin cabeza» al que se refería Feynman se ha vuelto ubicuo en física de partículas y su mecánica interna da cuenta tanto de los éxitos como de los retos que afronta la disciplina. La renormalización suele hacer desaparecer las complicadas trampas submicroscópicas, las cuales, por reales que puedan ser, no afectan a la visión de conjunto. «La simplicidad es una virtud», asegura Fendley. «Existe algo divino en ello».

Ese hecho matemático capta la tendencia de la naturaleza a ordenarse en mundos que, en esencia, funcionan de manera independiente. Cuando los ingenieros diseñan un rascacielos, pueden olvidarse de cómo se comportan las partículas que integran el acero. Los químicos pueden estudiar los enlaces moleculares sin preocuparse de qué ocurre con los quarks y los gluones. A lo largo de los siglos, la posibilidad de compartimentar los fenómenos físicos en distintas escalas de longitud ha permitido que los científicos puedan pasar de forma gradual de lo grande a lo pequeño, sin tener que desentrañar todas las escalas a la vez.

Al mismo tiempo, sin embargo, la hostilidad de la renormalización hacia los detalles microscópicos impide a los físicos actuales adivinar qué se esconde en la siguiente capa de la realidad. La separación de escalas que implica la renormalización sugiere que tendrán que aplicarse a fondo para vencer la obstinada tendencia de la naturaleza a ocultar sus aspectos más sutiles a gigantes curiosos como nosotros. «La renormalización nos ayuda a simplificar el problema», explica Nathan Seiberg, físico teórico del Instituto de Estudios Avanzados de Princeton. «Pero también esconde lo que sucede a distancias cortas. Hay que elegir entre una cosa o la otra.»

Charlie Wood/Quanta Magazine

Artículo original traducido por Investigación y Ciencia con el permiso de QuantaMagazine.org, una publicación independiente promovida por la Fundación Simons para potenciar la comprensión pública de la ciencia.

Referencia: «Renormalization group and critical phenomena I: Renormalization group and the Kadanoff scaling picture». Kenneth Wilson en Physical Review B, vol 4, pág. 3174, noviembre de 1971.