Renormalización - Renormalization

Renormalización es una colección de técnicas en teoría cuántica de campos , los mecánica estadística de campos, y la teoría de la auto-similares estructuras geométricas, que se usan para tratar infinitos que surgen en cantidades calculadas por los valores de alteración de estas cantidades para compensar los efectos de su auto -interacciones . Pero incluso si no surgieran infinitos en los diagramas de bucle en la teoría cuántica de campos, se podría demostrar que sería necesario volver a normalizar la masa y los campos que aparecen en el lagrangiano original .

Por ejemplo, una teoría electrónica puede comenzar postulando un electrón con una masa y carga iniciales. En la teoría cuántica de campos, una nube de partículas virtuales , como fotones , positrones y otras, rodea e interactúa con el electrón inicial. Tener en cuenta las interacciones de las partículas circundantes (por ejemplo, colisiones a diferentes energías) muestra que el sistema de electrones se comporta como si tuviese una masa y una carga diferentes a las inicialmente postuladas. La renormalización, en este ejemplo, reemplaza matemáticamente la masa y la carga inicialmente postuladas de un electrón con la masa y la carga observadas experimentalmente. Las matemáticas y los experimentos demuestran que los positrones y las partículas más masivas como los protones exhiben precisamente la misma carga observada que el electrón, incluso en presencia de interacciones mucho más fuertes y nubes más intensas de partículas virtuales.

La renormalización especifica las relaciones entre los parámetros en la teoría cuando los parámetros que describen grandes escalas de distancia difieren de los parámetros que describen pequeñas escalas de distancia. Físicamente, la acumulación de contribuciones de una infinidad de escalas involucradas en un problema puede resultar en infinitos adicionales. Al describir el espacio-tiempo como un continuo , ciertas construcciones estadísticas y mecánicas cuánticas no están bien definidas . Para definirlos, o hacerlos inequívocos, un límite continuo debe eliminar cuidadosamente el "andamio de construcción" de celosías en varias escalas. Los procedimientos de renormalización se basan en el requisito de que ciertas cantidades físicas (como la masa y la carga de un electrón) sean iguales a los valores observados (experimentales). Es decir, el valor experimental de la cantidad física produce aplicaciones prácticas, pero debido a su naturaleza empírica, la medición observada representa áreas de la teoría cuántica de campos que requieren una derivación más profunda de las bases teóricas.

La renormalización se desarrolló por primera vez en electrodinámica cuántica (QED) para dar sentido a las integrales infinitas en la teoría de perturbaciones . Inicialmente visto como un procedimiento provisional sospechoso incluso por algunos de sus creadores, la renormalización finalmente fue aceptada como un mecanismo real importante y autoconsistente de la física de escalas en varios campos de la física y las matemáticas .

Hoy en día, el punto de vista ha cambiado: sobre la base de las ideas revolucionarias del grupo de renormalización de Nikolay Bogolyubov y Kenneth Wilson , la atención se centra en la variación de las cantidades físicas a través de escalas contiguas, mientras que las escalas distantes se relacionan entre sí a través de descripciones "efectivas". . Todas las escalas están vinculadas de una manera ampliamente sistemática, y la física real pertinente a cada una se extrae con las técnicas computacionales específicas adecuadas para cada una. Wilson aclaró qué variables de un sistema son cruciales y cuáles son redundantes.

La renormalización es distinta de la regularización , otra técnica para controlar infinitos asumiendo la existencia de nueva física desconocida a nuevas escalas.

Autointeracciones en la física clásica

Figura 1. Renormalización en electrodinámica cuántica: se revela que la interacción simple electrón / fotón que determina la carga del electrón en un punto de renormalización consiste en interacciones más complicadas en otro.

El problema de los infinitos surgió por primera vez en la electrodinámica clásica de partículas puntuales en el siglo XIX y principios del XX.

La masa de una partícula cargada debe incluir la masa-energía en su campo electrostático ( masa electromagnética ). Suponga que la partícula es una capa esférica cargada de radio r e . La masa-energía en el campo es

que se vuelve infinito cuando r e → 0 . Esto implica que la partícula puntual tendría una inercia infinita y, por lo tanto, no se puede acelerar. Por cierto, el valor de r e que hace igual a la masa del electrón se llama el radio clásico del electrón , que (ajuste y los factores de restaurar c y ) resulta ser

donde es la constante de estructura fina y es la longitud de onda de Compton del electrón.

Renormalización: La masa efectiva total de una partícula cargada esférica incluye la masa desnuda real de la capa esférica (además de la masa mencionada anteriormente asociada con su campo eléctrico). Si se permite que la masa desnuda del caparazón sea negativa, podría ser posible tomar un límite de puntos consistente. Esto se llamó renormalización , y Lorentz y Abraham intentaron desarrollar una teoría clásica del electrón de esta manera. Este trabajo temprano fue la inspiración para intentos posteriores de regularización y renormalización en la teoría cuántica de campos.

(Ver también regularización (física) para una forma alternativa de eliminar infinitos de este problema clásico, asumiendo que existe nueva física a escalas pequeñas).

Al calcular las interacciones electromagnéticas de partículas cargadas , es tentador ignorar la reacción inversa del propio campo de una partícula sobre sí misma. (Análogo al back-EMF del análisis de circuitos). Pero esta contrarreacción es necesaria para explicar la fricción en las partículas cargadas cuando emiten radiación. Si se supone que el electrón es un punto, el valor de la reacción inversa diverge, por la misma razón que la masa diverge, porque el campo es cuadrado inverso .

La teoría de Abraham-Lorentz tenía una "preaceleración" no causal. A veces, un electrón comenzaría a moverse antes de que se aplique la fuerza. Esta es una señal de que el límite de puntos es inconsistente.

El problema era peor en la teoría de campos clásica que en la teoría cuántica de campos, porque en la teoría cuántica de campos una partícula cargada experimenta Zitterbewegung debido a la interferencia con pares de partícula-antipartícula virtuales, lo que dispersa efectivamente la carga sobre una región comparable a la longitud de onda de Compton. En electrodinámica cuántica con acoplamiento pequeño, la masa electromagnética solo diverge como el logaritmo del radio de la partícula.

Divergencias en electrodinámica cuántica

(a) Polarización al vacío, también conocida como detección de carga. Este bucle tiene una divergencia ultravioleta logarítmica.
(b) Diagrama de energía propia en QED
(c) Ejemplo de un diagrama de "pingüino"

Al desarrollar la electrodinámica cuántica en la década de 1930, Max Born , Werner Heisenberg , Pascual Jordan y Paul Dirac descubrieron que en las correcciones perturbativas muchas integrales eran divergentes (ver El problema de los infinitos ).

Hans Kramers , Hans Bethe , Julian Schwinger , Richard Feynman y Shin'ichiro Tomonaga descubrió una forma de describir las divergencias de las correcciones de la teoría de la perturbación en 1947-1949 , y fue sistematizada por Freeman Dyson en 1949. Las divergencias aparecen en correcciones radiativas que involucran Diagramas de Feynman con bucles cerrados de partículas virtuales en ellos.

Si bien las partículas virtuales obedecen a la conservación de la energía y el momento , pueden tener cualquier energía y momento, incluso uno que no esté permitido por la relación relativista energía-momento para la masa observada de esa partícula (es decir, no es necesariamente la masa al cuadrado de la partícula en ese proceso, por ejemplo, para un fotón podría ser distinto de cero). Tal partícula se llama fuera de la cáscara . Cuando hay un bucle, el impulso de las partículas involucradas en el bucle no está determinado únicamente por las energías y los momentos de las partículas entrantes y salientes. Una variación en la energía de una partícula en el bucle se puede equilibrar mediante un cambio igual y opuesto en la energía de otra partícula en el bucle, sin afectar las partículas entrantes y salientes. Por tanto, son posibles muchas variaciones. Así que para encontrar la amplitud para el proceso de bucle, se debe integrar sobre todas las combinaciones posibles de la energía y el impulso que podrían viajar alrededor del bucle.

Estas integrales suelen ser divergentes , es decir, dan infinitas respuestas. Las divergencias significativas son las " ultravioleta " (UV). Una divergencia ultravioleta se puede describir como una que proviene de

  • la región en la integral donde todas las partículas en el bucle tienen grandes energías y momentos,
  • longitudes de onda muy cortas y fluctuaciones de alta frecuencia de los campos, en la integral de trayectoria para el campo,
  • tiempo propio muy corto entre la emisión y la absorción de partículas, si se piensa en el bucle como una suma de trayectorias de partículas.

Entonces, estas divergencias son fenómenos de corta distancia y de corto tiempo.

Como se muestra en las imágenes del margen derecho, hay exactamente tres diagramas de bucle divergente de un bucle en electrodinámica cuántica:

(a) Un fotón crea un par virtual electrón- positrón , que luego se aniquila. Este es un diagrama de polarización de vacío .
(b) Un electrón emite y reabsorbe rápidamente un fotón virtual, llamado energía propia .
(c) Un electrón emite un fotón, emite un segundo fotón y reabsorbe el primero. Este proceso se muestra en la siguiente sección de la figura 2 y se denomina renormalización de vértices . El diagrama de Feynman para esto también se llama " diagrama de pingüino " debido a que su forma se asemeja remotamente a un pingüino.

Las tres divergencias corresponden a los tres parámetros de la teoría considerada:

  1. La normalización de campo Z.
  2. La masa del electrón.
  3. La carga del electrón.

La segunda clase de divergencia, llamada divergencia infrarroja , se debe a partículas sin masa, como el fotón. Cada proceso que involucra partículas cargadas emite una cantidad infinita de fotones coherentes de longitud de onda infinita, y la amplitud para emitir cualquier número finito de fotones es cero. Para los fotones, estas divergencias se comprenden bien. Por ejemplo, en el orden de 1 bucle, la función de vértice tiene divergencias tanto ultravioleta como infrarroja . A diferencia de la divergencia ultravioleta, la divergencia infrarroja no requiere la renormalización de un parámetro en la teoría involucrada. La divergencia infrarroja del diagrama de vértice se elimina al incluir un diagrama similar al diagrama de vértice con la siguiente diferencia importante: el fotón que conecta las dos ramas del electrón se corta y se reemplaza por dos fotones en la capa (es decir, reales) cuyas longitudes de onda tienden hasta el infinito; este diagrama es equivalente al proceso bremsstrahlung . Este diagrama adicional debe incluirse porque no hay forma física de distinguir un fotón de energía cero que fluye a través de un bucle como en el diagrama de vértice y los fotones de energía cero emitidos a través de bremsstrahlung . Desde un punto de vista matemático, las divergencias de IR se pueden regularizar asumiendo una diferenciación fraccionaria con un parámetro, por ejemplo:

está bien definido en p = a pero es divergente en UV; si tomamos el 3 / 2 -ésimo derivado fraccional con respecto a - un 2 , obtenemos la divergencia IR

para que podamos curar las divergencias IR convirtiéndolas en divergencias UV.

Una divergencia de bucle

Figura 2. Un diagrama que contribuye a la dispersión electrón-electrón en QED. El bucle tiene una divergencia ultravioleta.

El diagrama de la Figura 2 muestra una de las diversas contribuciones de un bucle a la dispersión electrón-electrón en QED. El electrón en el lado izquierdo del diagrama, representado por la línea continua, comienza con 4 momentos p μ y termina con 4 momentos r μ . Emite un fotón virtual que lleva r μ - p μ para transferir energía y momento al otro electrón. Pero en este diagrama, antes de que eso suceda, emite otro fotón virtual con 4 momentos q μ , y lo reabsorbe después de emitir el otro fotón virtual. La conservación de la energía y la cantidad de movimiento no determina la cantidad de movimiento de 4 q μ de manera única, por lo que todas las posibilidades contribuyen por igual y debemos integrar.

La amplitud de este diagrama termina con, entre otras cosas, un factor del bucle de

Los diversos factores γ μ en esta expresión son matrices gamma como en la formulación covariante de la ecuación de Dirac ; tienen que ver con el giro del electrón. Los factores de e son la constante de acoplamiento eléctrico, mientras que proporcionan una definición heurística del contorno de integración alrededor de los polos en el espacio de los momentos. La parte importante para nuestros propósitos es la dependencia de q μ de los tres grandes factores en el integrando, que son de los propagadores de las dos líneas de electrones y la línea de fotones en el bucle.

Esto tiene una pieza con dos potencias de q μ en la parte superior que domina en grandes valores de q μ (Pokorski 1987, p. 122):

Esta integral es divergente e infinita, a menos que la cortemos en energía y momento finitos de alguna manera.

Se producen divergencias de bucle similares en otras teorías de campos cuánticos.

Cantidades desnormalizadas y desnudas

La solución fue darse cuenta de que las cantidades que aparecían inicialmente en las fórmulas de la teoría (como la fórmula del Lagrangiano ), que representaban cosas como la carga eléctrica y la masa del electrón , así como las normalizaciones de los campos cuánticos en sí, no correspondían en realidad. a las constantes físicas medidas en el laboratorio. Como está escrito, eran cantidades simples que no tenían en cuenta la contribución de los efectos de bucle de partículas virtuales a las constantes físicas en sí mismas . Entre otras cosas, estos efectos incluirían la contraparte cuántica de la contrarreacción electromagnética que tanto irritaba a los teóricos clásicos del electromagnetismo. En general, estos efectos serían tan divergentes como las amplitudes consideradas en primer lugar; por tanto, cantidades medidas finitas implicarían, en general, cantidades desnudas divergentes.

Entonces, para entrar en contacto con la realidad, las fórmulas tendrían que reescribirse en términos de cantidades mensurables y renormalizadas . La carga del electrón, digamos, se definiría en términos de una cantidad medida en un punto de renormalización cinemático específico o punto de sustracción (que generalmente tendrá una energía característica, llamada escala de renormalización o simplemente escala de energía ). Las partes sobrantes del Lagrangiano, que involucran las porciones restantes de las cantidades desnudas, podrían entonces reinterpretarse como contraterminos , involucradas en diagramas divergentes que cancelan exactamente las divergencias problemáticas para otros diagramas.

Renormalización en QED

Figura 3. El vértice correspondiente al contratermino Z 1 cancela la divergencia en la Figura 2.

Por ejemplo, en el Lagrangiano de QED

los campos y la constante de acoplamiento son cantidades realmente desnudas , de ahí el subíndice B anterior. Convencionalmente, las cantidades desnudas se escriben de modo que los términos lagrangianos correspondientes sean múltiplos de los renormalizados:

La invariancia de calibre , a través de una identidad de Ward-Takahashi , implica que podemos volver a normalizar los dos términos de la pieza derivada covariante.

juntos (Pokorski 1987, p. 115), que es lo que le sucedió a Z 2 ; es lo mismo que Z 1 .

Un término en este lagrangiano, por ejemplo, la interacción electrón-fotón representada en la Figura 1, se puede escribir

La constante física e , la carga del electrón, se puede definir en términos de algún experimento específico: establecemos la escala de renormalización igual a la característica de energía de este experimento, y el primer término da la interacción que vemos en el laboratorio (hasta pequeños , correcciones finitas de los diagramas de bucle, proporcionando exóticas como las correcciones de orden superior al momento magnético ). El resto es el contratermino. Si la teoría es renormalizable (ver más abajo para más información sobre esto), como está en QED, las partes divergentes de los diagramas de bucle se pueden descomponer en pedazos con tres o menos patas, con una forma algebraica que puede ser cancelada por el segundo. término (o por contraterminos similares que provienen de Z 0 y Z 3 ).

El diagrama con el vértice de interacción del contratermino Z 1 colocado como en la Figura 3 cancela la divergencia del bucle en la Figura 2.

Históricamente, la división de los "términos desnudos" en los términos originales y contratérminos se produjo antes de la idea del grupo de renormalización debida a Kenneth Wilson . De acuerdo con las ideas del grupo de renormalización , que se detallan en la siguiente sección, esta división es antinatural y, en realidad, no física, ya que todas las escalas del problema entran en formas sistemáticas continuas.

Ejecución de acoplamientos

Para minimizar la contribución de los diagramas de bucle a un cálculo dado (y por lo tanto facilitar la extracción de resultados), se elige un punto de renormalización cercano a las energías y momentos intercambiados en la interacción. Sin embargo, el punto de renormalización no es en sí mismo una cantidad física: las predicciones físicas de la teoría, calculadas para todos los órdenes, deberían en principio ser independientes de la elección del punto de renormalización, siempre que esté dentro del dominio de aplicación de la teoría. Los cambios en la escala de renormalización simplemente afectarán cuánto de un resultado proviene de los diagramas de Feynman sin bucles y cuánto proviene de las partes finitas restantes de los diagramas de bucle. Se puede aprovechar este hecho para calcular la variación efectiva de las constantes físicas con cambios de escala. Esta variación está codificada por funciones beta , y la teoría general de este tipo de dependencia de escala se conoce como grupo de renormalización .

Coloquialmente, los físicos de partículas a menudo hablan de ciertas "constantes" físicas que varían con la energía de interacción, aunque de hecho, es la escala de renormalización la que es la cantidad independiente. Sin embargo, esta ejecución proporciona un medio conveniente para describir cambios en el comportamiento de una teoría de campo bajo cambios en las energías involucradas en una interacción. Por ejemplo, dado que el acoplamiento en la cromodinámica cuántica se vuelve pequeño a grandes escalas de energía, la teoría se comporta más como una teoría libre a medida que la energía intercambiada en una interacción se vuelve grande, un fenómeno conocido como libertad asintótica . La elección de una escala de energía creciente y el uso del grupo de renormalización aclara esto a partir de simples diagramas de Feynman; si no se hiciera esto, la predicción sería la misma, pero surgiría de cancelaciones complicadas de alto orden.

Por ejemplo,

está mal definido.

Para eliminar la divergencia, simplemente cambie el límite inferior de la integral en ε a y ε b :

Asegurándose ε b/ε un→ 1 , entonces I = lna/B.

Regularización

Dado que la cantidad ∞ - ∞ está mal definida, para que esta noción de cancelación de divergencias sea precisa, las divergencias primero deben ser domesticadas matemáticamente usando la teoría de límites , en un proceso conocido como regularización (Weinberg, 1995).

Una modificación esencialmente arbitraria de los integrandos de bucle, o regulador , puede hacer que caigan más rápido a altas energías y momentos, de tal manera que las integrales converjan. Un regulador tiene una escala de energía característica conocida como corte ; llevar este corte al infinito (o, de manera equivalente, la correspondiente escala de longitud / tiempo a cero) recupera las integrales originales.

Con el regulador en su lugar y un valor finito para el límite, los términos divergentes en las integrales se convierten en términos finitos pero dependientes del límite. Después de cancelar estos términos con las contribuciones de contraterminos dependientes del corte, el corte se lleva al infinito y se recuperan los resultados físicos finitos. Si la física en las escalas que podemos medir es independiente de lo que sucede en las escalas de distancia y tiempo más cortas, entonces debería ser posible obtener resultados independientes de los límites para los cálculos.

Se utilizan muchos tipos diferentes de reguladores en los cálculos de la teoría cuántica de campos, cada uno con sus ventajas y desventajas. Uno de los más populares en el uso moderno es la regularización dimensional , inventada por Gerardus 't Hooft y Martinus JG Veltman , que domestica las integrales llevándolas a un espacio con un número fraccionario ficticio de dimensiones. Otra es la regularización de Pauli-Villars , que agrega partículas ficticias a la teoría con masas muy grandes, de modo que los integrandos de bucle que involucran las partículas masivas cancelan los bucles existentes en momentos grandes.

Otro esquema de regularización más es la regularización de celosía , introducida por Kenneth Wilson , que pretende que la celosía hipercúbica construye nuestro espacio-tiempo con un tamaño de cuadrícula fijo. Este tamaño es un límite natural para el impulso máximo que una partícula podría poseer cuando se propaga en la red. Y después de hacer un cálculo en varias celosías con diferentes tamaños de cuadrícula, el resultado físico se extrapola al tamaño de cuadrícula 0, o nuestro universo natural. Esto presupone la existencia de un límite de escala .

Un enfoque matemático riguroso de la teoría de la renormalización es la llamada teoría de la perturbación causal , donde las divergencias ultravioleta se evitan desde el principio en los cálculos realizando operaciones matemáticas bien definidas solo dentro del marco de la teoría de la distribución . En este enfoque, las divergencias son reemplazadas por ambigüedad: correspondiente a un diagrama divergente es un término que ahora tiene un coeficiente finito, pero indeterminado. Luego, se deben utilizar otros principios, como la simetría de calibre, para reducir o eliminar la ambigüedad.

Regularización de la función Zeta

Julian Schwinger descubrió una relación entre la regularización de la función zeta y la renormalización, utilizando la relación asintótica:

como el regulador Λ → ∞ . Con base en esto, consideró usar los valores de ζ (- n ) para obtener resultados finitos. Aunque alcanzó resultados inconsistentes, una fórmula mejorada estudiada por Hartle , J. García, y basada en los trabajos de E. Elizalde incluye la técnica del algoritmo de regularización zeta

donde las B son los números de Bernoulli y

Entonces, cada I ( m , Λ) se puede escribir como una combinación lineal de ζ (−1), ζ (−3), ζ (−5), ..., ζ (- m ) .

O simplemente usando la fórmula de Abel-Plana tenemos para cada integral divergente:

válido cuando m > 0 , aquí la función zeta es la función zeta de Hurwitz y Beta es un número real positivo.

La analogía "geométrica" ​​viene dada por, (si usamos el método del rectángulo ) para evaluar la integral así:

Usando la regularización zeta de Hurwitz más el método del rectángulo con el paso h (no confundir con la constante de Planck ).

La integral divergente logarítmica tiene la regularización

ya que para la serie Armónica en el límite debemos recuperar la serie

Para integrales de múltiples bucles que dependerán de varias variables , podemos hacer un cambio de variables a coordenadas polares y luego reemplazar la integral sobre los ángulos por una suma para que tengamos solo una integral divergente, que dependerá del módulo y luego podemos Aplique el algoritmo de regularización zeta, la idea principal para las integrales de bucle múltiple es reemplazar el factor después de un cambio a las coordenadas hiperesféricas F ( r , Ω) para que las divergencias superpuestas UV se codifiquen en la variable r . Para regularizar estas integrales se necesita un regulador, para el caso de integrales multilazo, estos reguladores pueden tomarse como

por lo que la integral de múltiples bucles convergerá para s suficientemente grandes usando la regularización Zeta podemos analizar continuar la variable s hasta el límite físico donde s = 0 y luego regularizar cualquier integral UV, reemplazando una integral divergente por una combinación lineal de series divergentes , que se puede regularizar en términos de los valores negativos de la función zeta de Riemann ζ (- m ) .

Actitudes e interpretación

Los primeros formuladores de QED y otras teorías de campos cuánticos estaban, por regla general, insatisfechos con este estado de cosas. Parecía ilegítimo hacer algo equivalente a restar infinitos de infinitos para obtener respuestas finitas.

Freeman Dyson argumentó que estos infinitos son de naturaleza básica y no pueden eliminarse mediante ningún procedimiento matemático formal, como el método de renormalización.

La crítica de Dirac fue la más persistente. Todavía en 1975, estaba diciendo:

La mayoría de los físicos están muy satisfechos con la situación. Dicen: "La electrodinámica cuántica es una buena teoría y ya no tenemos que preocuparnos por ella". Debo decir que estoy muy descontento con la situación porque esta llamada 'buena teoría' sí implica descuidar los infinitos que aparecen en sus ecuaciones, ignorándolos de forma arbitraria. Esto simplemente no es una matemática sensata. Las matemáticas sensatas implican ignorar una cantidad cuando es pequeña, ¡no descuidarla solo porque es infinitamente grande y usted no la quiere!

Otro crítico importante fue Feynman . A pesar de su papel crucial en el desarrollo de la electrodinámica cuántica, escribió lo siguiente en 1985:

El juego de caparazón que jugamos se llama técnicamente 'renormalización'. Pero no importa cuán inteligente sea la palabra, ¡sigue siendo lo que yo llamaría un proceso dippy! Tener que recurrir a semejante engaño nos ha impedido demostrar que la teoría de la electrodinámica cuántica es matemáticamente autoconsistente. Es sorprendente que la teoría todavía no haya demostrado ser coherente de una forma u otra; Sospecho que la renormalización no es matemáticamente legítima.

A Feynman le preocupaba que todas las teorías de campo conocidas en la década de 1960 tuvieran la propiedad de que las interacciones se vuelven infinitamente fuertes a escalas de distancia suficientemente cortas. Esta propiedad llamada polo de Landau , hizo plausible que las teorías de campos cuánticos fueran inconsistentes. En 1974, Gross , Politzer y Wilczek demostraron que otra teoría cuántica de campos, la cromodinámica cuántica , no tiene un polo Landau. Feynman, junto con la mayoría de los demás, aceptó que QCD era una teoría totalmente coherente.

El malestar general fue casi universal en los textos hasta los años setenta y ochenta. Sin embargo, a partir de la década de 1970, inspirado por el trabajo sobre el grupo de renormalización y la teoría del campo efectivo , y a pesar de que Dirac y varios otros, todos los cuales pertenecían a la generación anterior, nunca retiraron sus críticas, las actitudes comenzaron a cambiar, especialmente entre teóricos más jóvenes. Kenneth G. Wilson y otros demostraron que el grupo de renormalización es útil en la teoría de campos estadísticos aplicada a la física de la materia condensada , donde proporciona importantes conocimientos sobre el comportamiento de las transiciones de fase . En la física de la materia condensada, existe un regulador físico de corta distancia: la materia deja de ser continua en la escala de los átomos . Las divergencias a corta distancia en la física de la materia condensada no presentan un problema filosófico, ya que la teoría del campo es sólo una representación eficaz y suavizada del comportamiento de la materia; no hay infinitos ya que el límite es siempre finito, y tiene perfecto sentido que las cantidades desnudas sean dependientes del límite.

Si QFT se mantiene completamente más allá de la longitud de Planck (donde podría ceder a la teoría de cuerdas , la teoría de conjuntos causales o algo diferente), entonces puede que tampoco haya un problema real con las divergencias de corta distancia en la física de partículas ; todas las teorías de campo podrían ser simplemente teorías de campo efectivas. En cierto sentido, este enfoque se hace eco de la antigua actitud de que las divergencias en QFT hablan de la ignorancia humana sobre el funcionamiento de la naturaleza, pero también reconoce que esta ignorancia puede cuantificarse y que las teorías efectivas resultantes siguen siendo útiles.

Sea como fuere, la observación de Salam en 1972 parece todavía relevante

Los infinitos de la teoría de campos, que se encontraron por primera vez en el cálculo de Lorentz de la masa propia de los electrones, han persistido en la electrodinámica clásica durante setenta y en la electrodinámica cuántica durante unos treinta y cinco años. Estos largos años de frustración han dejado en el sujeto un curioso afecto por los infinitos y una apasionada creencia de que son parte inevitable de la naturaleza; Tanto es así que incluso la sugerencia de una esperanza de que, después de todo, puedan ser eludidos —y se calculan valores finitos para las constantes de renormalización— se considera irracional. Compare la posdata de Russell con el tercer volumen de su autobiografía The Final Years, 1944–1969 (George Allen y Unwin, Ltd., Londres 1969), pág. 221:
En el mundo moderno, si las comunidades son infelices, a menudo es porque tienen ignorancias, hábitos, creencias y pasiones, que les son más queridas que la felicidad o incluso la vida. Encuentro muchos hombres en nuestra peligrosa época que parecen estar enamorados de la miseria y la muerte, y que se enojan cuando se les sugiere esperanzas. Piensan que la esperanza es irracional y que, al sentarse a la desesperación perezosa, simplemente se enfrentan a los hechos.

En QFT, el valor de una constante física, en general, depende de la escala que se elija como punto de renormalización, y resulta muy interesante examinar el funcionamiento del grupo de renormalización de constantes físicas bajo cambios en la escala de energía. Las constantes de acoplamiento en el modelo estándar de física de partículas varían de diferentes maneras con el aumento de la escala de energía: el acoplamiento de la cromodinámica cuántica y el acoplamiento de isospín débil de la fuerza electrodébil tienden a disminuir, y el acoplamiento de hipercarga débil de la fuerza electrodébil tiende a aumentar. En la escala de energía colosal de 10 15 GeV (mucho más allá del alcance de nuestros aceleradores de partículas actuales ), todos se vuelven aproximadamente del mismo tamaño (Grotz y Klapdor 1990, p. 254), una de las principales motivaciones para las especulaciones sobre la gran teoría unificada . En lugar de ser solo un problema preocupante, la renormalización se ha convertido en una importante herramienta teórica para estudiar el comportamiento de las teorías de campo en diferentes regímenes.

Si una teoría que presenta renormalización (por ejemplo, QED) solo puede interpretarse con sensatez como una teoría de campo efectiva, es decir, como una aproximación que refleja la ignorancia humana sobre el funcionamiento de la naturaleza, entonces el problema sigue siendo descubrir una teoría más precisa que no tenga estos problemas de renormalización. . Como ha dicho Lewis Ryder , "en la teoría cuántica, estas divergencias [clásicas] no desaparecen; por el contrario, parecen empeorar. Y a pesar del éxito comparativo de la teoría de la renormalización, permanece la sensación de que debería haber un forma más satisfactoria de hacer las cosas ".

Renormalizabilidad

De esta reevaluación filosófica se desprende naturalmente un nuevo concepto: la noción de renormalizabilidad. No todas las teorías se prestan a la renormalización de la manera descrita anteriormente, con un suministro finito de contraterminos y todas las cantidades se vuelven independientes del límite al final del cálculo. Si el lagrangiano contiene combinaciones de operadores de campo de una dimensión suficientemente alta en unidades de energía, los contratérminos requeridos para cancelar todas las divergencias proliferan hasta un número infinito y, a primera vista, la teoría parecería ganar un número infinito de parámetros libres y por lo tanto perderlos todos. poder predictivo, volviéndose científicamente inútil. Estas teorías se denominan no renormalizables .

El modelo estándar de física de partículas contiene solo operadores renormalizables, pero las interacciones de la relatividad general se convierten en operadores no renormalizables si se intenta construir una teoría de campo de la gravedad cuántica de la manera más sencilla (tratando la métrica en el Einstein-Hilbert Lagrangiano como una perturbación sobre la métrica de Minkowski ), lo que sugiere que la teoría de la perturbación no es satisfactoria en su aplicación a la gravedad cuántica.

Sin embargo, en una teoría de campo eficaz , "renormalizabilidad" es, estrictamente hablando, un nombre inapropiado . En la teoría de campos efectivos no renormalizables, los términos en el lagrangiano se multiplican hasta el infinito, pero tienen coeficientes suprimidos por potencias inversas cada vez más extremas del corte de energía. Si el límite es una cantidad física real, es decir, si la teoría es sólo una descripción efectiva de la física hasta una escala de energía máxima o distancia mínima, entonces estos términos adicionales podrían representar interacciones físicas reales. Suponiendo que las constantes adimensionales en la teoría no son demasiado grandes, se pueden agrupar los cálculos por potencias inversas del límite y extraer predicciones aproximadas en orden finito en el límite que todavía tienen un número finito de parámetros libres. Incluso puede resultar útil volver a normalizar estas interacciones "no normalizables".

Las interacciones no renormalizables en las teorías de campo efectivas se debilitan rápidamente a medida que la escala de energía se vuelve mucho más pequeña que el límite. El ejemplo clásico es la teoría de Fermi de la fuerza nuclear débil , una teoría eficaz nonrenormalizable cuyo corte es comparable a la masa de la partícula W . Este hecho también puede proporcionar una posible explicación de por qué casi todas las interacciones de partículas que vemos se pueden describir mediante teorías renormalizables. Puede ser que cualquier otro que pueda existir en la escala GUT o Planck simplemente se vuelva demasiado débil para detectarlo en el reino que podemos observar, con una excepción: la gravedad , cuya interacción extremadamente débil se magnifica por la presencia de las enormes masas de estrellas y planetas .

Esquemas de renormalización

En los cálculos reales, los contraterminos introducidos para cancelar las divergencias en los cálculos del diagrama de Feynman más allá del nivel del árbol deben corregirse utilizando un conjunto de condiciones de renormalización . Los esquemas comunes de renormalización en uso incluyen:

Renormalización en física estadística

Historia

Una comprensión más profunda del significado físico y la generalización del proceso de renormalización, que va más allá del grupo de dilatación de las teorías renormalizables convencionales , provino de la física de la materia condensada. El artículo de Leo P. Kadanoff en 1966 propuso el grupo de renormalización "bloque-espín". La idea de bloqueo es una forma de definir los componentes de la teoría a grandes distancias como agregados de componentes a distancias más cortas.

Este enfoque cubrió el punto conceptual y recibió una sustancia computacional completa en las importantes contribuciones extensas de Kenneth Wilson . El poder de las ideas de Wilson se demostró mediante una solución de renormalización iterativa constructiva de un problema de larga data, el problema de Kondo , en 1974, así como los desarrollos seminales precedentes de su nuevo método en la teoría de las transiciones de fase de segundo orden y los fenómenos críticos. en 1971. Fue galardonado con el premio Nobel por estas contribuciones decisivas en 1982.

Principios

En términos más técnicos, supongamos que tenemos una teoría descrita por una determinada función de las variables de estado y un cierto conjunto de constantes de acoplamiento . Esta función puede ser una función de partición , una acción , un hamiltoniano , etc. Debe contener la descripción completa de la física del sistema.

Ahora consideramos una cierta transformación de bloqueo de las variables de estado , el número de debe ser menor que el número de . Ahora intentemos reescribir la función solo en términos de . Si esto se puede lograr mediante un cierto cambio en los parámetros , entonces se dice que la teoría es renormalizable .


Los posibles estados macroscópicos del sistema, a gran escala, vienen dados por este conjunto de puntos fijos.

Puntos fijos del grupo de renormalización

La información más importante en el flujo de RG son sus puntos fijos . Un punto fijo se define por la desaparición de la función beta asociada al flujo. Entonces, los puntos fijos del grupo de renormalización son, por definición, invariantes en la escala. En muchos casos de invariancia de escala de interés físico se agranda a invariancia conforme. Entonces uno tiene una teoría de campo conforme en el punto fijo.

La capacidad de varias teorías para fluir hacia el mismo punto fijo conduce a la universalidad .

Si estos puntos fijos corresponden a la teoría de campo libre, se dice que la teoría exhibe trivialidad cuántica . Numerosos puntos fijos aparecen en el estudio de las teorías reticulares de Higgs , pero la naturaleza de las teorías de campo cuántico asociadas con ellas sigue siendo una pregunta abierta.

Ver también

Referencias

Otras lecturas

Introducción general

Principalmente: teoría cuántica de campos

  • NN Bogoliubov , DV Shirkov (1959): La teoría de los campos cuantificados . Nueva York, Interscience. El primer libro de texto sobre la teoría de grupos de renormalización .
  • Ryder, Lewis H .; Quantum Field Theory (Cambridge University Press, 1985), ISBN  0-521-33859-X Libro de texto muy legible, sin duda la mejor introducción a la QFT relativista para la física de partículas.
  • Zee, Anthony; Teoría cuántica de campos en pocas palabras , Princeton University Press (2003) ISBN  0-691-01019-6 . Otro excelente libro de texto sobre QFT
  • Weinberg, Steven; La teoría cuántica de los campos (3 volúmenes) Cambridge University Press (1995). Un tratado monumental sobre QFT escrito por un destacado experto, el premio Nobel de 1979 .
  • Pokorski, Stefan; Gauge Field Theories , Cambridge University Press (1987) ISBN  0-521-47816-2 .
  • 't Hooft, Gerard; The Glorious Days of Physics - Renormalization of Gauge teories , conferencia pronunciada en Erice (agosto / septiembre de 1998) por el premio Nobel de 1999 . Texto completo disponible en: hep-th / 9812203 .
  • Rivasseau, Vincent; Una introducción a la renormalización , Seminario de Poincaré (París, 12 de octubre de 2002), publicado en: Duplantier, Bertrand; Rivasseau, Vincent (Eds.); Seminario de Poincaré 2002 , Progreso en Física Matemática 30, Birkhäuser (2003) ISBN  3-7643-0579-7 . Texto completo disponible en PostScript .
  • Rivasseau, Vincent; De la renormalización perturbativa a la constructiva , Princeton University Press (1991) ISBN  0-691-08530-7 . Texto completo disponible en PostScript .
  • Iagolnitzer, Daniel y Magnen, J .; Análisis grupal de renormalización , Enciclopedia de Matemáticas, Editorial Académica Kluwer (1996). Texto completo disponible en PostScript y pdf aquí .
  • Scharf, Günter; Electrodinámica cuántica finita: el enfoque causal , Springer Verlag Berlin Heidelberg Nueva York (1995) ISBN  3-540-60142-2 .
  • AS Švarc ( Albert Schwarz ), Математические основы квантовой теории поля, (Aspectos matemáticos de la teoría cuántica de campos), Atomizdat, Moscú, 1975. 368 págs.

Principalmente: física estadística

  • AN Vasil'ev; El Grupo de Renormalización Teórica de Campo en Teoría del Comportamiento Crítico y Dinámica Estocástica (Routledge Chapman & Hall 2004); ISBN  978-0-415-31002-4
  • Nigel Goldenfeld ; Conferencias sobre transiciones de fase y el grupo de renormalización , Frontiers in Physics 85, Westview Press (junio de 1992) ISBN  0-201-55409-7 . Este libro popular, que cubre los aspectos elementales de la física de las transiciones de fases y el grupo de renormalización, enfatiza la comprensión y la claridad en lugar de las manipulaciones técnicas.
  • Zinn-Justin, Jean; Teoría cuántica de campos y fenómenos críticos , Oxford University Press (4a edición - 2002) ISBN  0-19-850923-5 . Una obra maestra sobre las aplicaciones de los métodos de renormalización al cálculo de exponentes críticos en mecánica estadística, siguiendo las ideas de Wilson (Kenneth Wilson fue premio Nobel en 1982 ).
  • Zinn-Justin, Jean; Grupo de Transiciones de Fase y Renormalización: de la Teoría a los Números , Seminario de Poincaré (París, 12 de octubre de 2002), publicado en: Duplantier, Bertrand; Rivasseau, Vincent (Eds.); Seminario de Poincaré 2002 , Progreso en Física Matemática 30, Birkhäuser (2003) ISBN  3-7643-0579-7 . Texto completo disponible en PostScript .
  • Domb, Cyril; El punto crítico: una introducción histórica a la teoría moderna de los fenómenos críticos , CRC Press (marzo de 1996) ISBN  0-7484-0435-X .
  • Brown, Laurie M. (Ed.); Renormalización: de Lorentz a Landau (y más allá) , Springer-Verlag (Nueva York-1993) ISBN  0-387-97933-6 .
  • Cardy, John ; Escalado y renormalización en física estadística , Cambridge University Press (1996) ISBN  0-521-49959-3 .

Diverso

  • Shirkov, Dmitry ; El Grupo de Renormalización de Bogoliubov , Comunicación JINR E2-96-15 (1996). Texto completo disponible en: hep-th / 9602024
  • Zinn-Justin, Jean; Grupo de renormalización y renormalización: del descubrimiento de las divergencias UV al concepto de teorías de campo efectivas , en: de Witt-Morette C., Zuber J.-B. (eds), Proceedings of the NATO ASI on Quantum Field Theory: Perspectiva y Prospectiva , 15-26 de junio de 1998, Les Houches, Francia, Kluwer Academic Publishers, NATO ASI Series C 530, 375-388 (1999). Texto completo disponible en PostScript .
  • Connes, Alain; Symétries Galoisiennes & Renormalisation , Poincaré Seminar (París, 12 de octubre de 2002), publicado en: Duplantier, Bertrand; Rivasseau, Vincent (Eds.); Seminario de Poincaré 2002 , Progreso en Física Matemática 30, Birkhäuser (2003) ISBN  3-7643-0579-7 . El matemático francés Alain Connes (medallista de Fields en 1982) describe la estructura matemática subyacente (el álgebra de Hopf ) de la renormalización y su vínculo con el problema de Riemann-Hilbert. Texto completo (en francés) disponible en arXiv : math / 0211199 .