historia de la teoría de cuerdas abarca varias décadas de intensa investigación, incluidas dos revoluciones de supercuerdas. A través de los esfuerzos combinados de muchos investigadores, la teoría de cuerdas se ha convertido en un tema amplio y variado con conexiones a la gravedad cuántica , física de partículas y materia condensada , cosmología y matemáticas puras .
1943–1959: Teoría de la matriz S [ editar ]
La teoría de cuerdas representa una consecuencia de la teoría de la matriz S , [1] un programa de investigación iniciado por Werner Heisenberg en 1943 [2] después de la introducción de 1937 de John Archibald Wheeler de la matriz S). [3] Muchos teóricos destacados adoptaron y defendieron la teoría de la matriz S, comenzando a finales de los años cincuenta y durante los sesenta. El campo fue marginado y descartado a mediados de la década de 1970 [4] y desapareció en la década de 1980. Los físicos lo descuidaron porque algunos de sus métodos matemáticos eran extraños, y porque la cromodinámica cuántica lo suplantó como un enfoque experimentalmente mejor calificado para las interacciones fuertes .[5]
La teoría presentaba un replanteamiento radical de los fundamentos de las leyes físicas. Para la década de 1940, se había vuelto claro que el protón y el neutrón no eran partículas puntuales como el electrón. Su momento magnético difería enormemente del de una partícula cargada con un punto de espín y medio , demasiado para atribuir la diferencia a una pequeña perturbación . Sus interacciones fueron tan fuertes que se dispersaron como una pequeña esfera, no como un punto. Heisenberg propuso que las partículas de interacción fuerte eran en realidad objetos extendidos, y debido a que existen dificultades de principio con las partículas relativistas extendidas, propuso que la noción de un punto espacio-tiempo se rompió a escalas nucleares.
Sin espacio y tiempo, se vuelve difícil formular una teoría física. Heisenberg propuso una solución a este problema: centrándose en las cantidades observables, aquellas cosas medibles mediante experimentos. Un experimento solo ve una cantidad microscópica si puede ser transferida por una serie de eventos a los dispositivos clásicos que rodean la cámara experimental. Los objetos que vuelan hasta el infinito son partículas estables, en superposiciones cuánticas de diferentes estados de momento.
Heisenberg propuso que incluso cuando el espacio y el tiempo no son confiables, la noción de estado de impulso, que se define lejos de la cámara experimental, aún funciona. La cantidad física que él propuso como fundamental es la amplitud mecánica cuántica para que un grupo de partículas entrantes se convierta en un grupo de partículas salientes, y no admitió que hubiera pasos intermedios.
La matriz S es la cantidad que describe cómo una colección de partículas entrantes se convierte en partículas salientes. Heisenberg propuso estudiar la matriz S directamente, sin ninguna suposición sobre la estructura del espacio-tiempo. Pero cuando las transiciones del pasado lejano al futuro lejano ocurren en un solo paso sin pasos intermedios, se vuelve difícil calcular cualquier cosa. En la teoría cuántica de campos , los pasos intermedios son las fluctuaciones de los campos o, de manera equivalente, las fluctuaciones de las partículas virtuales. En esta teoría de matriz S propuesta, no hay cantidades locales en absoluto.
Heisenberg propuso usar la unitaridad para determinar la S-matriz. En todas las situaciones concebibles, la suma de los cuadrados de las amplitudes debe ser igual a 1. Esta propiedad puede determinar la amplitud en una teoría de campos cuánticos orden por orden en una serie de perturbaciones una vez que se dan las interacciones básicas, y en muchas teorías de campos cuánticos las amplitudes Crece demasiado rápido a altas energías para hacer una matriz S unitaria. Pero sin supuestos adicionales sobre el comportamiento de alta energía, la unidad no es suficiente para determinar la dispersión, y la propuesta fue ignorada por muchos años.
La propuesta de Heisenberg fue revivida en 1956 cuando Murray Gell-Mann reconoció esas relaciones de dispersión, como las descubiertas por Hendrik Kramers y Ralph Kronig en la década de 1920 (ver relaciones Kramers-Kronig ), que permiten la formulación de una noción de causalidad, una noción de los acontecimientos en el futuro no influiría en los eventos del pasado, incluso cuando la noción microscópica de pasado y futuro no esté claramente definida. También reconoció que estas relaciones podrían ser útiles para calcular los observables en el caso de la física de interacción fuerte. [6] Las relaciones de dispersión eran propiedades analíticas de la matriz S, [7]e impusieron condiciones más estrictas que las que siguen únicamente de la unitaridad. Este desarrollo en la teoría de la matriz S surgió del descubrimiento de Murray Gell-Mann y Marvin Leonard Goldberger (1954) de la simetría de cruce , otra condición que la matriz S tenía que cumplir. [8] [7]
Los destacados defensores del nuevo enfoque de "relaciones de dispersión" incluyeron a Stanley Mandelstam [9]y Geoffrey Chew , [10] en la UC Berkeley en ese momento. Mandelstam descubrió las relaciones de doble dispersión , una nueva y poderosa forma analítica, en 1958, [9] y creía que proporcionaría la clave para progresar en las interacciones fuertes e intratables.
1959–1968: Teoría de regge y modelos bootstrap [ editar ]
A fines de la década de 1950, se descubrieron muchas partículas de espines cada vez más fuertes que interactúan, y quedó claro que no todas eran fundamentales. Mientras que el físico japonés Shoichi Sakatapropuso que las partículas podrían entenderse como estados unidos de solo tres de ellos (el protón, el neutrón y el Lambda ; vea el modelo de Sakata ), [11] Geoffrey Chew creyó que ninguna de estas partículas es fundamental [12 ] [13] (para más detalles, ver el modelo Bootstrap ). El enfoque de Sakata fue reelaborado en la década de 1960 en el modelo de quark por Murray Gell-Mann y George Zweig al hacer elLas cargas de los constituyentes hipotéticos se fraccionan y rechazan la idea de que se observan partículas. En ese momento, el enfoque de Chew se consideraba más general porque no introducía valores de carga fraccional y porque se centraba en elementos de matriz S medibles experimentalmente, no en constituyentes puntos hipotéticos.
En 1959, Tullio Regge , un joven teórico en Italia, descubrió que los estados ligados en la mecánica cuántica pueden organizarse en familias conocidas como trayectorias de Regge , cada familia tiene momentos angularesdistintivos . [14] Esta idea fue generalizada a la mecánica cuántica relativista por Stanley Mandelstam , Vladimir Gribov y Marcel Froissart , utilizando un método matemático (la representación de Sommerfeld-Watson ) descubierto décadas antes por Arnold Sommerfeld y Kenneth Marshall Watson : el resultado fue apodado la fórmula Froissart-Gribov . [15]
En 1961, Geoffrey Chew y Steven Frautschi reconocieron que los mesones tenían trayectorias de Regge de línea recta [16] (en su esquema, el giro se traza contra la masa cuadrada en una trama llamada Chew-Frautschi ), lo que implicaba que la dispersión de estas partículas tiene un comportamiento muy extraño: debería caer exponencialmente rápidamente en grandes ángulos. Con esta realización, los teóricos esperaban construir una teoría de partículas compuestas en las trayectorias de Regge, cuyas amplitudes de dispersión tenían la forma asintótica exigida por la teoría de Regge.
En 1967, un notable paso adelante en el enfoque bootstrap fue el principio de dualidad DHS introducido por Richard Dolen , David Horn y Christoph Schmid en 1967, [17] en Caltech (el término original para esto era "dualidad promedio" o "finito"). Dualidad de la regla de suma de energía (FESR) "). Los tres investigadores notaron que las descripciones del intercambio de polos Regge (a alta energía) y la resonancia (a baja energía) ofrecen representaciones / aproximaciones múltiples de un mismo proceso físicamente observable. [18]
1968–1974: modelo de doble resonancia [ editar ]
El primer modelo en el que las partículas hadrónicas siguieron esencialmente las trayectorias de Regge fue el modelo de resonancia dual que construyó Gabriele Veneziano en 1968, [19] quien notó que la función beta de Euler podría usarse para describir datos de amplitud de dispersión de 4 partículas para dichas partículas. . La amplitud de dispersión de Veneziano (o modelo de Veneziano) se generalizó rápidamente a una amplitud de N-partícula por Ziro Koba y Holger Bech Nielsen [20] (su enfoque fue denominado formalismo Koba-Nielsen ), y hasta ahora se reconoce como cuerdas cerradas por Miguel virasoro[21] y Joel A. Shapiro [22] (su enfoque fue denominado modelo Shapiro-Virasoro ).
En 1969, las reglas de Chan-Paton (propuestas por Jack E. Paton y Hong-Mo Chan ) [23] permitieron que se agregaran factores de isospina al modelo Veneziano. [24]
En 1969–70, Yoichiro Nambu , [25] Holger Bech Nielsen , [26] y Leonard Susskind [27] [28] presentaron una interpretación física de la amplitud de Veneziano al representar las fuerzas nucleares como cuerdas unidimensionales vibrantes. Sin embargo, esta descripción basada en la cadena de la fuerza fuerte hizo muchas predicciones que contradecían directamente los hallazgos experimentales.
En 1971, Pierre Ramond [29] e, independientemente, John H. Schwarz y André Neveu [30] intentaron implementar fermiones en el modelo dual. Esto llevó al concepto de "cuerdas giratorias", y señaló el camino a un método para eliminar el tachyon problemático (ver formalismo RNS ). [31]
Los modelos de resonancia dual para interacciones fuertes fueron un tema de estudio relativamente popular entre 1968 y 1973. [32] La comunidad científica perdió interés en la teoría de cuerdas como una teoría de interacciones fuertes en 1973, cuando la cromodinámica cuántica se convirtió en el foco principal de la investigación teórica [33] (Principalmente debido al atractivo teórico de su libertad asintótica ). [34]
1974–1984: teoría de cuerdas bosónicas y teoría de supercuerdas [ editar ]
En 1974, John H. Schwarz y Joel Scherk , [35] e independientemente Tamiaki Yoneya , [36] estudiaron los patrones de vibración de cuerdas parecidos al bosón y encontraron que sus propiedades coincidían exactamente con las del gravitón , la hipotética partícula mensajera de la fuerza gravitacional . Schwarz y Scherk argumentaron que la teoría de cuerdas no había logrado ponerse al día porque los físicos habían subestimado su alcance. Esto condujo al desarrollo de la teoría de cuerdas bosónicas .
La teoría de cuerdas está formulada en términos de la acción Polyakov , [37] que describe cómo las cadenas se mueven a través del espacio y el tiempo. Al igual que los resortes, las cuerdas tienden a contraerse para minimizar su energía potencial, pero la conservación de la energía evita que desaparezcan, y en cambio oscilan. Aplicando las ideas de la mecánica cuántica a las cuerdas, es posible deducir los diferentes modos vibracionales de las cuerdas, y cada estado vibracional parece ser una partícula diferente. La masa de cada partícula, y la forma en que puede interactuar, están determinadas por la forma en que vibra la cuerda, en esencia, por la " nota" que suena la "cuerda". La escala de notas, cada una correspondiente a un tipo diferente de partícula, se denomina "espectro "de la teoria.
Los primeros modelos incluyeron tanto cadenas abiertas , que tienen dos puntos finales distintos, como cadenas cerradas , donde los puntos finales se unen para formar un bucle completo. Los dos tipos de cuerdas se comportan de formas ligeramente diferentes, produciendo dos espectros. No todas las teorías de cuerdas modernas utilizan ambos tipos; Algunos incorporan solo la variedad cerrada.
El primer modelo de cadena tiene varios problemas: tiene una dimensión crítica D = 26, una característica que fue descubierta originalmente por Claud Lovelace en 1971; [38] la teoría tiene una inestabilidad fundamental, la presencia de taquiones [39] (ver condensación del taquión ); Además, el espectro de partículas contiene solo bosones , partículas como el fotón que obedecen a reglas particulares de comportamiento. Si bien los bosones son un ingrediente crítico del Universo, no son sus únicos constituyentes. La investigación de cómo una teoría de cuerdas puede incluir fermiones en su espectro llevó a la invención de la supersimetría (enOccidente ) [40] en 1971, [41] una transformación matemática entre bosones y fermiones. Las teorías de cuerdas que incluyen vibraciones fermiónicas ahora se conocen como teorías de supercuerdas .
En 1977, la proyección de la OSG (llamada así por Ferdinando Gliozzi , Joel Scherk y David I. Olive ) dio lugar a una familia de teorías de cuerdas libres unitarias libres de taquiones [42], las primeras teorías de supercuerdas consistentes (ver más abajo ).
1984–1994: primera revolución de supercuerdas [ editar ]
La primera revolución de supercuerdas es un período de descubrimientos importantes que comenzaron en 1984. [43] Se observó que la teoría de cuerdas era capaz de describir todas las partículas elementales , así como las interacciones entre ellas. Cientos de físicos comenzaron a trabajar en la teoría de cuerdas como la idea más prometedora para unificar las teorías físicas. [44] La revolución se inició con un descubrimiento de la cancelaciónde anomalías en la teoría de cuerdas de tipo I a través del mecanismo de Green-Schwarz (llamado así por Michael Green y John H. Schwarz) en 1984. [45] [46]El descubrimiento innovador de la cuerda heterótica fue hecho por David Gross , Jeffrey Harvey , Emil Martinec y Ryan Rohm en 1985. [47] También fue realizado por Philip Candelas , Gary Horowitz , Andrew Strominger y Edward Witten en 1985 que para obtenersupersimetría , las seis pequeñas dimensiones adicionales (la teoría D = 10 dimensión crítica de la supercuerdas fue descubierta originalmente por John H. Schwarz en 1972) [48] deben compactarse en una variedad Calabi-Yau. [49] (En teoría de cuerdas, la compactación es una generalización de la teoría de Kaluza-Klein , que se propuso por primera vez en la década de 1920). [50]
Para 1985, se habían descrito cinco teorías de supercuerdas separadas: tipo I, [51] tipo II (IIA y IIB) , [51] y heterótica (SO (32) y E 8 × E 8 ) . [47]
La revista Discover en el número de noviembre de 1986 (vol. 7, n.º 11) presentó un artículo de portada escrito porGary Taubes , "Everything's Now Tied to Strings", que explica la teoría de cuerdas para una audiencia popular.
En 1987, Eric Bergshoeff , Ergin Sezgin y Paul Townsend demostraron que no hay supercuerdas en once dimensiones (el mayor número de dimensiones compatibles con un solo gravitón en las teorías de supergravedad ), [52] pero las supermembranas . [53]
1994-2003: segunda revolución de supercuerdas [ editar ]
A principios de la década de 1990, Edward Witten y otros encontraron pruebas sólidas de que las diferentes teorías de supercuerdas eran diferentes límites de una teoría de 11 dimensiones [54] [55] que se conoció como teoría M [56] (para más detalles, consulte Introducción a M -la teoría ). Estos descubrimientos provocaron la segunda revolución de supercuerdas que tuvo lugar aproximadamente entre 1994 y 1995. [57]
Las diferentes versiones de la teoría de supercuerdas se unificaron, como se esperaba, mediante nuevas equivalencias. Estos son conocidos como S-dualidad , la dualidad T , U-dualidad , simetría de espejo , y conifoldtransiciones. Las diferentes teorías de las cuerdas también estaban relacionadas con la teoría-M.
En 1995, Joseph Polchinski descubrió que la teoría requiere la inclusión de objetos de dimensiones superiores, denominados D-branas : [58] estas son las fuentes de campos eléctricos y magnéticos de Ramond-Ramond que requiere la dualidad de cuerdas . [59] Las D-branas agregaron una rica estructura matemática adicional a la teoría, y abrieron posibilidades para construir modelos cosmológicos realistas en la teoría (para más detalles, consulte la cosmología de Brane ).
En 1997–98, Juan Maldacena conjeturó una relación entre la teoría de cuerdas y la teoría supersimétrica de Yang-Mills N = 4 , una teoría gauge . [60] Esta conjetura, llamada correspondencia AdS / CFT , ha generado un gran interés en la física de alta energía . [61] Es una realización del principio holográfico , que tiene implicaciones de largo alcance: la correspondencia AdS / CFT ha ayudado a aclarar los misterios de los agujeros negrossugeridas por Stephen Hawking trabajo 's [62] y se cree que proporciona una resolución de laLa paradoja de la información del agujero negro . [63]
2003 – presente [ editar ]
En 2003, el descubrimiento de Michael R. Douglas del panorama de la teoría de cuerdas , [64] que sugiere que la teoría de cuerdas tiene un gran número de vacíos falsos no equivalentes , [65] condujo a una gran discusión sobre qué teoría de la cuerda podría predecirse finalmente. , y cómo la cosmología puede incorporarse a la teoría.
funcional de Hitchin es un concepto matemático con aplicaciones en la teoría de cuerdas que fue presentado por el matemático británico Nigel Hitchin . Hitchin (2000) y Hitchin (2001) son los artículos originales de la funcionalidad de Hitchin.
Al igual que con la introducción de Hitchin de los complejos complejos generalizados , este es un ejemplo de una herramienta matemática que resulta útil en la física matemática .
Definición formal [ editar ]
Esta es la definición para 6-colectores. La definición en el artículo de Hitchin es más general, pero más abstracta. [1]
Dejar Ser compacta , orientada a 6 colectores con haz canónico trivial . Entonces, la función de Hitchin es una función en 3 formas definidas por la fórmula:
Propiedades [ editar ]
- La función de Hitchin es análoga para la variedad de seis unidades a la función de Yang-Mills para la de cuatro variedades.
- La función de Hitchin es manifiestamente invariante bajo la acción del grupo de difeomorfismos quepreservan la orientación .
- Teorema. Suponer queEs una variedad tridimensional compleja yes la parte real de una 3-forma holomórfica no desaparecida , entoncesEs un punto crítico de lo funcional.restringido a la clase de cohomología . A la inversa, si Es un punto crítico de lo funcional. en una clase determinada de comohology y , entonces define la estructura de una variedad compleja, tal que es la parte real de un 3-form holomorfo no desaparecido en .
- La prueba del teorema en los artículos de Hitchin Hitchin ( 2000 ) y Hitchin ( 2001 ) es relativamente sencilla. El poder de este concepto está en la declaración inversa: si la forma exacta Es sabido, solo tenemos que mirar sus puntos críticos para encontrar las posibles estructuras complejas.
Formas estables [ editar ]
Los funcionales de acción a menudo determinan la estructura geométrica [2] en y la estructura geométrica se caracterizan a menudo por la existencia de formas diferenciales particulares en Que obedecen a unas condiciones integrables.
Si una forma m Se puede escribir con coordenadas locales.
y
- ,
Una forma pEs estable si se encuentra en una órbita abierta de lo local. acción donde n = tenue (M), es decir, si hay alguna perturbación pequeña puede ser deshecho por un local acción. Así que cualquier forma 1 que no desaparezca en todas partes es estable; La forma de 2formas (o forma de p cuando p es par) la estabilidad es equivalente a la no degeneración.
¿Qué hay de p = 3? Para grandes formas n 3 es difícil porque la dimensión de, , crece más en primer lugar que la dimensión de , . Pero hay un caso excepcional muy afortunado, a saber,, cuando tenue tenue . DejarSer una forma 3 real estable en dimensión 6 . Entonces el estabilizador de debajo Tiene una dimensión real 36-20 = 16 , de hecho, ya sea o .
Centrarse en el caso de y si tiene un estabilizador en entonces se puede escribir con coordenadas locales de la siguiente manera:
dónde y son bases de . Entoncesdetermina una estructura casi compleja en. Además, si existen coordenadas locales. tal que Entonces, afortunadamente, determina una estructura compleja en.
Dado el establo :
- .
Podemos definir otro real 3 -desde
- .
Y entonces Es una forma 3 holomorfa en la estructura casi compleja determinada por. Además, se convierte en la estructura compleja solo si es decir y . Estaes solo la forma 3En definición formal de Hitchin funcional . Esta idea induce la estructura compleja generalizada .
Uso en teoría de cuerdas [ editar ]
Los funcionales de Hitchin surgen en muchas áreas de la teoría de cuerdas. Un ejemplo son las compactacionesde la cadena de 10 dimensiones con una proyección orientativa posterior.usando una involución . En este caso,Es el espacio interno 6 (real) dimensional de Calabi-Yau . Los acoplamientos a las complejas coordenadas Kähler. es dado por
La función potencial es la funcional. , donde J es la estructura casi compleja . Ambos son funcionales de Hitchin. Grimm y Louis (2004)
Como aplicación a la teoría de cuerdas, la famosa conjetura de OSV Ooguri, Strominger & Vafa (2004) utilizó la función de Hitchin para relacionar la cadena topológica con la entropía del agujero negro de 4 dimensiones. Utilizando técnica similar en elholonomía Dijkgraaf et al. (2004) discutieron sobre la teoría M topológica y en la Holonomía topológica F-teoría podría argumentarse.
Más recientemente, E. Witten afirmó la misteriosa teoría del campo superconformal en seis dimensiones, llamada 6D (2,0) teoría del campo superconformal Witten (2007) . El hitchin funcional da una de las bases de ello.
No hay comentarios:
Publicar un comentario