En física , la naturalidad es la propiedad de que las relaciones adimensionales entre parámetros libres o constantes físicas que aparecen en una teoría física deben tomar valores "de orden 1" y que los parámetros libres no están ajustados . Es decir, una teoría natural tendría relaciones de parámetros con valores como 2,34 en lugar de 234000 o 0,000234.
El requisito de que las teorías satisfactorias sean "naturales" en este sentido es una corriente de pensamiento iniciada alrededor de la década de 1960 en la física de partículas . Es un criterio que surge de la aparente falta de naturalidad del modelo estándar y los temas más amplios del problema de la jerarquía , el ajuste fino y el principio antrópico . Sin embargo, tiende a sugerir un posible área de debilidad o desarrollo futuro para las teorías actuales como el Modelo Estándar , donde algunos parámetros varían en muchos órdenes de magnitud y que requieren un extenso " ajuste fino"de sus valores actuales de los modelos en cuestión. La preocupación es que aún no está claro si estos valores aparentemente exactos que reconocemos actualmente, han surgido por casualidad (basados en el principio antrópico o similar) o si surgen de una teoría más avanzada aún no desarrollado, en el que estos resultan ser esperados y bien explicados, debido a otros factores que aún no forman parte de los modelos de física de partículas.
El concepto de naturalidad no siempre es compatible con la navaja de Occam , ya que muchas instancias de teorías "naturales" tienen más parámetros que las teorías "afinadas" como el Modelo Estándar. La naturalidad en la física está estrechamente relacionada con el tema del ajuste fino , y durante la última década muchos científicos [1] [2] [3] [4] [5] argumentaron que el principio de naturalidad es una aplicación específica de la estadística bayesiana .
Descripción general
Un simple ejemplo:
Suponga que un modelo de física requiere cuatro parámetros que le permiten producir un modelo de trabajo de muy alta calidad, cálculos y predicciones de algún aspecto de nuestro universo físico. Supongamos que a través de experimentos encontramos que los parámetros tienen valores:
- 1.2
- 1,31
- 0,9 y
- 404,331,557,902,116,024,553,602,703,216.58 (aproximadamente 4 x 10 29 ).
Podríamos preguntarnos cómo surgen tales cifras. Pero, en particular, podríamos sentir especial curiosidad por una teoría en la que tres valores están cerca de uno y el cuarto es tan diferente; en otras palabras, la enorme desproporción que parecemos encontrar entre los tres primeros parámetros y el cuarto. También podríamos preguntarnos, si una fuerza es mucho más grande que las otras que necesita un factor de 4 x 10 29 para permitir que se relacione con ellas en términos de efectos, ¿cómo llegó a estar nuestro universo tan exactamente equilibrado cuando su surgieron fuerzas. En la física de partículas actual, las diferencias entre algunos parámetros son mucho mayores que esto, por lo que la pregunta es aún más notable.
Una respuesta dada por algunos físicos es el principio antrópico . Si el universo llegó a existir por casualidad, y tal vez existan o hayan existido un gran número de otros universos, entonces la vida capaz de experimentos físicos solo surgió en universos que por casualidad tenían fuerzas muy equilibradas. Todos los universos donde las fuerzas no estaban equilibradas, no desarrollaron vida capaz de responder. Entonces, si una forma de vida como los seres humanos hace tal pregunta, debe haber surgido en un universo que tiene fuerzas equilibradas, por raro que sea. Entonces, cuando miramos, eso es lo que esperaríamos encontrar, y lo que encontramos.
Una segunda respuesta es que tal vez haya una comprensión más profunda de la física, que, si la descubrimos y la entendemos, dejaría en claro que estos no son parámetros realmente fundamentales y hay una buena razón por la que tienen los valores exactos que hemos encontrado, porque todos derivan de otros parámetros más fundamentales que no están tan desequilibrados.
Introducción
En física de partículas , el supuesto de naturalidad significa que, a menos que exista una explicación más detallada, todos los términos concebibles en la acción efectiva que preservan las simetrías requeridas deben aparecer en esta acción efectiva con coeficientes naturales. [6]
En una teoría de campo efectiva , Λ es la escala de corte , una escala de energía o longitud en la que la teoría se rompe. Debido al análisis dimensional , los coeficientes naturales tienen la forma
donde d es la dimensión del operador de campo ; y c es un número adimensional que debe ser "aleatorio" y menor que 1 en la escala en la que los eficaces breaks teoría hacia abajo. La ejecución adicional del grupo de renormalización puede reducir el valor de c en una escala de energía E , pero en un pequeño factor proporcional a ln ( E / Λ) .
Algunos parámetros en la acción efectiva del Modelo Estándar parecen tener coeficientes mucho más pequeños que los requeridos por la coherencia con el supuesto de naturalidad, lo que lleva a algunas de las cuestiones fundamentales abiertas en física. En particular:
- La naturalidad del "parámetro theta" de QCD conduce al fuerte problema de PC , porque es muy pequeño (experimentalmente consistente con "cero") en lugar de un orden de magnitud unitario. [ cita requerida ]
- La naturalidad de la masa de Higgs conduce al problema de la jerarquía , porque es 17 órdenes de magnitud más pequeña que la masa de Planck que caracteriza a la gravedad. (De manera equivalente, la constante de Fermi que caracteriza la fuerza de la fuerza débil es muy grande en comparación con la constante gravitacional que caracteriza la fuerza de la gravedad ). [6]
- La naturalidad de la constante cosmológica conduce al problema de la constante cosmológica porque es al menos 40 y quizás tanto como 100 o más órdenes de magnitud menor de lo que ingenuamente se esperaba. [6]
Además, el acoplamiento del electrón al Higgs, la masa del electrón, es anormalmente pequeño y, en menor medida, las masas de los quarks ligeros. [6]
En modelos con grandes dimensiones extra , se viola el supuesto de naturalidad para los operadores que multiplican los operadores de campo que crean objetos que se localizan en diferentes posiciones en las dimensiones extra. [7]
La naturalidad y el problema de la jerarquía de calibres
Una definición más práctica de naturalidad es que para cualquier observable que consta de n contribuciones independientes
luego todas las contribuciones independientes a debe ser comparable o menor que . De lo contrario, si una contribución, diga, entonces alguna otra contribución independiente tendría que ajustarse a un gran valor de signo opuesto, como para mantener en su valor medido. Este ajuste fino se considera antinatural e indica que falta algún ingrediente en la teoría.
Por ejemplo, en el modelo estándar con potencial de Higgs dado por
se calcula que la masa física del bosón de Higgs es
donde la corrección radiativa cuadráticamente divergente está dada por
dónde es el acoplamiento top-quark Yukawa, es el acoplamiento de manómetro SU (2) y es el corte de energía de las integrales de bucle divergente. Como aumenta (dependiendo del corte elegido ), luego se puede marcar libremente para mantener en su valor medido (ahora conocido por ser GeV). Insistiendo en la naturalidad, entonces. Resolviendo parauno encuentra TeV. Esto implica entonces que el Modelo Estándar como teoría de campo natural efectivo solo es válido hasta la escala de energía de 1 TeV.
A veces se queja de que este argumento depende del esquema de regularización que introduce el cut-off y tal vez el problema desaparezca con la regularización dimensional. En este caso, si se introducen nuevas partículas que se acoplan al Higgs, se recupera una vez más la divergencia cuadrática ahora en términos de las nuevas masas cuadráticas de las partículas. Por ejemplo, si se incluyen neutrinos oscilantes en el modelo estándar, entonces explotaría hasta cerca de la escala de balancín, típicamente esperado en el Rango GeV.
Naturalidad, supersimetría y la pequeña jerarquía
Al supersimetrizar el modelo estándar, se llega a una solución a la jerarquía de gauge, o gran jerarquía, problema en el que la supersimetría garantiza la cancelación de las divergencias cuadráticas a todos los órdenes en la teoría de perturbaciones. La supersimetrización más simple del SM conduce al Modelo Estándar Mínimo Supersimétrico o MSSM. En el MSSM, cada partícula SM tiene una partícula asociada conocida como supercompañera o espartícula. Por ejemplo, los componentes de helicidad del electrón izquierdo y derecho tienen selectrones asociados escalares y respectivamente, mientras que los ocho gluones de color tienen ocho supercompañeras de gluino spin-1/2 de color. El sector de Higgs MSSM debe necesariamente expandirse para incluir dos en lugar de un doblete que conduzca a cinco partículas físicas de Higgs. y mientras que tres de los ocho campos componentes de Higgs son absorbidos por el y bosones para hacerlos masivos. El MSSM en realidad está respaldado por tres conjuntos diferentes de medidas que prueban la presencia de supercompañeros virtuales: 1. Las famosas medidas de escala débil de las resistencias de los tres acoplamientos de calibre son justo lo que se necesita para la unificación de acoplamientos de calibre a escala. GeV, 2. el valor de GeV cae de lleno en el rango necesario para desencadenar una ruptura impulsada radiativamente en la simetría electrodébil y 3. el valor medido de GeV cae dentro de la estrecha ventana de valores permitidos para el MSSM.
No obstante, la verificación de SUSY de escala débil (WSS, SUSY con masas de supercompañeras en o alrededor de la escala débil como se caracteriza por GeV) requiere la observación directa de al menos algunos de los supercompañeros en experimentos de haz de colisión con suficiente energía. [ aclaración necesaria ] En 2017, el Gran Colisionador de Hadrones del CERN, uncolisionador que opera a una energía de centro de masa de 13 TeV, no ha encontrado ninguna evidencia de supercompañeras. Esto ha llevado a límites de masa en el gluino TeV y en el squark superior más ligero TeV (en el contexto de ciertos modelos simplificados que se supone hacen más manejable el análisis experimental). Junto con estos límites, el valor medido bastante grande deGeV parece requerir escuadras superiores altamente mezcladas a escala TeV. Estas mediciones combinadas han suscitado preocupación ahora por un problema emergente de la Pequeña Jerarquía caracterizado por. Bajo la Pequeña Jerarquía, uno podría esperar que la masa de Higgs de luz, ahora log divergente, explote a la escala de masa de espartículas a menos que uno lo ajuste. El problema de Little Hierarchy ha suscitado la preocupación de que el WSS tal vez no se realice en la naturaleza, o al menos no de la manera que los teóricos típicamente esperaban en años pasados.
Estado de naturalidad y la pequeña jerarquía.
En el MSSM, se calcula que la masa ligera de Higgs es
donde las contribuciones de mezcla y bucle son pero donde en la mayoría de los modelos, el SUSY suave rompiendo la masa de Higgs se conduce a valores negativos grandes de escala TeV (para romper la simetría electrodébil). Luego, para mantener el valor medido de GeV, hay que ajustar el término de masa superpotencial a un gran valor positivo. Alternativamente, para SUSY natural, uno puede esperar que corre a pequeños valores negativos, en cuyo caso ambos y son del orden de 100-200 GeV. Esto ya lleva a una predicción: dado quees supersimétrico y alimenta masa tanto a las partículas SM (W, Z, h) como a las supercompañeras (higgsinos), entonces se espera del MSSM natural que los higgsinos ligeros existan cerca de la escala de 100-200 GeV. Esta simple comprensión tiene profundas implicaciones para las búsquedas de materia oscura y colisionadores de WSS.
La naturalidad en el MSSM se ha expresado históricamente en términos de masa de bosones y, de hecho, este enfoque conduce a límites superiores más estrictos en las masas de espartículas. Minimizando el potencial escalar (Coleman-Weinberg) del MSSM, entonces uno puede relacionar el valor medido de GeV a los parámetros de SUSY Lagrangian:
Aquí, es la relación de los valores esperados de vacío del campo de Higgs y es el término de masa de rotura blanda de Higgs descendente. La y contienen una variedad de correcciones de bucle etiquetadas por los índices i y j, la más importante de las cuales generalmente proviene de los cuadrados superiores.
En el renombrado trabajo de revisión de P. Nilles, titulado "Supersimetría, Supergravedad y Física de Partículas", publicado en Phys.Rept. 110 (1984) 1-162, se encuentra la frase "Los experimentos en los próximos cinco a diez años nos permitirán decidir si la supersimetría como solución del problema de naturalidad de la escala de interacción débil es un mito o una realidad".
Ver también
- Sintonia FINA
- Problema de jerarquía
- Grandes dimensiones extra
- Supersimetría dividida
Referencias
- ^ Fowlie, Andrew; Balazs, Csaba; White, Graham; Marzola, Luca; Raidal, Martti (17 de agosto de 2016). "Naturalidad del mecanismo de relajación". Revista de Física de Altas Energías . 2016 (8): 100. arXiv : 1602.03889 . Código Bib : 2016JHEP ... 08..100F . doi : 10.1007 / JHEP08 (2016) 100 . S2CID 119102534 .
- ^ Fowlie, Andrew (10 de julio de 2014). "CMSSM, naturalidad y el? Precio de ajuste? Del Very Large Hadron Collider". Physical Review D . 90 (1): 015010. arXiv : 1403.3407 . Código bibliográfico : 2014PhRvD..90a5010F . doi : 10.1103 / PhysRevD.90.015010 . S2CID 118362634 .
- ^ Fowlie, Andrew (15 de octubre de 2014). "¿Es el CNMSSM más creíble que el CMSSM?". El European Physical Diario C . 74 (10). arXiv : 1407,7534 . doi : 10.1140 / epjc / s10052-014-3105-y . S2CID 119304794 .
- ^ Cabrera, María Eugenia; Casas, Alberto; Austri, Roberto Ruiz de (2009). "Enfoque bayesiano y naturalidad en análisis MSSM para el LHC". Revista de Física de Altas Energías . 2009 (3): 075. arXiv : 0812.0536 . Código bibliográfico : 2009JHEP ... 03..075C . doi : 10.1088 / 1126-6708 / 2009/03/075 . S2CID 18276270 .
- ^ Fichet, S. (18 de diciembre de 2012). "Naturalidad cuantificada a partir de estadísticas bayesianas". Physical Review D . 86 (12): 125029. arXiv : 1204.4940 . Código bibliográfico : 2012PhRvD..86l5029F . doi : 10.1103 / PhysRevD.86.125029 . S2CID 119282331 .
- ^ a b c d N. Seiberg (1993). "Teoremas de naturalidad versus no renormalización supersimétrica". Physics Letters B . 318 (3): 469–475. arXiv : hep-ph / 9309335 . Código Bibliográfico : 1993PhLB..318..469S . doi : 10.1016 / 0370-2693 (93) 91541-T . S2CID 14683964 .
- ^ N. Arkani-Hamed, M. Schmaltz (2000). "Jerarquías sin simetrías de dimensiones extra". Physical Review D . 61 (3): 033005. arXiv : hep-ph / 9903417 . Código Bibliográfico : 2000PhRvD..61c3005A . doi : 10.1103 / PhysRevD.61.033005 . S2CID 18030407 .
Otras lecturas
- 't Hooft, G. (1980). "Naturalidad, simetría quiral y ruptura espontánea de la simetría quiral". En 't Hooft, G. (ed.). Desarrollos recientes en las teorías del calibre . Plenum Press . ISBN 978-0-306-40479-5.
- Giudice, G. (2008). "Hablando naturalmente: el criterio de naturalidad y la física en el LHC". En Kane, G. (ed.). Perspectivas sobre la física del LHC . World Scientific . arXiv : 0801.2562 . Código Bibliográfico : 2008plnc.book..155G . doi : 10.1142 / 9789812779762_0010 . ISBN 978-9812833891. S2CID 15078813 .
- Sabine Hossenfelder (2018). Lost in Math: Cómo la belleza lleva a la física por mal camino , libros básicos.
- Burton Richter , ¿Es la "naturalidad" antinatural? Charla invitada presentada en SUSY06: XIV Conferencia Internacional sobre Supersimetría y la Unificación de Interacciones Fundamentales 6/12 / 2006—6 / 17/2006