Página Axxón

Una breve historia sobre las velas solares   |    Se puede haber encontrado la piedra Rosetta cósmica   |    Proyecto Lucifer (Primera parte)   |    La teoría de la relatividad supera otra prueba   |    ¿El LHC destruirá la Tierra? El CERN responde: ¡No!   |    Phoenix: ¡Si, Marte es apto para soportar vida!   |    COROT descubre un exoplaneta que orbita una estrella similar al Sol   |    Una cápsula tripulada para Europa   |    El Polo Norte podría quedarse sin hielo en el 2008   |    Un error: destruir asteroides con misiles nucleares   |   
22-Sep-2008

Mini agujeros negros en el LHC: aprendamos a conocerlos (I)

Intentando aclarar dudas

Los mini agujeros negros son unos objetos fascinantes introducidos en el mundo de la astrofísica y de la cosmología por Stephen Hawking. Recientemente, la posibilidad de producirlos artificialmente en el LHC ha sido considerada seriamente por ciertos físicos. ¿Que podríamos aprender sobre la estructura de nuestro Universo y sobre todo, representará un riesgo para nuestro planeta? Estas cuestiones serán abordadas desde Astroseti, y aquí tienen a modo de introducción el primer capítulo de ello.


INDICE DE NOTICIAS

Sabemos que el concepto de agujero negro es bastante antiguo ya que nos podemos remontar a Michell y Laplace pero, probablemente más que ningún otro, es Subrahmanyan Chandrasekhar el responsable de su introducción en el mundo de la física teórica y sobre todo de la astrofísica. En el espíritu del gran público, un agujero negro es ese monstruo voraz que lo atrae todo y del que nada puede escaparse. Sin embargo, si nuestro Sol debiera transformarse en agujero negro, su atracción sobre nuestro planeta sería idéntica y sólo en la zona que se extendería entre la superficie actual del Sol y la de la superficie del nuevo agujero negro, de un diámetro de menos de 10 km, la intensidad del campo de gravitación sería mucho mayor.

Nuestra estrella jamás se transformará en un agujero negro porque haría falta para ello que su masa fuera varias decenas de veces superior. En el caso de las estrellas que sobrepasan las 30 masas solares, es posible que algún día su corazón sobrepase la masa de Chandrasekhar que es de 1,4 veces la masa del Sol aproximadamente. Llegados a este punto de la evolución de las reacciones nucleares en ese corazón y en virtud de las leyes de la mecánica cuántica y de la relatividad, ninguna fuerza será capaz de oponerse a la gravitación y, si se exceptúa el caso de las estrellas de neutrones cuya masa limite es apenas más elevada, se producirá inevitablemente un hundimiento gravitacional en una singularidad, por lo menos en toda teoría que incluya la relatividad general de Einstein bajo su forma clásica y no cuántica.

¿Cuánto pesa el más pequeño de los agujeros negros?

¿La masa de Chandrasekhar es la masa del agujero negro más pequeño que puede existir en el cosmos?

A priori sí, aunque se sabe que en realidad, para una masa M dada, bastaría con poder concentrarla en una región esférica en la que el radio es dado por Rs=2GM / c2, el radio de Schwarzschild*, para obtener un agujero negro (donde G es la constante de la gravitación y c la velocidad de la luz). Pero como son necesarias presiones enormes que se encuentran sólo en el terreno de la astrofísica, hay que concluir que la masa de Chandrasekhar es correcta, no sólo esta masa es el límite de la estabilidad de una estrella que haya agotado su carburante nuclear, y se encuentra en forma de enana blanca, sino que también es la masa mínima para un agujero negro.

¡Pero esta conclusión es falsa! Stephen Hawking lo demostró en 1971 utilizando los trabajos publicados en 1967, por los dos grandes líderes de la astrofísica y de la cosmología relativista que eran Yakov Zeldovich e Igor Novikov.


Chandrasekhar Novikov y Zeldovitch

En el marco de los modelos cosmológicos de tipo Big bang, sabemos que la densidad "inicial" del Universo observable era muy grande y, si nos creemos las ecuaciones que intentan describir el estado de la materia y del campo gravitacional próximo a la singularidad cosmológica inicial en la relatividad general clásica, el Universo era muy turbulento con fluctuaciones caóticas de su métrica y de su densidad como bien muestran los trabajos de Misner (es el modelo conocido bajo el nombre de universo mixmaster*), así como también los de Belinsky, Khalatnikov y Lifchitz.

En estas condiciones infernales, si una fluctuación de densidad se hace tal que una masa dada pasa bajo su radio de Schwarzschild, de eso resultará un mini agujero negro. De hecho, siendo dada la velocidad límite de propagación de las interacciones (la de la luz), si se considera una burbuja de luz emitida por una zona del tamaño de la longitud de Planck en el tiempo de Planck, podrá evaluarse por valores nulos, entonces tal densidad de materia (o de energía, por ejemplo un gas de fotones serviría igual), podrá conducir a un hundimiento gravitacional en el instante t si una masa.

M(t)=c3t/G= 1015 (t /10-23) g

Se encuentra en el interior de esta burbuja de luz cuyo radio tendrá una longitud ct.

Esto es fácil de comprender. Si la fluctuación de densidad ocupa una región de tamaño superior a esta burbuja, las interacciones gravitacionales no tuvieron tiempo de propagarse entre estas diferentes partes desde el principio del nacimiento del Universo observable y la sobredensidad no "sabe" que debe hundirse.

Podemos así formar mini agujeros negros de masa tan débil como la masa de Planck, Mp=10-5 g, y mucho mas, ya que la masa de los agujeros negros que puede aparecer 1s después del Big bang es de 105 masas solares.

¿Agujeros negros en el corazón de los átomos?

Según el modelo cosmológico que se utiliza para describir el nacimiento del cosmos observable, el espectro de las fluctuaciones de densidad de materia/energía no será el mismo, y entonces, el tamaño y el número de agujeros negros primordiales que existentes actualmente será unos preciados indicadores para poner límites sobre la turbulencia y el tipo de modelo cosmológico adaptado a la descripción de los primeros segundos de la historia del cosmos, antes que la geometría del espacio-tiempo no se vuelva isotrópica y homogénea para acabar por ser descrita por ligeras perturbaciones sobre un fondo de tipo Friedmann Robertson-Walker con constante cosmológica*.

Es por otra parte lo que Stephen Hawking fue el primero en comprender y que fue objeto de dos publicaciones, antes de su resonante descubrimiento en 1974. Incluso había ido más lejos porque, conociendo la existencia de soluciones que describían agujeros negros cargados, había postulado que una parte de las partículas de la radiación cósmica podía estar constituida por estos mini agujeros negros y que podían haberse formado algunos tipos de átomos, con esos mini agujeros negros en su centro.

Fue estudiando las propiedades de estos mini agujeros negros que descubrió que estos últimos podían comportarse como partículas elementales, o núcleos calientes inestables, en proceso de desintegración emitiendo lo que fue bautizado más tarde como la radiación Hawking. De hecho, como había demostrado en 1974, incluso los agujeros negros producidos por estrellas debían ser capaces de evaporarse emitiendo esta radiación.


Algunos físicos célebres de la escuela rusa, conocidos como el grupo de Landau. Arriba de izquierda a derecha: S.S. Gershtein, L.P. Pitaevskii, L.A. Vainshtein, R.G. Arkhipov, I.E. Dzyaloshinskii. Abajo de izquierda a derecha: L.A. Prozorova, A.A. Abrikosov, I.M. Khalatnikov, L.D. Landau, E.M. Lifshitz.
API

El proceso es tanto más rápido cuanto más pequeño es el agujero negro. Entonces, cuando éste alcanza la masa de Planck, los cálculos de Hawking se hunden y hay que hacer intervenir una teoría de la gravitación cuántica como la teoría de las supercuerdas o una gravitación cuántica de bucles. El último destino de la evaporación de un mini agujero negro es de hecho uno de los grandes problemas irresolutos de la física teórica moderna. Como ya hemos dicho, a medida que un mini agujero negro se acerca a la masa de Planck, podemos considerarlo como la última partícula elemental, donde toda la física de altas energías, todas las partículas y fuerzas se unifican con el espacio-tiempo.

Objetos de estudio fascinantes pero difícilmente comprensibles

No hay probablemente objetos físicos tan fascinantes y tan cruciales en nuestra comprensión del cosmos dentro del Universo, si se exceptúa evidentemente el cerebro humano. Si se hace el balance de lo que se acaba de exponer, los mini agujeros negros son en efecto:

» Sondas cosmológicas del Universo primordial y de su "nacimiento".
» Últimas sondas de la física de altas energías.
» El lugar de Unificación de toda la física, el espacio tiempo, la materia, las fuerzas, la relatividad general y la mecánica cuántica.

Si los mini agujeros negros son en cierto modo la última partícula elemental, entonces sería sumamente interesante el poder fabricarlos en el acelerador. Esto permitiría testar en el laboratorio las teorías de la gravitación cuántica en campo fuerte, precisamente lo que se necesita para unificar toda la física y comprender el origen del Universo.

¿Cuál sería el tamaño de tal acelerador capaz de alcanzar la energía de Planck? ¡La respuesta es simple, para acelerar según las mismas técnicas que en el LHC los pares de protones y producir colisiones con energías por lo menos iguales a las de Planck, es decir 1019 GeV, haría falta un acelerador tan grande como la Galaxia, de un diámetro de aproximadamente 100.000 años luz!

Hasta en los delirios más locos en los cuales la humanidad colonizaría la Galaxia, tal máquina es evidentemente imposible de construir. La situación parecía desesperada hasta finales de los años 1990, cuando dos grupos de investigadores hicieron dos descubrimientos notables que cambiaron completamente las perspectivas.

El primer grupo estuvo constituido por Nima Arkani-Ahmed, Gia Dvali, Savas Dimopoulos y el segundo por Lisa Randall y Raman Sundrum. Para comprender lo que hicieron, desgraciadamente hay que entrar en algunos detalles técnicos pero de hecho, lo importante es que el lector confie en sus capacidades y no tenga nada que temer.

Una cierta incompatibilidad con las teorías vigentes

En ambos casos, los investigadores habían partido de los problemas siguientes.

En el marco del modelo estándar de los quarks y de los leptones, interactuando gracias a las fuerzas electrodébil y nuclear fuerte, sabemos que la masa de las partículas es fijada por el mecanismo de Higgs y su famoso bosón.

Para que esto funcione, hace falta que este boson tuviera una masa inferior a 1 TeV (1.000 GeV). Hasta aquí todo va bien.

Pero he aquí que si se sumerge el modelo electrodébil en una teoría grande unificada (GUT) para incorporar la fuerza nuclear fuerte y aún mejor la gravitación, caemos en una pequeña preocupación. Los efectos de las correcciones cuánticas "renormalizan" la masa de Higgs y exigen que su masa sea del orden de las cuales estas fuerzas se unifican, alrededor de 1015 GeV aproximadamente para la Gran Unificación (GUT) y la masa de Planck, Mp = 1019 GeV, si se incorpora la gravitación. Este valor muy elevado es incompatible con lo que se sabe por otro lado sobre las masas de las partículas, recordemos que la masa de un protón es de apenas 1 GeV y la de un electrón casi 2.000 veces más débil.

Podemos intentar hacer un sutil arreglo artificial de las ecuaciones de la teoría para escapar del problema, por que cada vez que tratamos de echarlo por la puerta vuelve por la ventana en algún otro lugar en las ecuaciones bajo la misma forma y sobre todo, no tenemos ninguna explicación del arreglo que permanezca ad hoc. ¡Es el célebre problema de la jerarquía!


Simulación de la evaporación de un mini agujero negro en el detector Atlas del LHC.
CERN

¿Por qué esa desviación entre la escala de rotura de simetría del modelo estándar, cuando las fuerzas débiles y electromagnéticas se separan (~1.000 GeV) y la de las teorías de tipo GUT (~1015 GeV), la escala a la cual la fuerza nuclear del QCD (cromodinámica cuántica) se individualiza?

¿Y sobre todo cómo impedir que uno contamine al otro, en particular cuando se produce la Unificación a la gravitación?

En resumen, hasta 1998, sólo había una respuesta: la supersimetría (la segunda, el technicolor*, parece excluida por los datos del LEP, a principio de los años 1990). Es por otra parte una de las mayores razones de su introducción, pero no de su descubrimiento.

Para saber más

El universo mixmaster es una solución de las ecuaciones de la relatividad general de Einstein estudiada por Charles Misner en 1969. Describe la evolución temporal de un universo vacío de materia, homogéneo pero anisótropo, de la que el índice de expansión difiere en las tres direcciones del espacio. Este modelo corresponde al tipo IX de la clasificación de Bianchi. Se interesa particularmente por la evolución del universo en la vecindad de una singularidad gravitacional como el Big Bang.


El radio de Schwarzschild es la medida del tamaño de un agujero negro de Schwarzschild, es decir, un agujero negro de simetría esférica y estático. Se corresponde con el radio aparente del horizonte de sucesos, expresado en coordenadas de Schwarzschild.

Puesto que el tamaño de un agujero negro depende de la energía absorbida por el mismo, cuanto mayor es la masa del agujero negro, tanto mayor es el radio de Schwarzschild, que viene dada por:


Donde G es la constante gravitatoria, M es la masa del objeto y c es la velocidad de la luz.

Esta expresión fue encontrada en 1916 por Karl Schwarzschild y constituye parte de una solución exacta para el campo gravitacional formado por una estrella con simetría esférica no rotante. La solución de Schwarzschild fue la primera solución exacta encontrada para las ecuaciones de la relatividad general. El radio de Schwarzschild es proporcional a la masa del objeto. El radio de Schwarzschild para la masa del Sol es de 3 km mientras que el radio de Schwarzschild para un objeto de la masa terrestre sería de tan solo 9 mm. El radio de Schwarzschild para el agujero negro supermasivo del centro galáctico es de aproximadamente unos 7.8 millones de kilómetros.


En relatividad general, la constante cosmológica aparece en las ecuaciones de campo de Einstein como un término proporcional al tensor métrico, (el tensor métrico se utiliza para definir conceptos métricos como distancia, ángulo y volumen en un espacio localmente euclídeo).

La constante cosmológica fue introducida inicialmente por Einstein para lograr un Universo estático, que armonizaba con la filosofía de la concepción del universo reinante en su tiempo, siendo descartada luego por el descubrimiento de la expansión del Universo. La constante cosmológica es un término que equilibra la fuerza de atracción de la gravedad. Toma la forma de una fuerza gravitatoria repulsiva y fue añadida como una constante de integración a las ecuaciones de Einstein.

Al contrario que el resto de la relatividad general, esta nueva constante no se justificaba para nada en el modelo actual de la gravedad, y fue introducida exclusivamente con el fin de obtener el resultado que en la época se pensaba era el apropiado. Cuando se presentó la evidencia de la expansión de universo, Einstein llegó a declarar que la introducción de dicha constante fue el "peor error de su carrera".

Recientemente ha cobrado importancia debido a mediciones que indican una expansión acelerada del Universo, lo cual podría explicarse mediante un valor negativo de o equivalentemente como se hace modernamente la introducción de una energía del vacío negativa, asociada a la llamada energía oscura.


El LEP (Large Electron-Positron collider), Gran Colisionador de Electrones-Positrones, era un acelerador-colisionador e-e+ circular de unos 27 km de longitud, situado a 100 m bajo tierra en la frontera entre Francia y Suiza. Actualmente ha sido reemplazado por el LHC.


En el caso de la teoría Technicolor, la simetría está conectada al postulado de una "fuerza technicolor", versión más elaborada de la fuerza nuclear fuerte. Esta fuerza, poderosa en las altas energías y débil en aquellas alcanzadas en los aceleradores existentes, no se ha logrado detectar. La teoría Technicolor sugiere que el bosón de Higgs no es una partícula elemental sino una mezcla compleja formada por nuevas partículas llamadas "techniquarks".

La teoría Technicolor predice una gama de nuevos complementos de partículas masivas en forma de complejos de techniquarks. Estas partículas todavía no han sido observadas. Experimentos en el Fermilab aclararán si la fuerza technicolor es real o no.

Crédito de las imágenes (para toda la serie): Futura-Sciences. AIP. CERN. Agradecimientos (para toda la serie): Wikipedia. IIEH.

Artículos Relacionados:

Mini agujeros negros en el LHC: aprendamos a conocerlos (II): En el camino hacia nuevas dimensiones.

Mini agujeros negros en el LHC: aprendamos a conocerlos (III): Entrevista a Aurélien Barrau (1 parte).

Fuente: Astroseti
Traductor al español: Xavier Civit


Página Axxón