Quien haya observado el cielo de verano en un pueblo
pequeño, alejado de las luces de la ciudad, seguramente se habrá maravillado
ante la majestuosidad de la Vía Láctea, con sus millones de astros brillantes. Es
posible que hayamos pasado momentos intentando identificar estrellas en
constelaciones, o quizás nos hayamos recostado en el suelo aguardando la
aparición de una estrella fugaz para formular un deseo, aunque sepamos que se
trata simplemente de una diminuta partícula de polvo que se desintegra en
nuestra atmósfera.
Fig. 1 Vista de la Vía Láctea desde el Observatorio Astrofísico de Javalambre (OAJ). Credits: CEFCA / Óscar Blanco Varela.
Podríamos pensar que el Universo es un lugar lleno
de objetos brillantes. Pero un segundo pensamiento nos descubre nuestro
error: aunque Venus sea conocido como
“el lucero del alba” o confundamos Marte con una estrella rojiza, ni los
planetas ni la Luna emiten luz, solo la reflejan. Tampoco nosotros somos seres
“luminosos”. En todo caso, tanto las estrellas como planetas, satélites, seres
vivos y objetos cotidianos, tenemos algo en común: estamos formados por materia
“ordinaria”, que interacciona con la luz. Y, ¡sorpresa!, según nuestro
conocimiento actual, si consideramos toda la materia y energía del Universo, la
materia luminosa representaría alrededor del 0,5%, pero incluso sumando la materia
"ordinaria", no alcanzaríamos el 5%.
El siglo XX fue, sin lugar a dudas, la época dorada
de la Física de Partículas. Este periodo se inauguró con el descubrimiento de
la radioactividad por parte de Henry Becquerel y Pierre y Marie Curie, y
alcanzó su punto culminante con el hallazgo de la última pieza del modelo
estándar de Física de Partículas: el bosón de Higgs, localizado en el Gran
Colisionador de Hadrones (LHC) del CERN en 2012. Fue una era caracterizada por
el continuo descubrimiento de nuevas partículas, la búsqueda de una
organización y explicación de las fuerzas (conocido como el Modelo Estándar),
la proposición de nuevas teorías cuánticas para explicar los fenómenos
subatómicos, y el desarrollo de aplicaciones tecnológicas en campos como la medicina,
las comunicaciones y la industria. Sin embargo, hacia la década de 1970 del
siglo XX, comenzaron a acumularse indicios de que quizás aún quedaba mucho por
descubrir, sugiriendo que solo habíamos desvelado una pequeña parte del
Universo.
En 1933, el astrónomo suizo Fritz Zwicky publicó un
artículo [1] sobre las altas velocidades de los objetos en los cúmulos de
galaxias y la estabilidad del cúmulo de Coma. La observación de que las
galaxias del cúmulo permanecieran unidas resultaba inexplicable solo con la
materia visible; se necesitaba una mayor fuerza gravitatoria, generada por lo
que él llamó "materia oscura". Resultados similares fueron publicados
por Erik Holmberg en sistemas de galaxias, y por Sinclair Smith en el cúmulo de
Virgo. Estas discrepancias, a falta de un estudio sistemático, se intentaron
atribuir a fallos en el cálculo de la masa, cambios en la ley de gravedad,
neutrinos masivos, radiación, …, o, ¿por qué no?, a materia no visible u
oscura.
Fig. 2 Fritz Zwicky. Fuente Wikipedia.
Sin embargo, las observaciones de la joven astrónoma
Vera Rubin, la primera mujer en utilizar los instrumentos en el Observatorio
Palomar, también señalaban la falta de masa, esta vez en galaxias espirales.
Junto con su colega Ken Ford, quien había creado un avanzado espectrómetro,
midieron cómo los objetos alejados en la galaxia del Triángulo M33 giraban tan
rápido como los más cercanos al núcleo galáctico, contradiciendo las leyes de
Kepler. Estas observaciones sugerían la presencia de mucha más masa más allá
del disco visible. Rubin, junto con Ford y estudiantes de máster, midieron las
curvas de rotación de casi 70 galaxias, obteniendo resultados consistentes.
Este estudio sistemático demostró que M33 no era un caso único. Vera Rubin
conmemora en un artículo [2] cien años de rotación de galaxias.
Fig. 3 Vera Rubín. Fuente Wikipedia.
Así, a comienzos de los años 70, existía ya la idea
de que la existencia de materia no visible podría explicar las altas
velocidades de los objetos en los cúmulos de galaxias, y las curvas de rotación
planas de las galaxias espirales.
Fig. 4 Curva de rotación de la galaxia M33. Se representa la velocidad frente a la distancia al centro. Fuente Wikipedia.
Con el avance rápido de la informática, los físicos
y astrofísicos comenzaron a aprovechar los primeros computadores disponibles.
Estos dispositivos ofrecían la posibilidad de realizar simulaciones detalladas
de sistemas de muchos cuerpos, como las galaxias. Aunque se tenían un
entendimiento de las leyes físicas implicadas, la precisión de los datos
iniciales era crucial para el éxito de estas simulaciones. Las investigaciones
llevadas a cabo por James Peebles (Premio Nobel en 2019) y Jeremiah Ostriker utilizando
estas simulaciones revelaron que la estabilidad de sistemas galácticos,
incluyendo nuestra propia galaxia y otras similares, solo podía ser explicada
si se consideraba la existencia de un extenso halo de masa no visible más allá
del núcleo luminoso. La ausencia de este componente resultaría en una rápida
dispersión de las estrellas dentro de la galaxia.
Fig. 5 James Peebles y Jeremiah Ostriker. Fuente https://www.learner.org/ .
Nuevas pistas llegaron en las últimas décadas del
siglo XX. La distribución de temperaturas del gas en cúmulos de galaxias era
inexplicable sin la contribución gravitatoria adicional de la materia oscura.
La observación de lentes gravitacionales, y los datos de las anisotropías del
fondo cómico de microondas, permitieron realizar estimaciones de la cantidad de
materia oscura en cúmulos de galaxias o en todo el Universo.
Toda la materia distorsiona la luz. Es el efecto de
lente gravitacional, predicho por teoría de la relatividad general de Einstein:
la luz, que siempre sigue el camino más corto, las geodésicas en el
espacio-tiempo, se curva en torno a los objetos masivos (sean o no luminosos).
Así, observando un objeto alejado, si existe una acumulación de masa en la
línea de visión se observarán varias imágenes, arcos, anillos (anillo de
Einstein) y otras distorsiones. Este efecto se utiliza también para el
descubrimiento de exoplanetas (premio Nóbel en 2019 a Michel Mayor y Didier
Queloz). Mediante el análisis de datos
de lentes gravitacionales, los científicos pueden estimar la cantidad de
materia oscura presente en cúmulos de galaxias.
Fig. 6 Explicación del efecto de lente gravitacional. Se observan desde la Tierra numerosas imágenes y arcos de una única galaxia lejana. Fuente Wikipedia.
A finales del siglo XX e inicios del XXI también
fuimos capaces de observar “pozos” gravitatorios donde se empezaron a crear las
estructuras del Universo. Estos serían las zonas “calientes” del fondo cósmico
de microondas (CMB), una imagen fija del Universo en el momento en que se
formaron los primeros átomos y la luz pudo viajar libremente, aproximadamente
300,000 años después del Big Bang. Desde entonces, esta radiación se ha
enfriado hasta alcanzar una temperatura de 2.7 Kelvin. El descubrimiento del
CMB se remonta a 1964, cuando Arno Penzias y Robert Woodrow Wilson lo
detectaron accidentalmente mientras intentaban eliminar un molesto ruido de una
antena de comunicación. En 1992, la misión COBE [3] de la NASA realizó una
medición precisa del espectro del CMB, revelando una temperatura de 2,726
Kelvin, y proporcionando las primeras mediciones de anisotropías o variaciones
en esta temperatura. Este logro valió el Premio Nobel en 2006 a John C. Mather
y George F. Smoot, quienes lideraron la misión. Misiones posteriores, como WMAP
[4] de la NASA y Planck [5] de la ESA, han mejorado aún más la resolución del
mapa de anisotropías, permitiéndonos comprender mejor la evolución del
Universo. Un análisis inicial de estos datos reveló que el Universo es plano
(la suma de los ángulos de un triángulo en cualquier punto es 180 grados), con
menos del 5% de su contenido formado por materia “ordinaria”. El resto son dos
componentes invisibles y enigmáticas: la materia oscura y la energía oscura,
quienes, además, rigen el comportamiento del universo.
Fig. 7 Cronología de la evolución del Universo (izquierda) e imagen del fondo cósmico de microondas (CMB) según datos de la sonda Planck [6] de la ESA (2013). Créditos NASA y ESA.
¿Energía oscura? Sí, el Universo es “muy” oscuro. En
1998, el proyecto SuperNova [7] revolucionó la cosmología al revelar que el
Universo estaba experimentando una aceleración en su expansión. Esta
sorprendente observación, por la cual Saul Perlmutter [8], del proyecto
Supernova, y Adam Riess y Brian P. Schmidt, del proyecto High-Z SN [9], fueron
galardonados con el Premio Nobel en 2011, desafiaba las expectativas
establecidas por las leyes de la Ley de Hubble-Lemaître, que preveían una expansión
desacelerada. Resultó que el parámetro asociado con la desaceleración era, de
hecho, negativo. Esta observación no solo confirmó la existencia de la materia
oscura, sino que también señaló la presencia de algo aún más desconcertante: la
energía oscura, responsable de la expansión acelerada de nuestro Universo.
Fig. 8 Desde la izquierda: Adam Riess, Saul Perlmutter y Brian Schmidt shared the Nobel Prize in physics awarded Tuesday. From www.nytimes.com. Credits Johns Hopkins University; University Of California At Berkeley; Australian National University.
La comprensión de la naturaleza de la energía oscura
sigue siendo un desafío considerable en el campo de la cosmología. Una de las
explicaciones propuestas es la presencia de una densidad de energía constante
que impregna el espacio de manera homogénea, una idea introducida por Albert
Einstein en sus ecuaciones de la relatividad general con el propósito de
contrarrestar la fuerza gravitacional y alcanzar un universo estático. Sin
embargo, Einstein posteriormente lamentó esta idea, calificándola como "el
mayor error de su vida", al percatarse de que la constante cosmológica Λ conducía realmente a
una expansión del universo. Con el tiempo, esta constante ha vuelto a ser
considerada en las ecuaciones cosmológicas. Otras teorías proponen la
existencia de una inflación inicial muy intensa, o la presencia de campos
escalares conocidos como "quinta esencia", que podrían variar en el
transcurso del tiempo y el espacio.
Además de teorías, para entender mejor la energía
oscura, es fundamental disponer de mediciones extremadamente precisas sobre la
expansión del universo, de manera que podamos comprender cómo esta expansión
varía a lo largo del tiempo y el espacio. Este tipo de información se obtiene
mediante la observación de la relación entre la temperatura, la presión y la
densidad combinada de la materia, la energía y la energía del vacío en diversas
regiones del espacio. Este enfoque representa uno de los mayores esfuerzos en
la cosmología observacional en la actualidad.
El proyecto J-PAS [10] (Javalambre Physics of the
Accelerating Universe Astrophysical Survey), liderado por el Centro de Estudios
de Física del Cosmos de Aragón (CEFCA) [11], en colaboración con el Instituto
de Astrofísica de Andalucía (IAA-CSIC) [12], el Observatorio Nacional de Rio de
Janeiro [13] y la Universidad de Sao Paulo, tiene como objetivo principal
entender la naturaleza de la energía oscura mediante el estudio de la
estructura a gran escala del universo, realizando un cartografiado
tridimensional del cosmos.
Fig. 9 Telescopio del J-PAS. Fuentes CEFCA.
Entonces, ¿qué datos tenemos sobre el Universo en
las primeras décadas del siglo XXI? El modelo ampliamente aceptado por la
comunidad científica es el modelo Λ-CDM, que describe un Universo plano en
expansión acelerada debido a una constante cosmológica. Este modelo sugiere que
aproximadamente el 68% del Universo está compuesto por energía oscura, mientras
que alrededor del 27% está formado por materia oscura "fría". La
materia luminosa, que incluye las estrellas visibles en el cielo, representa
menos del 0,5%, mientras que los planetas contribuyen con un escaso 0,03%.
Fig. 10 Composición de la materia y energía del universo. Imagen adaptada de la figura de la NASA.
¿Por qué materia oscura “fría”? Estudiemos las
asombrosas estructuras del Universo: galaxias, cúmulos, supercúmulos. Son
numerosas las observaciones, como los proyectos 2dF [14], 6dFGS [15], 2MASS
[16], SDSS [17] o DESY [18], que han ido aportando datos para la creación de
catálogos e información de las grandes estructuras del Universo. También
simulaciones cosmológicas a gran escala de la evolución del universo como las
del proyecto Illustris [19], abarcando desde las condiciones iniciales del Big
Bang hasta el día de hoy. La “materia oscura” de Zwicky es crucial para
comprender las complejas estructuras y la evolución del Universo. Estas
partículas habrían formado “pozos” gravitatorios donde la materia ordinaria se
habría congregado para formar las primeras estrellas y galaxias, dando lugar
posteriormente a las grandes estructuras cósmicas. Un análisis de estas estructuras, y de su
evolución, indica, además, que esta materia oscura debe ser materia oscura
“fría”. En este contexto,
"fría" significa que las partículas no se movían a velocidades
relativistas cuando dejaron de interactuar. Por otro lado, sí que se conocen
partículas de materia oscura "caliente": los neutrinos, partículas
fantasmales del modelo estándar. Predichos en 1933 por Wolfgang Pauli y
descubiertos en 1956 por Clyde Cowan y Frederick Reines (quienes recibieron el
Premio Nobel en 1995), los neutrinos se caracterizan por su rápida velocidad,
lo que les hace tender a dispersarse uniformemente en el Universo antes de que
la expansión cósmica los enfríe lo suficiente para concentrarse y formar
cúmulos. Sin embargo, se estima que los neutrinos contribuyen solo alrededor
del 0,3% a la composición total del Universo. Por tanto, los científicos buscan
candidatos más pesados, como las partículas masivas de interacción débil
(WIMP), o aquellas que se habrían enfriado antes, como el axión, entre una
amplia gama de propuestas teóricas. Diversas teorías de la física de
partículas, como la supersimetría, las teorías de cuerdas y membranas, teorías
con dimensiones extra, o extensiones del Modelo Estándar, proponen candidatos
potenciales para la materia oscura.
Desde los años 80 el estudio teórico y la búsqueda
experimental de Materia Oscura ha sido una de las líneas de investigación más
activas en física de partículas, junto con la física de altas energías en
aceleradores. Es parte de un nuevo
campo, la física de astropartículas, que se dedica al estudio de partículas
extraterrestres: rayos cósmicos, neutrinos, y materia oscura.
Fig. 11 Vista panorámica del infrarrojo cercano muestra distribución de galaxias más allá de la Vía Láctea, derivada del Catálogo 2MASS (XSC) con 1,5 millones de galaxias y el Catálogo (PSC) con 0,5 mil millones de estrellas. Fuente Wikipedia y NASA. Más información en: https://wise2.ipac.caltech.edu/staff/jarrett/papers/LSS/ .
La mayoría de telescopios, como Auger [20], Magic
[21] o el futuro CTA [22], satélites, como Fermi [23] o AMS [24], o telescopios
de neutrinos como ANTARES [25] o ICECUBE [26], dedicados al estudio de rayos
cósmicos incluyen en su programa científico la búsqueda indirecta de materia
oscura. Se examinan los datos recopilados en busca de indicios que puedan
indicar la aniquilación de partícula-antipartícula de materia oscura, así como
la presencia de productos resultantes de posibles desintegraciones, como
fotones gamma o neutrinos.
Fig. 12 Detección indirecta de materia oscura midiendo los neutrinos procedentes de aniquilaciones. Fuente: ANTARES.
La materia oscura también se podría encontrar como
"energía perdida" en los datos generados por colisiones en grandes
aceleradores, como el LHC. En estas colisiones a altas energías se podría haber
producido partículas de materia oscura que escaparían a todo el sistema de
detectores. En un buen número de colisiones aparecen neutrinos, que no dejan
ninguna señal, y son, por lo tanto, “energía perdida”. Sin embargo, gracias a
la comprensión actual de la física del Modelo Estándar, es posible etiquetarlos
identificando las partículas que se han producido junto con ellos. Se busca,
por lo tanto, “energía perdida” que no tenga una explicación dentro del Modelo
Estándar. Tanto los experimentos ATLAS
[27] como CMS [28] entre sus objetivos, más allá de la física del Higgs, la
búsqueda de esta energía perdida, en la esperanza de detectar indicios de
materia oscura.
Fig. 13 Colisión protón-protón (ATLAS -3 junio 2015), con una energía de 13 TeV. La materia oscura se busca entre los productos de estas colisiones como “energía perdida”.
Por último, es importante mencionar la búsqueda
directa de materia oscura. Desde los años 80 del siglo XX, numerosos
experimentos han intentado detectar una señal de estas partículas que se cree
forman parte del halo que rodea nuestra galaxia, girando en torno a su centro.
Estas partículas interactúan de manera extremadamente débil, principalmente a
través de la fuerza gravitatoria, lo que las hace escapar a nuestros métodos de
detección basados en interacciones electromagnéticas. Como si fueran fantasmas
invisibles, pueden atravesar el planeta sin dejar rastro alguno.
Fig. 14 Interacción dentro de un detector. Se produce luz e ionización debido a un choque elástico con uno de los núcleos del material de detección. Fuente SLAC, experimento LUX-ZEPLIN (LZ).
Para intentar capturar una de estas partículas, tan
abundantes pero esquivas, se diseñan y construyen experimentos específicos. La
esperanza radica en que una de estas partículas colisione de manera elástica
con uno de los átomos del detector, dejando así una señal detectable. Es
crucial que el detector no sea perturbado por otras partículas ya conocidas,
aunque menos abundantes, pero que interactúan más fácilmente. Para abordar este
desafío, se llevan a cabo experimentos en laboratorios subterráneos, como el
Laboratorio Subterráneo de Canfranc [29]. Además, se utilizan blindajes
adecuados para asegurar que solo la materia oscura pueda penetrar hasta el
detector alojado en su interior. Este enfoque meticuloso y cuidadoso es
fundamental para aumentar las posibilidades de éxito en la detección de la
esquiva materia oscura.
Fig. 15 Vista del Hall A del LSC que alberga experimentos de sucesos raros: física de neutrinos y búsqueda de materia oscura.
En los últimos años, ha emergido con fuerza otro
candidato, cuya explicación teórica podría encontrarse dentro de una extensión
del Modelo Estándar: el axión. Esta partícula, además de potencialmente abordar
algunas anomalías de la física de partículas, podría formar parte de la materia
oscura. Aunque los axiones pueden haberse generado en los primeros momentos del
Universo, también se cree que podrían producirse en la actualidad en regiones
con intensos campos electromagnéticos, como las estrellas. Estos axiones
podrían viajar sin interactuar hasta la Tierra, donde, al atravesar un potente
imán se transformarían en rayos X. Imán de CAST. En los extremos se colocan
detectores de rayos X. El axión, tras viajar desde el Sol, se convertiría en
estos fotones dentro del imán.
Así, el experimento CAST [30] apuntó su imán hacia
el Sol con el objetivo de probar la existencia del axión. Aunque no se detectó
una señal positiva, el experimento pudo establecer límites tanto en la masa
como en la intensidad de la interacción del axión. El futuro proyecto IAXO [31],
más potente que CAST, buscará detectar de manera más precisa la señal que
podría indicar la existencia del axión, llevando así nuestra comprensión de la
materia oscura y la física de partículas a nuevas fronteras de conocimiento.
Fig. 16 Imán de CAST. En los extremos se colocan detectores de rayos X. El axión, tras viajar desde el Sol, se convertiría en estos fotones dentro del imán.
A la pregunta ¿de qué está hecho el Universo? se
intenta dar una respuesta en el Centro de Astropartículas y Física de Altas
Energías de Aragón (CAPA) [32]. Sus investigadores trabajan en modelos
cosmológicos, en la fenomenología de física de partículas, en astrofísica y
lideran experimentos de búsqueda de materia oscura en el LSC, con experimentos
como ANAIS [33] o TREXDM [34], y de axiones, en el experimento IAXO.
De alguna manera, he buscado llenar un vacío en las
lecturas de Feynman. Esas lecturas parecían abarcar "toda la física".
Para aquellos de nosotros inmersos en el estudio de la física de partículas,
Feynman era omnipresente en cada tema, y sus diagramas permitían comprender
todo tipo de interacciones. Se puede imaginar que, de vivir en el siglo XXI,
Feynman habría dedicado un volumen a la cosmología, la materia y la energía
oscura. Sin embargo, incluso en ausencia de tal obra específica, sus célebres
diagramas siguen siendo una herramienta fundamental en los cálculos que
involucran nuevas partículas y fuerzas. Su legado perdura como una guía
invaluable para los físicos contemporáneos que continúan explorando los
misterios del universo a través de teorías de campos y mecánica cuántica.
No hay comentarios:
Publicar un comentario