Mirando al cielo con frialdad

por para Ciencia Hoy el . Publicado en Número 39.

La instalación y operación en el polo sur de un detector de neutrinos, con el objeto de buscar materia oscura en el universo.

En los últimos diez años se han buscado nuevas formas de interpretar la física de los fenómenos elementales. En materia de física de partículas, ello no debería sorprender. Sin embargo, para aplicar las nuevas ideas se requeriría, muy probablemente, unir la física de las distancias muy pequeñas con la de las más grandes, es decir, abarcar extensiones que van del orden de los 10-31cm hasta aquellas comparables con el tamaño del universo, es decir, 1028cm.

En la física actual se destaca una teoría usualmente llamada el modelo estándar de las partículas elementales, que explica los fenómenos observados en la naturaleza en la escala microscópica, todos excepto la gravedad (véase ‘El modelo estándar’, Ciencia Hoy, 26:38-39). En una sola fórmula contiene las leyes de Maxwell sobre el electromagnetismo, las fuerzas que forman los protones, las que producen la desintegración de las partículas, etc. Los elementos básicos constituyentes del mundo físico, según el modelo estándar, son de dos tipos:

(i) los que forman la estructura de la materia y
(ii) los que actúan como portadores de fuerzas.

Entre los primeros se cuentan los quarks (véase el ‘Pequeño glosario'), algunos de los cuales forman los protones y neutrones, los componentes principales del núcleo atómico. También los leptones, como el electrón y su neutrino asociado, son parte de los elementos constitutivos de la materia. Quarks y leptones aparecen en la naturaleza agrupados en tres familias idénticas, que sólo difieren por la masa de algunos de aquellos de sus integrantes que se repiten; el electrón, lo hace en el muón y el tau (t), cada uno con un neutrino haciéndole de pareja. Lo mismo sucede con los quarks: el u se repite en el c y el t, y el d, en el s y el b. El porqué de esta repetición es uno de los misterios que aún no han sido resueltos. Una característica común a todas las familias, sin embargo, es que están formadas por partículas de espín semientero (1/2). El espín es una propiedad intrínseca –como la masa o la carga eléctrica– cuyo origen está en la física cuántica; carece de correlato o analogía en la mecánica clásica. Sin embargo, no existe físico que no lo piense en términos de rotación interna de la partícula, como si se tratase de un trompo que sólo puede girar en determinadas frecuencias.

Los elementos portadores de fuerzas son partículas de espín entero: el fotón, que propaga la fuerza electromagnética; el gluón, que transmite la fuerza fuerte o de color; los mesones W y Z, que propagan las interacciones débiles, y el gravitón, que propaga la gravedad. Finalmente, el modelo estándar incluye un mesón de espín cero, el mesón de Higgs, que sirve para que quarks, leptones y mesones W y Z puedan tener las masas que hemos descubierto experimentalmente que tienen. Sin él, ajustándose a los actuales conceptos sobre cómo debe ser una teoría física, sería imposible que se les adjudique masa en el modelo estándar. Resulta paradójico que la única fuerza no incluida en el modelo estándar sea la gravitación, porque, en los términos en que la concibieron Kepler y Newton, constituye el primer caso de teoría científica que pudo ser sometida al escrutinio experimental.

Mirado con un criterio estético o económico –y hasta filosófico–, el modelo estándar no resulta satisfactorio. La fórmula que resume el comportamiento de los fenómenos físicos requiere que se establezcan, por vías que le son ajenas, unos treinta valores o parámetros, que no puede calcular por ella misma. Si bien tal complicación no parece un precio muy alto por lo que luego se obtiene –nada menos que la posibilidad de reproducir toda la física conocida–, es razón suficiente para creer que no estamos en presencia de la última teoría posible, en la que esos treinta parámetros fuesen calculables por el modelo y no postulados.

Existe un enfoque teórico que resuelve el problema de unificar la gravedad con el resto de las fuerzas. Exige que la teoría posea una simetría tal que la distinción entre fuerzas y materia se pierde completamente; es decir, la teoría se construye de forma equivalente para las unas y la otra. Tiene la propiedad denominada supersimetría, por la que todas las partículas de espín semientero deben estar asociadas a otras de espín entero y viceversa. Dado que los electrones y quarks, que forman la materia, tienen espín fraccionario, y los portadores de las fuerzas espín entero, el mencionado requisito borra la distinción entre fuerzas y materia. Es pertinente mencionar que, hasta ahora, no existe evidencia experimental de las nuevas partículas postuladas por este enfoque.

Si al argumento de la supersimetría se agrega otro, más antiguo, por el cual las partículas elementales son cuerdas de 10-31cm de longitud –abandonando la idea de elementalidad asociada con no tener dimensiones espaciales–, se llega a una nueva teoría, llamada de las supercuerdas (véanse ‘Virasoro’ y ‘¿Han muerto las supercuerdas?, respectivamente, en Ciencia Hoy, 36:17-21, y 1:64-65). Recientemente ha incluido objetos de más de una dimensión (como las membranas) dando lugar a importantes desarrollos que, si bien no comentaremos, indican la importancia que está cobrando. En resumen, la teoría que tenemos y que ha sido verificada experimentalmente con gran precisión resulta incompleta. Hay otra, una generalización muy atractiva que incluye la gravitación, posible por la incorporación de argumentos de supersimetría, que, entre otras cosas, postula la existencia de nuevas partículas, de las que no hay por el momento evidencia experimental. En caso de existir, estas partículas no deberían interactuar apreciablemente con la luz, una propiedad a la que volveremos más adelante.

Si dejamos ahora los tamaños infinitesimales y miramos al universo, podemos afirmar que los tres pilares del modelo estándar cosmológico, popularmente conocido como el Big Bang, fueron verificados experimentalmente en los últimos veinte años. La velocidad de expansión del universo, medida por la constante de Hubble, ha sido determinada con una precisión del 20%; se han medido las abundancias de los elementos livianos, producidos durante los primeros minutos de vida del universo, un proceso denominado nucleosíntesis primordial, y se han obtenido resultados que concuerdan en un rango de diez órdenes de magnitud con los predichos por el modelo (una precisión mayor que estimar la longitud de un meridiano terrestre con error de un milímetro) y, finalmente, las fluctuaciones del ruido cósmico de fondo, que también se han medido, resultaron de una magnitud concordante con las predicciones del modelo, que postula el origen gravitatorio de las galaxias.

PEQUEÑO GLOSARIO

Axión : partícula hipotética (aún no observada), que resuelve problemas de consistencia en la teoría de las fuerzas de color.
Constante cosmológica : presión en el vacío de materia gravitatoria, que integra las ecuaciones de la teoría de la relatividad general de Einstein, quien la usó para describir un universo estacionario, carente de la expansión con que se lo concibe hoy.
Espín : castellanización del inglés spin, propiedad de las partículas postulada por la mecánica cuántica, sin correlato imaginable en el mundo de la experiencia cotidiana.
Leptones : constituyentes de la materia, junto con los quarks. El electrón y el neutrino son leptones. No participan de las interacciones fuertes.
Mesón de Higgs : partícula aún no descubierta que, en el modelo estándar, tiene por función dar masa a las otras partículas.
Nucleosíntesis primordial : período durante el cual el fluido primordial formó elementos como el hidrógeno, helio, deuterio y otros. Ello ocurrió cuando la temperatura era 106eV.
Inflación : crecimiento rápido del radio del universo debido a una inestabilidad. Este fenómeno explica, entre otras cosas, la homogeneidad del universo y que W=1.
Omega (W) : densidad del universo dividida por la densidad crítica.
Quark : constituyente de los protones (tres en cada uno), participa de todas las interacciones posibles.
Ruido cósmico de fondo : fotones emitidos cuando la radiación se desacopló de la materia a la temperatura de 0,2eV.
Supersimetría : propiedad por la que partículas de espín semientero deben estar asociadas a otras de espín entero y viceversa

A pesar de estos éxitos, la situación del modelo estándar cosmológico es mucho menos satisfactoria que la del de partículas elementales. Muchas preguntas fundamentales, que están en la raíz misma del modelo, quedan todavía sin respuesta. Nada sabemos acerca del origen del universo, cuando el espacio-tiempo era fluctuante o, de hecho, no existía; no sabemos si hubo un período de expansión violenta o inflación del universo y, de haberlo habido, qué lo desencadenó, e ignoramos si la densidad del universo es crítica, como a primera vista se deduce de la inflación, o si volverá a contraerse. A tales interrogantes, que deben imponerse al modelo como condiciones de contorno, se agregan otros que les están relacionados, como: ¿es posible que exista una constante cosmológica y que haya un nuevo tipo de materia en el universo?

Lo último merece un párrafo aparte. ¿Cuáles son las razones para creer que en el universo pueda haber materia desconocida? Tanto ciertas evidencias experimentales como algunas especulaciones teóricas así lo indican. Las primeras, por el momento, son de tipo indirecto, lo que explica el enorme esfuerzo que se hace en estos momentos por obtener datos experimentales más precisos sobre estas posibles nuevas formas de materia (véase recuadro ‘Búsqueda de materia oscura en la Argentina’) . Consideremos cuáles son dichas evidencias y analicemos por qué detectar esa forma de materia es una empresa muy difícil.

La primera evidencia es proporcionada por las curvas de rotación de las galaxias espirales. Si consideramos los movimientos de estrellas en dichas galaxias, las leyes de Kepler predicen que su velocidad de rotación alrededor del centro de la galaxia debe disminuir con su distancia de este, salvo que la masa de la galaxia crezca de forma proporcional a dicha distancia. En una galaxia, la masa de la materia visible decrece rápidamente más allá de cierta distancia del centro (se dice que está confinada) pero, en cambio, la velocidad de estrellas situadas más allá del radio visible no disminuye. Para explicar este hecho, es necesario que la masa de la galaxia aumente con la distancia a su centro. Por ello, se ha llegado a cierto acuerdo en el sentido de postular que todas las galaxias están sumergidas en un halo de materia oscura, que interactúa muy débilmente con los protones y otras formas de materia habitual, incluida la luz. Tal halo tendría un radio diez veces más grande que el de la materia visible de las galaxias.

La segunda evidencia indirecta sobre la existencia de materia no visible es proporcionada por las lentes gravitatorias. Una galaxia lejana alineada con otra más cercana a la Tierra y con nuestro ojo produce imágenes que resultan afectadas por la acumulación de masas de la segunda. Se trata, esencialmente, del mismo fenómeno que constatamos cuando ponemos una lente común en el camino de un haz de luz. Las características de las imágenes galácticas en cuestión, como su forma y posición, dependen de varios factores, entre ellos, las distancias a la Tierra de ambas galaxias y la masa de la más cercana, o galaxia lente (que hace las veces de lente óptica). La masa de una galaxia se puede estimar por su luminosidad, pero, en todos los casos en que se produce el efecto que estamos comentando, resulta que la masa necesaria para explicar las observaciones tiene que ser diez veces mayor de la que se deduce de la luminosidad de la galaxia cercana. Se concluye así, nuevamente, que hay más masa que ejerce efectos gravitatorios que la que emite luz.

La tercera evidencia, la más débil, proviene de simulaciones numéricas realizadas para explicar la formación de las estructuras cósmicas. El origen de estas se remonta a fluctuaciones del líquido primordial, compuesto por protones, electrones y fotones. Debido a la inestabilidad intrínseca de las fuerzas gravitatorias, que sólo ejercen atracción, pequeñas fluctuaciones de esta ocasionaron el colapso de la materia, lo cual –se piensa– dio lugar a las estructuras que observamos en el universo. Los resultados de dichas simulaciones suelen resumirse en una cantidad que los científicos llaman omega (W), que se define como el cociente entre la densidad de materia observada o predicha, que se simboliza por r, y una densidad patrón que se denomina densidad crítica, rcri. La última se calcula mediante dos constantes físicas, la velocidad de expansión del universo y la constante gravitatoria de Newton; su valor aproximado es 10-29g/cm3, lo que equivale a un protón cada tres metros cúbicos. Las simulaciones predicen que, trabajando en escalas muy grandes, la cantidad de materia debería ser tal que se obtuviera un valor de W cercano a uno, y no inferior a 0,3. Esto es importante, porque la nucleosíntesis primordial, que predice con gran precisión la abundancia de los elementos como función de W, requiere que tal valor sea del orden de 0,1. La única manera de compatibilizar ambos resultados es concluir que protones, neutrones y electrones no pueden ser toda la masa medida como materia oscura, sino sólo una parte relativamente pequeña de ella. Como no hay otra forma de masa conocida, la conclusión inevitable es que debe existir una nueva forma de materia, que no es visible pero ejerce fuerza gravitatoria.

Si la materia oscura fuese dominante en el universo, debería ser sencillo encontrarla. Sin embargo, no es así. La razón es simple. Vivimos en una galaxia: a nuestro alrededor se registra una densidad de materia r de 1028Wg/cm3, 1028 veces mayor que la del espacio intergaláctico. Como las secciones de choque de partículas son del orden de 10-27cm2, advertimos que en las cercanías de la Tierra la situación de una partícula es diferente que en el espacio intergaláctico, donde dos efectos se compensan: la probabilidad de que una partícula choque con otra es ínfima, porque hay poquísimas por unidad de volumen, pero este es tan grande que de todos modos puede ocurrir la colisión. En las cercanías de la Tierra hacen falta volúmenes muy grandes para que exista alguna probabilidad de encontrar materia oscura.

La búsqueda primaria de esta se orienta hacia algunos objetos conocidos o, por lo menos, propuestos. Los conocidos son: el neutrino y los llamados MACHOs (sigla de massive astrophysical compact halo objects). Del primero sabemos, ante todo, que existe; sin embargo, para que pudiese conformar la materia oscura sería necesario que tuviera masa, una propiedad que todavía no puede claramente adjudicársele. Un análisis complejo fija la masa del neutrino entre 20eV y 80eV (un electrón-voltio equivale aproximadamente a 1,8x10-33g): compáresela con la del electrón, que es de 511.000eV. Medir la masa del neutrino es muy difícil, pero se espera que se lo pueda lograr dentro de los próximos diez años, cuando se completen ciertos experimentos que están en marcha en el Centre Européen de Recherche Nucléaire (CERN), en Ginebra. Suponer que el neutrino es tan liviano lleva a que las simulaciones numéricas que lo postulan como único componente de la materia oscura no puedan dar como resultado estructuras del tamaño y masa típicos de una galaxia (aproximadamente 1011 masas solares). Es posible que los neutrinos formen parte de la materia oscura, pero difícilmente sean su único componente.

Por MACHOs entendemos los cuerpos celestes compuestos de materia ordinaria –como los planetas– que no han adquirido la masa suficiente para dar lugar a reacciones nucleares y que, por lo tanto, tienen baja temperatura y carecen de brillo propio. Júpiter es el ejemplo clásico de esta clase de cuerpos, pues es un planeta con una masa casi igual –pero inferior– a la necesaria para encenderse nuclearmente. Usando la técnica de lentes gravitatorias adaptada a cuerpos pequeños, se ha podido establecer la abundancia de estos cuerpos celestes en la vía láctea, aunque su cantidad resulta insuficiente para explicar las curvas de rotación de nuestra galaxia; en otras palabras, se ha determinado que existe un número de estrellas frustradas, pero no bastantes como para crear el campo gravitatorio necesario para inducir esa rotación.

BÚSQUEDA DE MATERIA OSCURA EN LA ARGENTINA

Por ANÍBAL GATTONE

A los 41º40’ de latitud sur y 65º23’ de longitud oeste, en la provincia del Río Negro, a 2km de la localidad de Sierra Grande y 380m debajo de la superficie, en uno de los túneles de la mina de hierro que explotaba la empresa HIPARSA, está instalado el primer laboratorio subterráneo de Sudamérica. Puesto en operación a mediados de 1994 por un grupo de científicos españoles, estadounidenses y argentinos, la razón fundamental de su existencia fue el propósito de buscar materia oscura.

Mediante un detector ubicado en dicho del laboratorio se comenzaron a recolectar datos del ambiente, con el propósito de identificar entre ellos a los que pudiesen tener origen en la materia oscura galáctica. ¿Cómo distinguir los fenómenos –en la jerga también llamados eventos– buscados de aquellos que, para los propósitos del laboratorio, fuesen espurios? En experimentos en los que el número de los fenómenos buscados es muy bajo con relación a otros que también se registran, esta pregunta es, justamente, una de las más difíciles de contestar. Hay que encontrar alguna característica de los eventos que se buscan que los distinga de los más abundantes que no interesan. Los segundos reconocen dos fuentes dominantes: (i) la radiación cósmica y (ii) la radiactividad natural. Si se pudiese suprimir por completo la influencia de ambas radiaciones, sólo habría que aguardar la llegada del evento esperado, pero la realidad es que no existe blindaje perfecto que logre tal exclusión, por lo que es tarea del experimentador separar unos eventos de los otros.

Un primer paso para hacerlo es producir el mejor blindaje posible. Por ello se instaló el detector bajo tierra: los casi 400m de roca que hay por encima del laboratorio de Sierra Grande reducen los efectos de la radiación cósmica de muones a la diez milésima parte. Además, se lo rodeó con plomo, el material inerte más pesado que existe, para que absorba la radiación emitida por los materiales que lo rodean. Se utilizaron 16 toneladas de plomo, de las cuales dos, las más cercanas al detector, tienen propiedades especiales, pues carecen de un isótopo contaminante, el 210Pb. También se lo rodeó con bloques de parafina y láminas de cadmio, para frenar y absorber neutrones, respectivamente. El mismo detector se fabricó en una estación subterránea, en condiciones de cuidada limpieza, para minimizar su contaminación, si bien al trasladarlo de una estación subterránea a la otra resultó algo contaminado por la radiación cósmica.

EL LABORATORIO SUBTERRÁNEO DE SIERRA GRANDE

EL LABORATORIO SUBTERRÁNEO DE SIERRA GRANDE

Un segundo paso para identificar los fenómenos buscados es determinar su señal característica. En el experimento de Sierra Grande, la primera idea explorada apuntó a uno de los posibles tipos de materia oscura, los WIMPs (Weakly Interacting Massive Particles). Los científicos especulan con que, por trasladarse la Tierra a través de la vía láctea enfrentando a un ‘viento’ de materia oscura, su rotación cada 24 horas debe causar diferencias en los eventos registrados por el detector. En ciertos puntos de la superficie terrestre se atenuaría parcialmente ese viento, porque la propia Tierra se interpondría entre el detector y la materia oscura. Tal efecto día-noche no se aplica a las otras dos fuentes mencionadas, que siempre actúan igual. Al anular eventos semejantes ocurridos con una separación de doce horas, los causados por las últimas fuentes deberían desaparecer y sólo quedarían los de la primera.

Otra idea, válida para otro tipo de materia oscura (los axiones), es verificar si, dada la estructura monocristalina del detector, se producen procesos de difracción parecidos a los que los rayos X hacen sobre cristales, que serían característicos de estas últimas partículas. Los grupos que llevan a cabo la investigación trabajan activamente sobre ambas ideas. Como el número registrado de eventos del tipo que interesa es bajo, se requiere esperar mucho para obtener los datos que permitan confirmar o excluir la presencia de la clase de materia oscura buscada. A casi tres años de iniciado el experimento, los primeros datos obtenidos están siendo cuidadosamente analizados en momentos de publicarse esta nota.

Entre los candidatos propuestos, el preferido por muchos es la partícula supersimétrica de menor masa, denominada neutralino, una mezcla de las partículas supersimétricas asociadas con el fotón y el mesón de Higgs (para la mecánica cuántica, una partícula puede consistir en una mezcla de otras). El neutralino tiene una razón de ser teórica en el modelo de supercuerdas; cumple, además, con ciertos requisitos que se explicarán en seguida.

La lógica que permite postular la abundancia de materia oscura parte del hecho de que, apenas originado el universo, todas las especies de materia y de radiación habrían estado en un equilibrio fijado por las leyes de la mecánica estadística para un universo en continua expansión. Dicho equilibrio habría implicado que la materia se aniquilara y se creara en cantidades dependientes de las interacciones de las diferentes especies de ella, y de la probabilidad de encontrarse unas con otras. Al continuar la expansión del universo, habría llegado un momento en que las partículas ya no se habrían encontrado. La densidad residual habría quedado congelada (tal período se denomina, en jerga, el freeze out) en un valor que se puede calcular con relativa certeza. Como las secciones de choque de partículas dependen enormemente de las masas, en este proceso quedaron fijadas, entre otras cosas, las posibles masas de los neutrinos, así como la de cualquier otro potencial candidato a constituir la materia oscura. Si alguno de los posibles existiera, su contribución a la densidad de materia oscura vendría determinada por su masa.

Lo atractivo de los neutralinos es que, dados los límites actuales pueden tener una masa tal que contribuyen lo necesario para hacer que el valor de W sea igual a la unidad. Los cálculos teóricos indican que esa masa sería del orden de cien a quinientas veces la del protón, lo cual, por otra parte, es compatible con los límites de la masa mínima. De esta manera, la física de partículas elementales haría una predicción que, al mismo tiempo, satisfaría los requerimientos del mejor modelo disponible, hasta ahora, de la evolución universal.

¿Cómo encontrar a los neutralinos, esas partículas tan abundantes pero, a la vez, tan escasas? Se han propuesto tres métodos complementarios:

(i) su detección directa,
(ii) la observación de líneas espectrales con satélites y,
(iii) la detección de los neutrinos provenientes del Sol, donde se han acumulado neutralinos.

El primer método es simple pero difícil de poner en práctica, por varias razones. Debido a su masa, si un neutralino choca con un protón en el laboratorio, el segundo recibe un impulso de algunos miles de eV, pero:

(a) se mueve poco como consecuencia de la colisión,
(b) en un kilogramo de material, una reacción de ese tipo ocurre un par de veces por día y,
(c) hay que poder distinguirla de muchos otros fenómenos con los que se puede confundir. Sin embargo, después de una década de desarrollo de tecnología de superconductividad, se espera que en un futuro cercano los experimentos necesarios para hacerlo puedan ser viables.

El segundo camino para dar con los neutralinos, ideado en Suecia, confía en poder detectar dos neutralinos que se aniquilan mutuamente en el halo de la galaxia. Como resultado se producirían rayos gamma monocromáticos de alta energía. Para registrar su presencia, se necesitaría trabajar con un satélite, pues la atmósfera terrestre absorbe tal radiación. El experimento ha sufrido demoras debido al costo de los satélites, pero constituye una opción posible.

El tercer método explica el título de este artículo. Se basa en que los neutralinos se desacoplaron del resto de las otras especies que formaron el magma inicial en una época muy temprana. Medida en términos de la temperatura actual del universo, que es de 10-5eV (o 2,73 Kelvin, es decir 270ºC bajo cero), ese desacoplamiento ocurrió a una temperatura del orden de 109eV, o sea, cuando en promedio el universo estaba cien billones de veces más caliente que hoy. Desde entonces los neutralinos se desplazan al azar por el universo. Cuando se formó el sistema solar, a temperaturas del orden de centésimos de eV, algunos chocaron con acumulaciones de materia y perdieron velocidad en grado suficiente como para quedar atrapados en el sistema solar, en particular, en los centros del Sol y de la Tierra. La densidad que se estableció en la Tierra es pequeña, pero el ángulo sólido visto desde la superficie del planeta es grande, y todos los que quieran escapar deben cruzar dicha superficie; en cambio, en el Sol ocurre lo opuesto: el volumen es mucho más grande pero el ángulo sólido subtendido por la Tierra es muy pequeño, de modo que muchos escapan sin siquiera rozar la superficie de nuestro planeta. El número de eventos es calculable: dos neutralinos se aniquilarán y producirán quarks, los cuales se desintegrarán en procesos sucesivos y emitirán, finalmente, un neutrino que, en promedio, llevará un tercio de la energía del neutralino. Estos neutrinos de alta energía interactúan muy débilmente con la materia y escapan del Sol; llegan a la Tierra con energías de decenas de Gev (1GeV=109eV). La Tierra, a su vez, no impide que esos neutrinos la atraviesen, pero uno en millones produce una interacción que, entre otras cosas, origina un mesón m, una partícula con carga eléctrica. Cuando tienen energía del orden de 108eV, los mesones m atraviesan varios kilómetros de roca antes de parar. Si se cuenta con un dispositivo que los pueda detectar, hay gran probabilidad de que lo pueda hacer si la conversión del neutrino a muón se produjo en un radio de varios kilómetros en torno al detector. El electrón, por contraste, sólo se propagaría un metro. La enorme capacidad de sobrevivir del muon hace que el volumen efectivo del detector deba ser enorme y compense la escasez de eventos.

Conociendo la masa de los neutralinos y postulando que son la materia oscura y que W es aproximadamente uno, se puede concluir que en un volumen de un kilómetro cúbico se producirían unos cientos de dichas interacciones por año. A primera vista, esta parece una técnica menos eficaz que la detección directa, pero ello no es así porque los neutrinos en cuestión tienen energías del orden de los 108eV, lo que facilita su identificación, ya que la perturbación que pueden causar otras partículas de esa energía en el detector, o ruido de fondo, es muy pequeña. Además, la direccionalidad de sus trayectorias, debido a que deben venir del Sol o del centro de la Tierra, ayuda a reducir aún más ese ruido de fondo. Lo esencial para descubrirlos es encontrar un detector que permita identificar el pasaje y la dirección del muón. Como este tiene carga eléctrica y se desplaza a muy alta velocidad, se trata de advertir la onda de choque de radiación que se produce cuando se propaga por un medio con velocidad mayor que la de la luz en dicho medio. Esta onda de choque recibe el nombre de radiación de Cerenkov.

FIG 1 : ESQUEMA DEL DETECTOR AMANDA. CADA FOTOMULTIPLICADOR ESTÁ CONTENIDO EN UNA ESFERA (OPTICAL MODULE) PARA SOBREVIVIR A LA ALTA PRESIÓN.

FIG 1 : ESQUEMA DEL DETECTOR AMANDA. CADA FOTOMULTIPLICADOR ESTÁ CONTENIDO EN UNA ESFERA (OPTICAL MODULE) PARA SOBREVIVIR A LA ALTA PRESIÓN.

Para que pueda ser registrada se deben cumplir algunos requisitos. Uno es que los fotones (es decir, la luz) se propaguen por lo menos unas decenas de metros, ya que si ello no sucediera, debido al precio de cada detector, que asciende a mil dólares, el costo de cubrir un kilómetro cúbico con suficientes detectores haría inviable el proyecto. Otro requisito es que los fotones no se desvíen de su trayectoria debido a interacciones en el medio. Tal requisito es necesario para establecer la trayectoria original del muón midiendo los tiempos de arribo de los fotones a, digamos, una decena de detectores. El muón se desplaza prácticamente en la misma dirección que el neutrino del que se originó: si se sabe que provino del centro de la Tierra o del Sol, se hace más sencillo eliminar gran parte del ruido de fondo, cosa importante porque se piensa que, por cada muón proveniente del Sol, arriban a la atmósfera unos cien mil procedentes de los rayos cósmicos. No es fácil de obtener tal poder de discriminación, pero es posible. Como no se conoce fenómeno físico capaz de producir neutrinos con energías próximas a los 108eV, ya sea en el centro del Sol o en el de la Tierra, la señal debe provenir, necesariamente, de la materia oscura.

Si bien puede haber otros lugares en los que es posible hacer el experimento, como el fondo del océano, se ha concluido que el más apropiado es el polo sur, donde un grupo de treinta investigadores de las universidades norteamericanas de California y Wisconsin, de dos suecas –Uppsala y Estocolmo– (en las que se desempeñan tres argentinos) y del laboratorio alemán DESY (Deutsche Elektron Synchrotron) está construyendo un detector como el de la figura 1. El aparato lleva el nombre Antartic Muon and Neutrino Detector Array (AMANDA). El hielo antártico data de hace cincuenta mil años y, a una profundidad de 1400 metros de la superficie, está formado por pequeños cristales; por encima es nieve, que contiene burbujas de aire, pues en la composición de esta hay 6% de dicho fluido. Al irse depositando más nieve, la presión sobre las capas inferiores da lugar a una reacción química por la que las mencionadas burbujas desaparecen y se producen clateritas, compuestos que, hasta una parte en mil, tienen el mismo índice de refracción que el hielo. Por otro lado, el hielo no contiene potasio radiactivo, presente en el mar, lo que evita señales falsas. Entre las profundidades de 1400m y 2000m, el medio es ideal; más abajo, y hasta su profundidad máxima de 3km, el hielo se desplaza por efecto de la presión y, por lo tanto, no es estable para sostener el detector. Debido a tales deslizamientos, las capas inferiores de hielo van desapareciendo continuamente en el océano. Por ello, la edad máxima de los 3000m de hielo es 50.000 años.

FIG 2 : DETECTOR DE NEUTRINOS EN EL POLO SUR.

FIG 2 : DETECTOR DE NEUTRINOS EN EL POLO SUR.

Los detectores de luz, o tubos fotomultiplicadores, se colocan cada diez metros en cuerdas que los sostienen; se ubican a partir de una profundidad de 1800m y hasta los 2000m. Están conectados con la superficie por un cable de alto voltaje, que transmite las señales del arribo de los fotones. Las cuerdas, a su vez, se disponen en puntos que, sobre la superficie del hielo, forman los vértices de un hexágono de 30m de lado. El cable actualmente instalado, de dos kilómetros de largo (Fig. 2), llega al polo enrollado en carreteles. Para hacerlo descender con los detectores es necesario realizar una perforación en el hielo, que lleva tres días y requiere 40.000 litros de combustible para alimentar una caldera en la que se calienta agua. Se bajan los fotomultiplicadores con cierta celeridad, para evitar que se congele la cuerda mientras descienden, y luego se espera que se vuelva a formar hielo en la perforación. Los detectores, en una escafandra especial, se hallan a una presión de 500 atmósferas. Han resistido bien y algunos están en uso desde hace dos años, lo que prueba que el sistema funciona.

El calibrado de los detectores –que consiste en enviarles una señal conocida para fijar la escala– se realiza mediante luz emitida por un láser, lo cual permite, también, determinar exactamente la posición de cada tubo. Los chubascos de rayos cósmicos que atraviesan el detector permiten, igualmente, calibrar los aparatos. A la profundidad en que estos están colocados actualmente, la calidad de sus medidas resulta excelente. En 1999 quedará instalado el número necesario de detectores para controlar un volumen de un kilómetro cúbico, pero en el momento de aparecer esta nota las instalaciones del polo sur ya constituyen el telescopio de neutrinos de alta energía más grande del mundo.

Si el componente de la materia fuese el neutralino y este –formado por una mezcla de partículas– fuese, principalmente, el compañero supersimétrico del fotón, sería fácilmente detectado por AMANDA; si, en cambio, fuese sobre todo compañero del mesón de Higgs, cuya composición no se puede predecir, la medición directa posiblemente tuviese mejor probabilidad de advertirlo. El detector polar podrá estudiar, además, otros objetos astronómicos, en particular, explorar si existen otras fuentes de neutrinos en el universo. Los núcleos galácticos activos, por ejemplo, podrían ser una de esas fuentes; se cree que producen neutrinos con energías del orden de 1015eV.

Nos podemos imaginar al detector instalado en el polo sur como unos ojos constantemente avizores que, a cuarenta grados Celsius bajo cero, miran con frialdad al universo, en la calma de las profundidades congeladas de la Antártida. Con la sutileza de sus percepciones, nos podrán hacer saber si, en última instancia, los neutralinos son el ingrediente fundamental del cosmos. Este es parte de una constelación de esfuerzos para medir, en los próximos años, los parámetros básicos de universo, cuánta materia es visible y cuánta oscura, descubrir las propiedades del universo en su juventud y determinar si existe una constante cosmológica. La base teórica de esta actividad es compleja; científicos de todo el mundo participan del esfuerzo, incluyendo equipos de la Comisión Nacional de Energía Atómica y de las universidades de Buenos Aires y La Plata. En este conjunto de actividades se pone una vez más de manifiesto que la realidad física resulta muy distinta del mundo de los sentidos. Lo extraordinario es que podamos trascender las apariencias y concebir de otra manera las cosas.

Lecturas Sugeridas

ASKEBJER, P., et al., 1995, ‘On the age vs depth and optical clarity of deep ice at the South Pole’, astro-ph, 9501072, (en Internet http://xxx.lanl.gov/abs/astro-ph/9501072/).

ASKEBJER, P., et al., 1995, ‘Optical properties of the South Pole ice at depths between 0.8km and 1km’, Science, 267:1147-1150.

Héctor Rubinstein

Héctor Rubinstein

Universidad de Uppsala, Suecia