Utilizando supercomputadores logran predecir la temperatura crítica a la que el calcio es superconductor

El calcio es superconductor a altas presiones, por encima de 50 gigapascales y su temperatura crítica (Tc) crece hasta alcanzar 25 K a 161 gigapascales, la Tc más alta conocida en un elemento químico. ¿Puden las simulaciones por ordendar predecir la Tc del calcio a altas presiones? Artem Oganov et al. afirman en PNAS que han sido capaces de calcular teóricamente la Tc del calcio conforme va sufriendo transiciones de fase al incrementarse la presión utilizando sólo simulaciones por ordenador. Las simulaciones tienen la ventaja de que permiten entender el porqué surge la superconductividad en detalle (activando y desactivando efectos físicos relevantes). Los átomos de calcio a altas presiones no se comportan como pequeñas “esferas duras” en la estructura cristalina del sólido, sino que se deforman de tal forma que logran empaquetarse en nuevas configuraciones menos densas de lo esperado, con enlaces entre átomos cuya longitud no está fija. El estudio mediante supercomputadores de las propiedades físicas de materiales a altas presiones es uno de los objetivos del proyecto europeo NANOQUANTA financiado por el sexto programa marco en el que se enmarca este trabajo de Artem R. Oganov et al., “Exotic behavior and crystal structures of calcium under pressure,” PNAS 107: 7646-7651, April 27, 2010 [versión gratis, información suplementaria].

El problema de la materia oscura requiere físicos teóricos geniales desbordantes de imaginación

Todo apunta a que 2010 será recordado como el año de la materia oscura. Hay muchísimos experimentos en marcha y muchos de ellos han encontrado señales que apuntan a la materia oscura. Sin embargo, parece como si cada experimento fuera imcompatible con el resto, como si los físicos teóricos tuvieran que explicar la materia oscura más esquizoide imaginable. Por ejemplo, el experimento DAMA observó lo que parece el efecto del flujo de la materia oscura conforme la Tierra se mueve alrededor del Sol. El experimento CoGent recientemente lo confirmó. Otros experimentos no han observado dicho efecto, como CRESST, datos sin publicar de hace sólo unas semanas. Unos experimentos apuntan a partículas de materia oscura pesada, del orden de 100 GeV, y otros a materia oscura ligera, de 5-10 GeV. Un sinsentido… un grano de sal en el ojo de los físicos…

Todo apunta a que todos los experimentos están observando lo que tienen que observar, pero la materia oscura es mucho más sutil de lo que los físicos teóricos podían imaginar hace sólo un año. Necesitamos físicos teóricos desbordantes de imaginación, capaces de imaginar lo inimaginable. Todo apunta a que en un par de años sabremos muchísimo sobre el 23% del universo. Habrá que estar atentos.

Conferencia TED de Stephen Wolfram sobre autómatas celulares y computación

Hoy, Stephen Wolfram ha impartido una conferencia sobe la calculabilidad del universo y sobre sus “hijos” computacionales. Nos habla de “A New Kind of Science,” Wolfram Alpha (pone un ejemplo con “spain gdp / revenue microsoft” que causa risas entre la audiencia), Mathematica, y acaba con algo sobre física y calculabilidad del universo. Todavía no hay subtítulos en español en la página de TED, supongo que en un par de días los habrá.

Computación masivamente paralela con autómatas celulares implementados mediante moléculas orgánicas

Stephen Wolfram en su libro “A New Kind of Science,” nos quiso convencer a todos de que el cerebro y muchos sistemas físicos y biológicos funcionan como un autómata celular (famosos desde que John Conway inventó el juego de la vida). Quizás por ello, la noticia de que un autómata celular ha sido implementado físicamente mediante un “tejido” de moléculas orgánicas (heterociclos de diclorodicianobenzoquinona (DDQ), una molécula hexagonal compuesta de nitrógeno, oxígeno, cloro y carbono, como muestra la figura de la izquierda) ha saltado a los medios como “Producen las primeras neuronas artificiales,” Europa Press, Publico.com, 26 abril 2010 [visto en la portada de Menéame], titular de Público más impactante que el original de EP “Producen el primer circuito de procesamiento evolutivo,” 26 abril 2010, que a su vez afirma basarse en “Brain-Like Computing on an Organic Molecular Layer,” ScienceDaily, Apr. 26, 2010, quienes han construido su noticia a partir de Marcia Goodrich, “Lessons from the Brain: Toward an Intelligent Molecular Computer,” Michigan University Tech News, April 26, 2010, quien ya lo publicó en “Brain-like computing on an organic molecular layer. Toward intelligent and creative computers,” EurekAlert!, 25 April, 2010. Obviamente, muchas otras fuentes se han hecho eco de esta noticia, como Kir Ortiz, “Primeras neuronas digitales,” NeoTeo, 27 de abril de 2010.

Antes de nada, el artículo técnico es Anirban Bandyopadhyay, Ranjit Pati, Satyajit Sahu, Ferdinand Peper, Daisuke Fujita, “Massively parallel computing on an organic molecular layer,” Nature Physics, Published online: 25 April 2010. Incluye como información suplementaria unos vídeos que dejan muy claro el contenido técnico del artículo: cómo han implementado los algoritmos y cómo funcionan estos. Básicamente los investigadores han implementado un autómata celular con una capa de moléculas de DDQ que han depuesto epitaxialmente sobre un substrato de oro (111). Los estados de este sistema los han controlado mediante un microscopio de efecto túnel.

Las moléculas orgánicas de DDQ se caracterizan por cuatro estados energéticos (0, 1, 2 y 3) que representan diferentes rotaciones de cada molécula. Estos estados pueden ser utilizados para representar información. Además, la influencia de una molécula sobre las moléculas que tiene alrededor depende de su rotación, con lo que controlando estos estados se puede influir en el entorno y lograr realizar operaciones de control que permiten implementar algoritmos de tipo autómata celular en este sistema físico. El proceso es muy lento y delicado ya que estas transiciones se logran excitando algunas moléculas mediante una diferencia de potencial que se aplica utilizando la punta de un microscopio de efecto túnel (que también ha sido utilizado para medir el estado del autómata celular). A la derecha tenéis la implementación de una puerta lógica Y (AND), A*B=C, donde se muestra la tabla de verdad y dos estados concretos, el estado inicial A=1, B=1 y C=0 (arriba, derecha) y el estado final A=1, B=1 y C=1 (abajo, derecha).

El siguiente vídeo ilustra la formación de la bicapa de moléculas de DDQ sobre el substrato de oro y nos da una idea muy clara de cómo se ha implementado el automáta celular desarrollado en este estudio. Aplicando potenciales eléctricos se excitan los estados de las moléculas de DDQ con lo que los enlaces entre una molécula y las moléculas de su alrededor cambian (las moléculas rotan). Un uso inteligente de estos efectos ha hecho posible implementar cambios de estado que se propagan por la capa de DDQ imitando el funcionamiento de un autómata celular. 

Los algoritmos se implementan en autómatas celulares gracias a un conjunto de reglas. Los investigadores han sido capaces de implementar hasta 6 reglas de interacción local entre moléculas. Cada molécula está rodeada de 8 moléculas y tiene 4 estados posibles. Ciertos cambios de su estado afectan a las moléculas vecinas, dependiendo del estado en que se encuentren. Gracias a estos cambios se implementan las 6 reglas (son las únicas que han sido capaces de implementar de forma controlada, no es nada fácil logralo). El siguiente vídeo ilustra las 6 reglas y cómo se ejecutan físicamente para resolver el problema de cálculo de diagramas de Voronoi (ver ejemplos al final del vídeo).

Simular la solución de un problema de difusión no lineal con autómatas celulares es relativamente sencillo, por eso los autores han utilizado este ejemplo, ya clásico, para ilustrar su implementación física. Quizás es más vistosa la aplicación al crecimiento de tumores, básicamente un proceso controlado por la difusión no lineal (en los modelos más sencillos) y por tanto también fácilmente implementable. La gran ventaja teórica de la implementación desarrollada en este artículo es que cada molécula tiene sólo unos nanómetros cuadrados de área, con lo que este sistema es masivamente paralelo. La gran desventaja, como es obvio, es que controlar molécula a molécula un sistema no es trivial, ni eficiente, … aunque tiempo al tiempo. 

Solitones en aguas someras y la ecuación de Kadomtsev-Petviashvili

Cuando decidí iniciar la aventura de este blog me impuse el buen propósito de no hablar en este blog de los temas en los que investigo de forma profesional. No quería aburrir a los potenciales lectores con innumerables detalles técnicos que no puedo quitarme de la cabeza y que sólo tienen interés para los pocos que nos dedicamos a estas cuestiones. Aún así, de vez en cuando se me ve el plumero.

En el año 2000 propuse como proyecto de investigación el estudio numérico y analítico del zoo de soluciones de la ecuación de Kadomtsev-Petviashvili (KP), con énfasis en las interacciones de múltiples solitones línea, como las que veis en la figura que abre esta entrada. En lugar de considerar su aplicación en el contexto de ondas en aguas someras, como en las fotos de arriba, mi interés se centraba entonces en matrices de líneas de transmisión no lineales. Intuía que la ecuación KP iba a ser ampliamente estudiada durante la primera década del s. XXI. Me ha alegrado ver hoy un artículo de revisión sobre este tema (el zoo de la KP) del genial Yuji Kodama, “KP solitons in shallow water,” ArXiv, 26 Apr 2010 (50 páginas de matemáticas profusamente ilustradas).

La ecuación KP es una ecuación en derivadas parciales en 2+1 dimensiones que es integrable, es decir, se puede escribir la solución más general posible de su problema de valores iniciales o problema de Cauchy. Es una de las pocas ecuaciones en 2+1 dimensiones que se sabe que es integrable. Su solución general tiene dos partes separadas, una de ellas representa un conjunto de solitones y se escribe mediante el determinate de una matriz, la otra representa términos de radiación de pequeña amplitud y se escribe como una integral de Fourier. El artículo de Kodama revisa una técnica diagramática para representar el primer término, las soluciones multisolitónicas utilizando grafos (Kodama les llama diagramas cordales). Estos grafos recuerdan a los diagramas de Feynman y ayudan a la construcción matemática de estas soluciones, así como a la intepretación de sus propiedades. La figura de la izquierda os muestra la representación diagramática de una solución con un único solitón línea. Kodama presenta las reglas de construcción de los diagramas que representan soluciones con múltiples solitones línea.

Abajo tenéis la representación de una solución en la que tres solitones línea colisionan y colapsan para formar un único solitón línea. Con un poco de imaginación podéis ver la película de los hechos. Se ve claro que el solitón línea [1,2] se mueve hacia la izquierda y arriba. Los solitones [1,4] y [3,4] también se mueven hacia la izquierda. Sólo el solitón [2,3] se mueve hacia la derecha. Por eso la solución se denomina 3+1. En t=-8 y t=8 se obervan dos interacciones dobles y en t=0 hay una interacción cuádruple. Hay muchas maneras de imaginarse esta solución. Por ejemplo, los solitones [1,2], [1,4] y [3,4] representan una interacción (vértice) triple que se mueve hacia la izquierda mientras interactúa con un solitón [2,3] que se mueve hacia la derecha. En t=-8 dicho solitón interactúa sólo con el brazo izquierdo y en t=8 sólo con el derecho, en ambos casos introduciendo un desfase que produce un ángulo respecto al vértice triple. No sé si me explico bien… Este tipo de interacción se llama interacción 3+1.

Se pueden representar todo tipo de interacciones múltiples entre solitones línea. Por ejemplo, aquí abajo tenéis la interacción entre 6 solitones líneas, interacción 3+3 (entre dos vértices triples). En este caso hay que tener mucha más imaginación para ver la película de la interacción a partir de tres fotogramas solamente, dada la multiplicidad de interacciones intermedias entre los solitones que muestran las imágenes. La ventaja de la formulación matemática (en este caso del diagrama cordal) es que permite entender fácilmente este tipo de interacciones múltiples entre solitones que aparentan gran complejidad.

Los diagramas cordales (como pasa con los diagramas de Feynman) permiten clasificar todas las posibles soluciones con solitones línea en interacción. Podemos entender las estructuras básicas con las que se forman todas las interacciones posibles, como la soluciones patrón en X o en T (no entraré en detalles). ¿Todas estas soluciones son estables y robustas? El análisis matemático formal de estas soluciones a partir de los diagramas cordales factibles no garantiza la estabilidad y robustez de dichas configuraciones. Este es un punto que no se debe olvidar nunca, todas estas soluciones teóricas posibles no son estables. Las soluciones que no son establse no pueden darse en la Naturaleza. El estudio analítico de la estabilidad de las soluciones generales está fuera de lo que permiten nuestro conocimiento actual. Incluso de soluciones con tres solitones en interacción es muy difícil. Por ello, lo habitual, como hace Kodama en su artículo de revisión, se recurre a presentar simulaciones numéricas que confirman la estabilidad y robustez. Kodama nos presenta este estudio sólo para alguna de las soluciones patrón que ha obtenido.

Las soluciones estables con múltiples solitones líneas en interacción se han observado en la Naturaleza (como muestran las fotos de Mark Ablowitz que abren esta entrada), sin embargo, la utilidad real de un modelo matemático se demuestra cuando se replican estas observaciones experimentalmente en un laboratorio. Mi interés personal en el año 2000 por las matrices de líneas de transmisión no lineales llevaba implícito el hecho de que realizar medidas eléctricas en  un circuito es mucho más fácil que medir ondas en la superficie, pongamos, de un tanque de agua. Yo pensaba que podría reproducir y estudiar las interacciones de múltiples solitones línea con facilidad. Al final, mi proyecto de investigación se quedó en eso, en un proyecto. Sin financiación la investigación es difícil y al final me quedé con lo fácil, unas simulaciones numéricas por ordenador que siempre dejan el mal sabor de boca de ¿y si en la Naturaleza no se observa lo que uno simula en el ordenador?

Por ello, me ha dejado un buen sabor de boca el artículo de Kodama que acaba mencionando su trabajo reciente en colaboración con un físico experimental, Harry Yeh (en concreto, Harry Yeh, Wenwen Li, Yuji Kodama, “Mach reflection and KP solitons in shallow water,” ArXiv, 2 Apr 2010). Utilizando una nueva técnica para la medida de las ondas en la superficie de un tanque de agua mediante un láser, llamada fluorescencia inducida por láser (LIF), han logrado reproducir experimentalmente las soluciones de la ecuación KP con una precisión alucinante. La figura de abajo muestra un resultado de su trabajo. Las tres figuras de arriba son resultados experimentales y las tres figuras de abajo son resultados numéricos. Los solitones líneas en estas figuras se mueven hacia la izquierda. Aunque los resultados experimentales muestran cierta dispersión, el modelo teórico da cuenta de los mismos con una exactitud sorprendente. ¡Alucinante!

La mayoría de los lectores de este blog pensarán que chochea la Mula Francis con estos desvaríos. ¿Alucinantes? Bueno, es lo que pasa cuando uno habla de temas relacionados con su propio trabajo… por cierto, ya hace unos años que no estudio numéricamente la ecuación KP, ahora me dedico a otras ecuaciones y otros tipos de solitones. La vida da muchas vueltas… y yo he disfrutado mucho con el trabajo de Kodama, a quien sigo admirando no sin cierta devoción.

Publicado en Nature: Jugar mucho a “brain training” sólo mejora nuestra habilidad para jugar a “brain training”

La correlación más fuerte observada entre entrenamiento y una habilidad (razonamiento lógico) correlacionada con la inteligencia general o índice g. Como se observa la correlación es prácticamente nula. (C) Nature

“Brain training” es una industria que genera beneficios multimillonarios a costa de hacer creer a los consumidores que jugar a la dichosa maquinita mejora sus habilidades cognitivas. No hay evidencia científica fiable sobre ello. El último estudio, publicado en Nature, con 11 430 participantes seleccionados a través de un programa de la BBC muestra sin lugar a dudas que, en adultos, “brain training” no mejora las habilidades cognitivas, sólo mejora las habilidades cognitivas para jugar a “brain training.” Ni siquiera mejora las habilidades cognitivas para tareas relacionadas, pero no iguales, a los juegos que incluye. ¿Sólo en adultos? El estudio no ha incluido a niños, pero me parece que no hay que ser muy listo para extrapolar los resultados también a ellos. En español os recomiendo el artículo de Emilio de Benito, “Los juegos de entrenamiento mental no aumentan la inteligencia. Un estudio hecho con 11.000 personas sanas en Reino Unido demuestra que sirven para entretenerse, pero nada más,” El País, 20/04/2010 [visto en Menéame]. El artículo técnico, a día de hoy todavía con el “near-final version,” es Adrian M. Owen et al., “Putting brain training to the test,”  Nature, advance online publication 20 April 2010.

El telescopio espacial Hubble, la nebulosa planetaria Mz3 y el posible final de nuestro sistema solar

El 24 de abril de 1990 la NASA lanzó el telescopio espacial Hubble. Con un coste inicial de construcción de 400 millones de dólares, acabó constando unos 2500 millones de dólares. Ha necesitado múltiples reparaciones por parte de los astronautas a bordo de los transbordadores espaciales, con lo que se estima que su coste total, hoy, debe superar los 4500 millones de dólares, quizás aproximándose a los 6000 millones de dólares. Mucho dinero, pero muy bien invertido. La NASA necesitaba una buena imagen y las imágenes de Hubble fueron el vehículo ideal para recordar a los contribuyentes que su dinero invertido en la NASA está bien invertido. La iniciativa mediática de la NASA de liberar gratis las fotos de Hubble en una página web (creo recordar que desde 2000) ha sido todo un acierto. Acierto que todos agradecemos.

La imagen que abre esta entrada, la nebulosa planetaria Mz3 nos muestra la explosión de una estrella similar al Sol al final de su vida. Cada nebulosa planetaria es completamente diferente. La razón según los astrónomos es que influyen mucho los detalles del entorno de la estrella, es decir, si es un sistema binario, si tiene planetas gigantes gaseosos, etc. En el caso de Mz3 se cree que la explosión en lugar de ser esférica, es como una esfera partida por la mitad, de ahí los dos lóbulos que muestra la imagen de Hubble. ¿Por qué? Se cree que se trata de un sistema binario, con una pequeña estrella que acompaña al sol principal. Dicha pequeña estrella (aún no observada, quizás la explosión la destruyó) podría muy bien ser un planeta gigante gaseoso, como Júpiter. En dicho caso, Mz3 nos muestra el posible final de nuestro sistema solar. Los dos vídeos siguientes de youtube os muestran la “película de los hechos.”

Más vídeos y más información.

Espectacular máquina de Turing implementada mecánicamente, verlo para creerlo

Mike Davey ha construido una máquina de Turing que lleva la analogía ideada por Turing de una cinta sobre la que se escriben y borran unos y ceros hasta su extremo. La cinta tiene  Realmente espectacular para los que han estudiado informática, como muchos lectores de este blog. Visto aquí, decidí buscar en Menéame y también la encontré, aunque me sorprende que pasara completamente desapercibida.

Por cierto, es el proyecto fin de carrera ideal para una pareja de informático e ingeniero industrial. ¿Alguien se anima a emular a Mike?

El encanto del mesón J/Psi y la belleza del primer mesón B observados en el detector LHCb del CERN

MiGUi nos recordaba en el “El encanto del mesón J/Psi,” migui, Ciencia y Cultura, 18 Abr. 2010, la historia de Gell-Mann y su vía óctuple, y el descubrimiento del mesón J/Psi simultáneamente en el SLAC (Richter) y en el BNL (Ting) en 1974, de ahí los dos nombres para esta partícula, que confirmó definitivamente el modelo de los quarks. “El mesón J/Psi tiene una masa de 3097 MeV/c² y está hecho de un quark encanto y un antiquark encanto, el cuarto sabor de los quarks conjeturado en 1970 por Glashow, Iliopoulos y Maiani. En 1976 Richter y Ting compartieron el Nobel de física por el descubrimiento.” Si no lo conoces te recomiendo su artículo, traducción libre de Stefan and Bee, “The J/Psi Resonance,” Backreaction, December 8, 2007.

Lo único que le he echado en falta al artículo de MiGUi es la figura que abre esta entrada, la primera reconstrucción en el detector LHCb (Large Hadron Collider beauty experiment) en el LHC del CERN de la partícula J/Psi con colisiones a √s = 7 TeV (obtenida el 10 de abril de 2010). En el LHCb se ha calculado una masa 3092’7 ± 2’4 MeV/c², un valor muy bueno comparado con el mejor calculado por el Particle Data Group, 3096’916 ± 0’011 MeV/c². Esta reconstrucción se ha obtenido gracias al estudio de la masa invariante para pares de muones μ+ y μ observadas en la desintegración de mesones B+ cuya masa en reposo es de 5’32 GeV/c². Esta partícula tiene una masa 5’5 mayor que la masa del protón, pero 650 veces más pequeña que la energía de los protones que colisionan en el LHC, lo que nos recuerda que en el LHC las partículas de materia se crean a partir de la energía gracias a la famosa fórmula de Einstein E=m c². Nos lo han contado en “First reconstructed Beauty Particle,” Current News, LHCb, 21 April 2010.

LHCb es el detector del LHC especializado en el estudio de las partículas con “belleza” (con un quark b, bottom o belleza). La primera partícula “bella” que el LHCb ha sido capaz de observar ha sido el mesón B+ formado por un quark u (arriba) y un antiquark b (belleza). Esta partícula tiene una vida media de 1’5 picosegundos y se observó por primera vez el 5 de abril de 2010 tras la observación de 10 millones de colisiones protón-protón. El mesón B+ se desintegró en dos partículas tras recorrer solamente 2 mm. (milímetros). Se desintegró en un par de mesones J/ψ y K+. La primera de estas partículas se desintegró inmediatamente en dos partículas de larga vida, un par de muones μ+ y μ que junto con la partícula K+ atravesaron los detectores, dejando una trayectoria de señales a la espera de su reconstrucción por parte de los físicos. La reconstrucción de sus trayectorias se obtuvo con gran precisión como se muestra en la figura de arriba. Lo que los detectores observaron es lo que se ve aquí abajo. Como no, el LHC está reconstruyendo el Modelo Estándar paso a paso, partícula a partícula. Todos los físicos de los experimentos del LHC estén realizando a la perfección sus deberes.Esta reconstrucción del Modelo Estándar es una gran labor necesaria para que dentro de unos meses se pueda empezar a buscar nueva física más allá del Modelo Estándar. Esta labor no será noticia dentro de unos meses. Nadie se acordará entonces del gran trabajo que están realizando estos físicos ahora. Por eso creo que es ahora cuando nos debemos alegrar de esta gran labor que, en mi opinión, merece todos nuestros titulares. Enhorabuena, compañer@s

Por cierto, acabo de ver en Menéame que esta noticia del LHCb ya fue meneada y llegó a portada. Se me adelantó Christian Leal, “Colisionador de Hadrones crea su primera partícula de antimateria y confirma teoría de Einstein,” Bio-Bio, la radio, 23 Abril 2010. No importa, mi entrada es un guiño a MiGUi.

La capacidad del LHC a 7 TeV para descubrir la supersimetría durante los próximos dos años

Algunos lectores de este blog opinan que soy muy pesimista en cuanto a las posibilidades de que el LHC del CERN descubra algo interesante en los próximos dos años. Los pesimistas también tenemos algo de optimismo. Por eso me hago eco de un artículo de Baer et al. que estudia cuál es la capacidad del LHC a √s=7 TeV, sea LHC7, para descubrir la supersimetría con una luminosidad integrada de sólo 1 fb-1 (la que alcanzará el LHC en los próximos dos años). En un artículo anterior ya lo hicieron para √s=10 TeV, sea LHC10, y la capacidad del LHC a √s=14 TeV, sea LHC14, es bien conocida. La figura de arriba es el resultado más importante de su artículo, obtenida con simulaciones de Montecarlo para el modelo minimal supersimétrico (MSSM). Resumiendo mucho, la figura nos indica que el LHC7 en los próximos dos años podrá producir gluinos con una masa hasta 1’1 TeV,  si la masa de los squarks es similar a la de los gluinos, y hasta 650  GeV, si los squarks tienen una masa mucho mayor que los gluinos. Recordemos que los gluinos y los squarks son las partículas supercompañeras de los gluones y los quarks, respectivamente. No está nada mal, teniendo en cuenta que en el peor caso, cuando el LHC14 haya alcanzado una luminosidad integrada de 100 fb-1, será capaz de descartar (o ya habrá encontrado) gluinos con una masa hasta 3’1 TeV, si la masa de los squarks es similar a la de los gluinos, y hasta 1’8  TeV, si los squarks tienen una masa mucho mayor que los gluinos. Una luminosidad integrada de 100 fb-1 será la que esperamos que haya alcanzado el LHC14 cuando esté a punto de ser clausurado, obviamente, si la masa de los gluinos o squarks es mucho menor, el LHC14 descubrirá estas superpartículas con una luminosidad integrada mucho más baja. Nos lo cuentan Howard Baer, Vernon Barger, Andre Lessa, Xerxes Tata, “Capability of LHC to discover supersymmetry with \sqrt{s}=7 TeV and 1 fb^{-1},” ArXiv, Submitted on 20 Apr 2010.

La supersimetría es una teoría que introduce decenas (casi cientos) de parámetros nuevos en el Modelo Estándar, por lo que estudiar todos los posibles modelos supersimétricos es prácticamente imposible. Normalmente se toman cinco parámetros como conjunto mínimo para todos los estudios sobre la posibilidad de descubrir la supersimetría en aceleradores de partículas como el Tevatrón y el LHC. Observa la figura que abre esta entrada. El parámetro m0, eje de abcisas en la figura, es la masa de la partícula (bosón) escalar supersimétrica menos masiva (sin tener en cuenta los higgsinos); m1/2, eje de ordenadas a la izquierda en la figura, es la masa del fermión supersimétrico (gaugino) menos masivo, normalmente tomado como la masa del gluino, m‾g, eje de ordenadas a la derecha en la figura; A0=0, tan β=45, y μ>0, en lo alto de la figura, son valores asociados a los campos de Higgs que median la ruptura de la supersimetría, para los que se han tomado valores típicos y razonables en un modelo minimal supersimétrico; finalmente, mt, es la masa del quark top, la partícula más masiva del modelo estándar. En la figura, los valores de 111 GeV y 114 GeV corresponden a la masa del bosón de Higgs, y las líneas discontinuas marcadas 500 GeV, 600 GeV, etc. corresponden a las masas del gluino. La figura es muy densa (el artículo presenta dos figuras más similares a ésta, que omito aquí por brevedad) por lo que explicarla en detalle va más lejos de lo que pretendo con esta entrada. Lo que me gustaría destacar es que en esta figura se ha supuesto que los detectores de ATLAS y CMS del LHC funcionarán a la perfección, como se ha observado en diciembre pasado que así ocurría en colisiones a √s=0’9 TeV y √s=2’36 TeV.

Seamos optimistas y consideremos el mejor caso. En diciembre de 2010 el LHC7 podría haber observado un gluino con una masa de 480 GeV y en primavera de 2011 uno con una masa de 540 GeV. Incluso, si el gluino tuviera una masa de 700 GeV, a finales de 2011 tendríamos evidencia suficiente de su posible existencia como para que durante 2012 el LHC no fuera parado temporalmente y siguiera con sus colisiones a √s=7 TeV hasta obtener a finales de 2012 confirmación de su existencia.

Por cierto, los autores del artículo centran su estudio en las posibilidades de encontrar los gluinos y los squarks, por qué no consideran las posibilidades de encontrar candidatos a materia oscura, partículas WIMP como el neutralino (partícula mezcla de las supercompañeras del bosón Z (zino), el fotón (fotino) y el bosón de Higgs (higgsino), ya que todas tienen los mismos números cuánticos). La razón es sencilla, estas partículas serán prácticamente imposibles de detectar directamente en el LHC ya que no interactúan con los detectores. Su detección será indirecta, igual que la de los neutrinos, por la energía (transversal) perdida en ciertas colisiones (MEt por missing transverse energy). La diferencia entre un neutrino y un neutralino es que este último no interactúa mediante la fuerza electrodébil por lo que la pérdida de energía no vendría acompañada de bosones vectoriales. La observación de un neutralino requiere valores de MEt mayores de 100 GeV. El descubrimiento de candidatos a materia oscura sería un gran logro para el LHC pero no sería una demostración de la supersimetría que sólo será descubierta definitivamente mediante observación directa de las superpartículas que predice. Más sobre la búsqueda de materia oscura en colisionadores de partículas en T. Dorigo, “Dark Matter searches at colliders – part I,” A Quantum Diaries Survivor, April 23, 2008, y “Dark Matter Searches at Colliders – part II,” AQDS, April 28, 2008 (de esta última he extraído la figura del zoo de superpartículas). En otra ocasión hablaremos en este blog del LHC y la materia oscura.

Mucho optimismo hay en mis palabras hoy y en las conclusiones del artículo de Baer et al., pero con un sol primaveral entrando por la ventana uno tiende a ser optimista y a preferir pasear por un parque a escribir entradas en su blog.