El 19 de enero, tras un año de inactividad, el Sol despertó y se inició el ciclo solar número 24

El 19 de enero los heliofísicos observaron una llamarada solar de clase M (de energía intermedia entre las clases X y C), la mayor en los últimos dos años. La aparición de una mancha solar dio inicio al (tan esperado) ciclo solar número 24. Los ciclos se repiten con una periodicidad aproximada de 11 años, pero el ciclo 23 ha durado 12,5 años (el más largo desde 1823 y el tercero más largo desde 1755). El ciclo solar número 24 se espera que no sea muy intenso, menos que el 23, con un máximo que se alcanzará en 2013 de sólo 90 manchas solares diarias (aunque algunos heliofísicos, como la Dra. Mausumi Dikpati no están de acuerdo y piensan que será más intenso que el 23, que alcanzó un máximo alrededor de 120, alcanzando hasta 150). Nos lo cuenta Lizzie Buchen, «What will the next solar cycle bring? Orbiting mission will probe the Sun’s activity, including flares that can disrupt electricity grids,» News, Nature 463: 414, 28 Jan. 2010 [ver figura de abajo]. Las predicciones para el ciclo 24 ofrecidas el año pasado las resumen bien en «Scientists Predict Solar Cycle 24 to Peak in 2013» [ver figura de arriba]. 

(300 × 138)

Lizzie aprovecha la ocasión para hablarnos del satélite de la NASA llamado Observatorio de la Dinámica Solar (Solar Dynamics Observatory o SDO), cuyo lanzamiento se ha planificadao para el 9 de febrero. Esta sonda estudiará con detalle el máximo de actividad solar del ciclo 24, ya que será capaz de obtener imágenes del Sol cada 10 segundos durante al menos 5 años (actualmente, los heliofísicos obtienen 1 o 2 imágenes del Sol al día y sólo pueden estudiar la cara del Sol que apunta hacia la Tierra).

PS (01 feb. 2010): Vídeo 3D que muestra el lanzamiento del SDO y (más abajo) un vídeo sobre la ciencia que se desarrollará en el SDO (en inglés).

La obra que inspiró «Cosmos» de Carl Sagan: «The Ascent of Man» de Jacob Bronowski

Estoy leyendo el libro del matemático Marcus du Sautoy, «Simetría. Un viaje por los patrones de la naturaleza,» Acantilado, 2009. El autor del famoso libro «La música de los números primos,» Acantilado, 2007, presentó en España su nuevo libro en octubre de 2009.

Se hicieron eco todos los medios. Por ejemplo, «La gente cree que la matemática es similar a la magia,» El Mundo, 9 oct. 2009, y «Du Sautoy: «La Alhambra es un microcosmos de simetrías,» El divulgador de Oxford combina en un ensayo la ciencia con las obras de Escher, Borges y Bach para desentrañar los patrones que rigen la naturaleza,» El País, 9 oct. 2009). Decidí comprar el libro, pero me demoré hasta las fechas navideñas (me lo autorregalé con la excusa de comprarle otro libro como regalo a mi mujer).

Todavía no he acabado de leerlo. Me está gustando. Y creo que ha gustado a mucha gente. Hasta a Don José Manuel Sánchez Ron, «El alma científica del arte. Las simetrías son, en algún sentido, el «pilar más profundo y descarnado» de la belleza. Varios libros explican las relaciones entre ciencia y creación artística,» El País, 21 nov. 2009. Don José Manuel es sin lugar a dudas el historiador de la ciencia más importante de España y sus libros sobre la historia de la ciencia española son siempre un placer.

No sé por qué he demorado iniciar la lectura de este libro. Parecía como que algo me obligaba a empezar su lectura y sin embargo lo puse en la cola de espera. Pero los patrones de la simetría de du Sautoy me asaltaban por doquier. Hasta en la portada del suplemento dominical de El País, me encontré de sopetón con su «careto» sobre una camisa de corte oriental. Y es que debe estar vendiendo libros en España, no debo ser el único que se los compra, ya que en dicho suplemento le dedicaban una extensa entrevista Julia Luzán, «Marcus du Sautoy. «Las matemáticas son como una droga.» Inglés, excéntrico, amante del placer y de las simetrías, este catedrático de matemáticas en Oxford es uno de los científicos más importantes del mundo en su especialidad,» El País, 10 ene. 2010. Me estaba pasando igual que a Marcus cuando visitó la Alhambra, no podía parar de ver simetrías por todas partes… bueno, yo no podía parar de ver el «careto» de Marcus por doquier…

Ya he empezado y ya he acabado los tres primeros capítulos. El libro está muy bien y desde aquí lo recomiendo. Aunque no me gusta que hable tanto de su hijo, parecen historias de viejo «chochete,» al más puro estilo de Leopoldo Abadía, la lectura es fácil pero te hace pensar y descubres cosas que no sabías. Eso es lo más importante de un libro de divulgación, disfrutar y aprender, disfrutar aprendiendo. Os pongo un ejemplo.

«Uno de los programas de televisión que más me impactaron durante la búsqueda de cosas matemáticas en mi adolescencia fue «El ascenso del hombre» de Jacob Bronowski. Me viene un vivo recuerdo de una escena del programa en la que Bronowski está sentado en la Alhambra hablando de la simetría. Lo recuerdo en el harén, explicando cómo las paredees están cubiertas de simetrías sexy en vez de imágenes de mujeres sexy

¿Bronowski? ¿Quién es Bronowski? Yo no recuerdo haber visto nunca un documental de este señor. Lo busco en Internet y descubro que es el «padre» de Carl Sagan, el divulgador que inspiró la obra magistral «Cosmos.» Y youtube nos permite disfrutar de estos documentales (13) a trocitos (cada capítulo en 5 partes de 10 minutos). Todo un placer. Los he disfrutado… oyéndolos, ya que los he escuchado de fondo mientras trabajaba. Buscaba la escena de la Alhambra, pero me los he tragado todos. Muchas escenas de Bronowski me recuerdan mucho a escenas en las que he visto a Sagan, pero rodadas casi una década antes. Me han resultado curiosas las escenas con ordenadores, con pantallas vectoriales, utilizando dos ruedas en lugar de ratón, … y una teatralidad que recuerda muchísimo a «Cosmos.»

Os los recomiendo, aunque están en inglés, merecen la pena.

Para abriros boca, el capítulo donde aparece la Alhambra es el número 5, «Chapter 5 – The Music of the Spheres,» a partir del minuto 25:00. La escena que cita Marcus en su libro empieza en el minuto 27:30 (os gustará el ordenador de 1970 y el «ratón» de ruedas en el minuto 46:40).

Por supuesto, lo mejor es ver todos los capítulos en su orden porque como en «Cosmos» de Sagan el orden de los capítulos está muy bien pensado y presenta una solución de continuidad muy curiosa y cuidada. Lo dicho, os dejo el primer capítulo («Chapter 1 – Lower than the Angels»)  y os animo a que me abandonéis y paséis a Google Video y allí vayáis pinchando en los «Vídeos relacionados» (a la derecha de la pantalla) para ir pasando a las siguientes capítulos. Podréis disfrutar, como yo, de esta obra magistral de la divulgación televisiva.

Nuevo límite de exclusión combinado (CDF+DZero) para la masa del bosón de Higgs en el Tevatrón del Fermilab

Según LEP2 la masa del bosón de Higgs del modelo estándar es superior a 114,4 GeV/c² con un 95% C.L. (aquí qué significa un límite de confianza estadística). Los experimentos CDF y DZero combinaron sus datos sobre las búsquedas del Higgs y publicaron el año pasado (24 de marzo de 2009 [1]) un límite que excluía un Higgs con una masa en el intervalo 160 < mH < 170 GeV/c². Ahora, con más del doble de datos (es decir, de luminosidad), resulta que dicho intervalo se ha reducido a 162<mH<166 GeV/c². ¡Se ha reducido! Todo el mundo espera que a más datos, los límites de exclusión crezcan, pero no es así siempre. El análisis estadístico de los datos ofrece este tipo de sorpresas. La figura de arriba os muestra el nuevo límite de exclusión combinado (arriba) y los nuevos límites sin combinar obtenidos en el CDF (abajo izquierda [3]) y DZero (abajo derecha [4]). Quizás también os sorprenda que los límites individuales son mucho peores que el resultado combinado, pero esto también es habitual en estadística. A más información (más luminosidad), el resultado combinado, el resultado es mucho mejor.

[1] Tevatron New Phenomena, Higgs working group, for the CDF collaboration, DZero collaboration, «Combined CDF and DZero Upper Limits on Standard Model Higgs-Boson Production with up to 4.2 fb-1 of Data,» ArXiv, 24 Mar 2009. Nota: resultados con una luminosidad de 2,0-3,6 fb-1 en el CDF, y 0,9-4,2 fb-1 en el DZero.

[2] The CDF, the DZero Collaborations: T. Aaltonen, et al. «Combination of Tevatron searches for the standard model Higgs boson in the W+W- decay mode,» ArXiv, 25 Jan 2010. Nota: resultados con una luminosidad de  4,8 fb-1 en el CDF, y 5,4 fb-1 en el DZero.

[3] The CDF Collaboration: T. Aaltonen, et al. «Inclusive Search for Standard Model Higgs Boson Production in the WW Decay Channel using the CDF II Detector,» ArXiv, 25 Jan 2010.

[4] The DZero Collaboration, «Search for Higgs boson production in dilepton and missing energy final states with 5.4 fb-1 of p-pbar collisions at sqrt(s) =1.96 TeV,» ArXiv, 25 Jan 2010.

Los interesados en más información sobre la búsqueda del bosón de Higgs disfrutarán del artículo (gratis) de la profesora Gail G. Hanson, «Searching for the Higgs,» Physics 2: 106, 14 Dec 2009. Los que tengan acceso universitario a Nature, también podrán hacerlo con Jenny Hogan, «Behind the hunt for the Higgs boson,» News, Nature 445: 239, 18 Jan 2007.  También merece la pena leer el artículo del «padre» de la «partícula de Dios,» el Premio Nobel de Física (1988) Leon Lederman, «The God particle et al.,» Nature 448: 310-312, 19 July 2007.

Y ya que estamos, no puedo dejar de recomendar para todos los aficionados a la física de partículas elementales el interesantísimo suplemento de Nature dedicado al LHC del CERN, que contiene 8 artículos de acceso gratuito para todos «Nature Insight: The Large Hadron Collider,» 448: 269-312, 2007. El que más me gusta releer es el del también Premio Nobel de Física (1999) Gerard ‘t Hooft, «The making of the standard model,» Nature 448: 271-273, 19 July 2007.

Posible observación en el Tevatrón de un bosón de Higgs supersimétrico de baja masa

Un nuevo estudio del experimento CDF del Fermilab ha buscado bosones de Higgs supersimétricos de baja masa (4 GeV/c²) en desintegraciones de quarks top de tipo t → H± b → W± A b → W± b τ τ, el top se desintegra un bottom y un Higgs supersimétrico cargado, que a su vez se desintegra en un bosón W y un Higgs neutro, que a su vez produce un par de leptones tau. El nuevo estudio mata dos pájaros de un solo tiro, siendo la evidencia más fuerte hasta el momento de la supersimetría y de la existencia del bosón de Higgs. No nos engañemos, todavía es pronto para proclamar un descubrimiento definitivo. Pero la evidencia clama al cielo. Observad en la figura de la izquierda cómo los datos experimentales observados (triángulos naranjas) siguen la curva predicha teóricamente (curva naranja). La evidencia es fuerte, aunque no definitiva.

Nos cuenta el descubrimiento de primera mano en R. Erbacher, A. Ivanov, and W. Johnson for the CDF Collaboration, «Search for NMSSM Higgs in Top Quark Decays,» Public Conference Note, Jan. 7, 2010. Lo destaca en su blog Tomasso Dorigo, «Plot Of The Week – Supersymmetric Higgs Bosons Of The Third Kind,» Quantum Diaries Survivor, Jan. 21, 2010, que promete en una futura entrada explicar el descubrimiento. Y la mula Francis no podía ser menos. Así que trataré de explicar qué son estos bosones de Higgs supersimétricos. Esperemos que lo logre… Por cierto, quizás alguien quiera leer antes a Kanijo en «En la búsqueda de un bosón de Higgs ligero,» Ciencia Kanija, 20 oct. 2008, y en «Confiamos en SUSY: Lo que realmente busca el LHC,» Ciencia Kanija, 13 nov. 2009. O incluso a MiGUi, «Buscando la supersimetría en el LHC: la esperanza de la teoría de cuerdas,» 12 nov. 2009.

El teorema CPT afirma que toda teoría cuántica de campos es invariante ante transformaciones simultáneas que involucren la conjugación de carga (C), operación en la que todas las partículas se substituyen por sus antipartículas, la inversión de la paridad (P), en la que se cambia la dirección del espín de todas las partículas por su opuesta, y la inversión temporal (T), en la que se invierte el sentido de la flecha del tiempo. Se sabe experimentalmente que ciertas partículas violan la simetría CP, lo que permite explicar la asimetría entre materia y antimateria tras los primeros momentos de la Gran Explosión.

El bosón de Higgs es una partícula predicha por el Modelo Estándar y sus extensiones que todavía no ha sido encontrada. En el Modelo Estándar mínimo existe un sólo bosón de Higgs que es una partícula escalar neutra. ¿Viola o conserva la simetría CP el bosón de Higgs? Si el bosón de Higgs conserva la simetría CP necesariamente tiene que haber al menos dos bosones de Higgs neutros, uno con simetría CP-par y otro con simetría CP-impar. Si hay un solo bosón de Higgs, debe violar la simetría CP y se asume que será CP-par. Esta última es la predicción del Modelo Estándar mínimo.

La supersimetría es una simetría física que asocia a cada partícula elemental del modelo estándar otra partícula gemela, su supercompañera, de tal forma que si la partícula es un bosón (fermión), la superpartícula será un fermión (bosón). Como la supersimetría no se observa a baja energía, la supersimetría debe ser una simetría rota y por tanto la superpartícula tiene que tener una masa mucho mayor que la masa de la partícula. Quizás por ello no hemos observado todavía ninguna superpartícula. Hay muchas maneras de introducir supersimetrías en el Modelo Estándar, es decir, se pueden añadir muchas supersimetrías a las simetrías del modelo estándar. La versión más sencilla se denomina Modelo SuperSimétrico Mínimo (MSSM). En una teoría supersimétrica hay como mínimo cinco bosones de Higgs: tres partículas neutras y dos partículas cargadas de carga opuesta. Si la simetría CP se conserva, entre los tres bosones de Higgs neutros, tiene que haber dos bosones de Higgs con simetría CP-par, uno pesado y otro ligero (H y h), donde se supone que el pesado (H) es el bosón de Higgs del Modelo Estándar, y un bosón de Higgs con simetría CP-impar (A). Los otros dos bosones de Higgs cargados (H±) tienen simetría CP opuestas. En el Modelo SuperSimétrico Siguiente-al-Mínimo (NMSSM), que incluye un supercampo adicional, hay siete bosones de Higgs, tres bosones neutros con simetría CP-par (h1, h2, h3), dos bosones neutros con CP-impar (a1, a2), y un par de Higgs cargados (H±).

¿Qué masas pueden tener estos bosones de Higgs supersimétricos? Igual que el Modelo Estándar no predice la masa del bosón de Higgs, la supersimetría tampoco permite predecir la masa de sus bosones de Higgs (los responsables de que este rota a baja energía). De hecho, podrían existir bosones de Higgs de baja masa que se hayan producido en el LEP del CERN y se estén produciendo en el Tevatrón del Fermilab ahora mismo que escapen a los detectores, porque sus modos de desintegración no están entre los que se han buscado o porque los detectores de estos experimentos no son sensibles a dichos modos de desintegración. Por ejemplo, en el Tevatrón es muy difícil detectar bosones de Higgs cuya masa sea menor que el doble de la masa del quark bottom (b).

Sorprende saber que hay una anomalía en los datos del LEP2 del CERN que apunta hacia un bosón de Higgs supersimétrico. En teoría uno esperaría que un bosón vectorial W no debería tener más preferencia por desintegrarse en leptones de una familia concreta que en cualquiera de las otras tres. A esto se le denomina «universalidad leptónica.» Los datos del LEP indicaron que BR(W →μ ν)/BR(W →e ν) = 0,994 ± 0,020, de acuerdo con la universalidad. Sin embargo, BR(W→τ ν)/BR(W →e ν)  = 1,070 ± 0,029, y BR(W→τ ν)/BR(W →μ ν)  = 1,076 ± 0,028, que están en desacuerdo con la universalidad en más de dos desviaciones típicas (en 2,8 σ). ¿Qué dice el Tevatrón del Fermilab al respecto? Poco, ya que es casi «ciego» a este tipo de procesos. Por el momento se ha observado que  BR(W→τ ν)/BR(W →e ν)  = 0,99 ± 0,04 (stat) ± 0,07 (syst), es decir, 0,99 ± 0,08, ya que 0,08 = √( (0,04)²+(0,07)²). Este resultado está de acuerdo con la universalidad leptónica pero aún así la banda de error es muy grande y el resultado no puede competir en exactitud con el obtenido por el LEP2 (mucho más sensible a este tipo de procesos).

Los datos de LEP2 descartan a los bosones de Higgs supersimétricos del modelo MSSM con gran probabilidad. De hecho, el bosón de Higgs neutro ligero (h) debería tener una masa del orden de o inferior a la del bosón vectorial W, de hecho, inferior a 82 GeV/c2. Sin embargo, no descartan el modelo NMSSM en el caso de que el bosones de Higgs neutros a1 y a2, llamados de forma genérica A, tengan una masa muy pequeña, menor del doble que la masa del quark bottom (b). En dicho caso sería razonable que los bosones de Higgs cargados H± tuvieran una masa superior pero del orden de la masa del bosón vectorial Z, es decir, unos 100 GeV/c2. Estos bosones de Higgs cargados serían fácilmente observables en el Tevatrón del Fermilab y que la probabilidad (BR) de la desintegración H±→W± A, es siempre mayor que 1/2 para una masa aproximada m(H±)≈100 GeV/c2.

En este blog también podrás leer otras entradas como:

El bosón de Higgs podría ser la primera partícula supersimetría en ser descubierta, 18 Julio 2009.

El bosón de Higgs tiene una masa de 120,7 GeV según predice el físico teórico John Ellis, 27 Agosto 2009.

La susy te da sorpresas, sorpresas te da la susy, ay Dios…, 6 Noviembre 2008

Qué aprenderemos del mundo si se descubre el bosón de Higgs en el LHC del CERN, 30 Septiembre 2008

Sobre el descubrimiento de la supersimetría en el LHC del CERN, 27 Septiembre 2008

La masa en reposo del bosón de Higgs (o mi obsesión mientras paseo, pese a mi mujer), 13 Julio 2008.

Todo lo que siempre has querido saber sobre la anomalía de las sondas Pioneer

Lo siento, yo no te lo voy a contar, no voy a traducir 163 páginas de documentación sobre lo que de verdad se sabe sobre la anomalía de las sondas Pioneer. Todas tus preguntas (salvo la más importante, por qué se produce) sobre la anomalía de las sondas Pioneer te las contestará el artículo de revisión de 163 páginas de Slava G. Turyshev, Viktor T. Toth, «The Pioneer Anomaly,» ArXiv, 20 Jan 2010. ¡Ah, que todavía no lo sabes! La anomalía de las sondas Pioneer se refiere a la aparente aceleración que las sondas Pioneer 10 y 11 han mostrado cuando se encontraban a distancias del Sol entre 20 y 70 UA (unidades astronómicas). Esta aceleración aP = (8,74 ± 1.33) × 10-10 m/s2 viola aparentemente la ley de gravitación universal de Newton (la ley de la inversa del cuadrado) y actualmente no tiene ninguna explicación definitiva, aunque se han propuesto muchísimas explicaciones posibles (más o menos convincentes). El artículo de Turyshev y Toth menciona alguna de esta especulaciones, pero no se recrea en ellas, ni pretende presentar de forma sistemática todas las que hay.

Hoy en día, la existencia de la anomalía no puede ser puesta en duda. Sin embargo, los nuevos análisis de los datos radiométricos de las Pioneer indica que la aceleración anómala no es constante sino que va decreciendo ligeramente conforme pasa el tiempo (como muestra la figura de la izquierda). Además, la dirección a la que apunta la aceleración anómala tampoco está clara (tiene un error de unos 3º). Podría apuntar al Sol (1 en la figura de la derecha), hacia la Tierra (2 en la figura), en la dirección opuesta a la velocidad de la sonsa (3 en la figura) o en la dirección del eje central de la sonda (4 en la figura). La anomalía se ha observado en la Pioneer 10 hasta una distancia de 70 UA, y en la Pioneer 11 desde una distancia de 20 UA, sin embargo, no se sabe si la anomalía estaba presenta a distancias más pequeñas. La anomalía presenta un error sistemático oscilatorio con variaciones diarias y anuales claramente visibles, pero no se sabe si tienen algo que ver con la explicación de la anomalía. Las Pioneer también presentan una anomalía de espín, pero no se sabe si está relacionada con la aceleración anomalía. Finalmente, la explicación menos esotérica, que la anomalía es debida a una radiación de calor de los motores anisótropa no se puede descartar, ya que se cree que ha sido subestimada en estudios anteriores.

Los autores de este artículo de revisión han emprendido un proyecto de investigación exhaustivo que reanalizará todos los datos telemétricos de las sondas Pioneer 10 y 11 mediante un nuevo software de análisis de datos y esperan que en menos de una década el problema de la anomalía de las sondas Pioneer sea resuelto. Esperemos que así sea.

Más sobre la anomalía de las Pioneer en este blog:

Los satélites de Neptuno podrían descartar una solución gravitatoria a la anomalía de las sondas Pioneer, 18 Diciembre 2009;

Disipación térmica asimétrica como causa de la anomalía de las sondas Pioneer, 20 Noviembre 2009;

Posible solución relativista a la anomalía de las sondas Pioneer, 20 Octubre 2009;

Otra explicación numerológica para la anomalía de las sondas Pioneer 10 y 11, 18 Octubre 2009;

Aceleración planetaria de sondas espaciales: Una anomalía y una fórmula que buscan una explicación, 10 Octubre 2009;

La explicación española de la anomalía de las sondas Pioneer, 15 Septiembre 2009;

Los últimos datos sobre la anomalía de las sondas Pioneer apuntan a la materia oscura y a nueva física más allá del Modelo Estándar, 3 Julio 2009;

La anomalía de la sonda Pioneer y la incertidumbre en la órbita de Plutón, 4 Mayo 2009;

Descubrimientos recientes sobre la anomalía de las sondas Pioneer (Earth flyby anomaly en 5 sondas espaciales), 5 Marzo 2008; y

El sistema solar como un gran laboratorio para la gravedad (o ideas sobre la anomalía de las sondas Pioneer), 28 Enero 2008.

Publicado en Science: Un protozoo «ingeniero» capaz de diseñar una red de ferrocarriles

Fotografía del experimento (arriba) y resultados del algoritmo biológicamente inspirado desarrollado por los autores (abajo). (c) Science

El protozoo (antes considerado un hongo) llamado  Physarum polycephalum es capaz de encontrar el camino más corto en un laberinto (Premio Ig Nobel 2008 de Ciencias cognitivas) cuando el hambre aprieta. Un nuevo estudio publicado en Science muestra que puede resolver otros problemas de optimización, como el problema del transporte de coste mínimo en una red. Se han depositado muestras de comida en un placa que emula en miniatura las posiciones de las ciudades que rodean Tokio. El protozoo ha desarrollado una red de túbulos que conecta dichas «ciudades» tan buena como la red de ferrocarriles que conecta dichas ciudades japonesas. Una red robusta, con un costo casi óptimo, gran eficiencia y tolerante a fallos. La población de protozoos ha sido capaz de encontrar casi la misma solución que un ingeniero humano. Realmente sorprendente. Lo mejor del trabajo del protozoo es que su solución no requiere un control centralizado y representa una solución escalable para entornos de programación distribuidos. Los investigadores han desarrollado un modelo de optimización que imita el comportamiento del protozoo y que ofrece un nuevo algoritmo biológicamente inspirado para la resolución de problemas de transporte. Los autores creen (o afirman) que este algoritmo es más robusto que otros algoritmos desarrollados con anterioridad (aunque sólo lo han aplicado a problemas «fáciles»). El artículo técnico es Atsushi Tero et al., «Rules for Biologically Inspired Adaptive Network Design,» Science 327: 439-442, 22 January 2010. A los que tengan acceso a Science, les resultará interesante la perspectiva de Wolfgang Marwan, «Amoeba-Inspired Network Design,» Science 327: 419-420, 22 January 2010, aunque a mí me ha gustado más el artículo original (en particular el enfoque de Biología de Sistemas que presenta Marwan no me convence).

Las redes de transporte son una parte crítica de muchas de las infraestructuras que se necesitan para sostener la sociedad industrial moderna. Estas redes favorecen el transporte de personas, recursos, energía e información. La mayoría de las redes actuales han sido diseñados paso a paso sin la guía de un diseño óptimo desarrollado antes de iniciar su desarrollo. Por ello muchas de estas redes no son robustas ni tolerantes a fallos. Hay muchos ejemplos famosos de redes de transporte eléctrico que han fallado, líneas de transporte de equipajes en aeropuertos, redes de transporte de mercancías, redes financieras, etc. Con objeto de mejorar la robustez y tolerancia a fallos de estas redes hay que introducir nuevas conexiones redundantes. 

Muchos seres vivos y sistemas biológicos desarrollan redes que mejoran su capacidad de adaptación al entorno, siempre cambiante. Las técnicas de optimización se han inspirado en muchas ocasiones en las soluciones desarrolladas por la evolución (redes de neuronas artificiales, algoritmos genéticos o algoritmos de colonias de hormigas son algunos ejemplos). El artículo de Tero et al. han estudiado al protozoo Physarum polycephalum con objeto de obtener inspiración para desarrollar nuevos algoritmos de optimización biológicamente inspirados. Physarum es un tipo de ameba unicelular que vive en colonias y que distribuye en forma de redes de túbulos que conectan las fuentes de comida disponible para la colonia. Los arcos que unen las fuentes de comida forman una red de longitud mímina (red de Steiner) con ciertos cruces de líneas adicionales que se cree que tienen como utilidad mejorar la eficiencia y robustez ante fallos de la red (la desconexión de parte de la red debido a causas ambientales o al efecto de depredadores).

Tero et al. han colocado una red de 36 fuentes de comida (FS) que representan la localización geográfica de diferentes ciudades en el área de Tokio. La colonia de Physarum plasmodium se colocó inicialmente en la posición que correspondía a Tokio. La imagen muestra varias etapas de la evolución de la colonia. La red resultante se parece bastante a la red de ferrocarril que conecta de dichas ciudades. Las diferencias son debidas a la topografía del terreno (montañas, ríos) que no han sido introducidos en el experimento con el protozoo. Como el Physarum evita las luces brillantes, se ha reproducido la topografía del terreno mediante una serie de luces brillantes y se ha logrado una red cuyo parecido a la red de ferrocarril real ha sorprendido a los propios investigadores.

Para los informáticos será interesante saber que los investigadores han desarrollado un nuevo algoritmo de optimización que se inspira en el comportamiento del protozoo. El modelo matemático construye la red de forma adaptativa emulando el desarrollo de túbulos de diferente grosor en los que se mueve el protozoo siguiendo líneas de corriente dadas por un flujo de Hagen-Poiseuille: el flujo del tubo se caracteriza por una viscosidad constante y cada tubo se caracteriza por una conductividad efectiva. El valor de esta conductividad se actualiza mediante un algoritmo adaptativo que tiene en cuenta que el fluido total en la red de tuberías se conserva. Los detalles del algoritmo están bien explicados en el artículo aunque su implementación en software no parece trivial. El algoritmo presenta varios parámetros que permiten controlar su eficiencia y el artículo no indica en detalle cómo han de ser ajustados para obtener los mejores resultados posibles. Aún así, los resultados del algoritmo parecen prometedores.

Teoría de cuerdas y holografía cuántica como medio para entender la turbulencia en fluidos clásicos

Se atribuye a Albert Einstein la siguiente frase: “Voy a preguntar a Dios dos cuestiones: el porqué de la relatividad y el porqué de la turbulencia. Soy optimista en obtener respuesta a la primera cuestión”. El premio Nobel de Física Richard Feynman dijo que la turbulencia era “el problema aún no resuelto más importante de la física clásica”. El problema de la turbulencia es uno de los 7 problemas del milenio del Instituto Clay de Matemáticas dotado cada uno con 1 millón de dólares. La turbulencia [1] es el comportamiento aparentemente aleatorio de un fluido a altos números de Reynolds que observamos por doquier en la Naturaleza, en la atmósfera, en los océanos, en el interior de las estrellas o en el interior de los cilindros del motor de tu coche. Enumerar todas las aplicaciones de la turbulencia nos llevaría muchos párrafos. Hay varias teorías que tratan de explicar la turbulencia, que parten de las ideas estadísticas originales del ruso Andrey Kolmogorov y del análisis de ecuaciones de Navier-Stokes realizado por el francés Jean Leray [1]. Sin embargo, el problema de la turbulencia, entender cómo se genera el régimen turbulento a partir de las ecuaciones de Navier-Stokes y unas condiciones de contorno adecuadas, sigue aún abierto y promete estarlo durante mucho tiempo. En mi opinión habría  que hablar del problema de las turbulencias, ya que los múltiples regímenes turbulentos que se observan experimentalmente podrían tener explicaciones diferentes.

[1] Diego Córdoba, Marco Antonio Fontelos, José Luis Rodrigo, «Las matemáticas de los fluidos: torbellinos, gotas y olas,» La Gaceta de la RSME 8: 53-83, 2005.

Las ideas de Wheeler sobre gravedad cuántica a la escala de Planck implican que el espaciotiempo es caótico y estocástico, una espuma cuántica que se comporta como un fluido en régimen turbulento y que presenta una ley de escala similar a la ley de escala de Kolmogorov para la turbulencia. Por ello muchos científicos han tratado de aplicar ideas del campo de la turbulencia al espaciotiempo a escala cuántica. Alexander A. Migdal [2,3] dio un paso más allá e interpretó las ecuaciones de Navier-Stokes como una ecuación de Schrödinger efectiva para la función de onda que describe los bucles de Wilson (un concepto técnico en el que no entraré) asociados al campo de velocidad clásico. Un retrueque técnico realmente curioso que Migdal desarrolló con objeto de entender el espaciotiempo cuántico en términos de la teoría de la turbulencia, pero que también podía tener aplicaciones a la hora de entender la turbulencia utilizando técnicas matemáticas de física cuántica (teoría cuántica de campos). Ahora le ha tocado el turno a los físicos especialistas en teoría de cuerdas.

[2] Alexander A. Migdal, «Loop Equation and Area Law in Turbulence,» Int. J. Mod. Phys. A 9: 1197-1238, 1994 [ArXiv preprint, 1993].

[3] Alexander A. Migdal, «Turbulence as Statistics of Vortex Cells,» ArXiv preprint, 29 Jun. 1993.  

Los expertos en teoría de cuerdas dominan herramientas matemáticas de extrema complejidad que podrían tener aplicaciones en ramas de la física menos exóticas que la física de altas energías a la escala de Planck y la gravedad cuántica. Ramas de la física más próximas al experimento (ya que los aceleradores de partículas del tamaño de nuestra galaxia serán difíciles de construir durante el presente milenio). Las técnicas de dualidad tipo AdS/CFT ya han encontrado aplicaciones en física del estado sólido y los expertos en dichas técnicas, con ojo avisor, buscan otras en otros campos. Ahora le ha tocado a la turbulencia. Vishnu Jejjala de la Universidad de Londres Queen Mary, y sus colaboradores propusieron que la teoría de cuerdas permitía entender las leyes de Kolmogorov para la turbulencia [4] y ahora nos proponen un modelo holográfico para la turbulencia que aspira a entender este fenómeno en 3+1 dimensiones utilizando sólo 2+1 dimensiones gracias a una correspondencia AdS/CFT adecuada [5].

[4] Vishnu Jejjala, Djordje Minic, Y. Jack Ng, Chia-Hsiung Tze, «Turbulence and Holography,» Class. Quant. Grav. 25: 225012, 2008 [ArXiv preprint]. 

[5] Vishnu Jejjala, Djordje Minic, Y. Jack Ng, Chia-Hsiung Tze, «String Theory and Turbulence,» ArXiv, 14 Dec 2009. 

La teoría de cuerdas es una teoría de la gravedad cuántica que modela el espaciotiempo a la escala de Planck como una espuma espaciotemporal que parece turbulenta, por ello Jejjala et al. proponen aplicar la ecuación de Wheeler–DeWitt a la turbulencia. La solución de esta ecuación sería la función de onda cuántica del espaciotiempo que los autores proponen que podría describir la densidad de probabilidad que modela la turbulencia. Lo curioso es que un modelo holográfico del espaciotiempo (basado en la correspondencia AdS/CFT) presenta invarianzas de escala similares a las que presenta la teoría de Kolmogorov que modela la distribución de energía entre las distintas escalas espaciales en la turbulencia, conocida como cascada de energía turbulenta. El primer artículo de Jejjala et al. [4] presentaba estas ideas con objeto de deducir las leyes de invarianza de escala de Kolmogorov para la turbulencia en 3+1 dimensiones (ley de los 4/3) y para la turbulencia en 2+1 dimensiones (ley del 2/3), así como las leyes de escala en 2+1 dimensiones de Kraichnan.

El segundo artículo de Jejjala et al. [5] es más reciente y me parece más interesante. En teoría de cuerdas, el concepto de holografía se refiere a la posibilidad de hacer una correspondencia entre una teoría de campos en un espaciotiempo en 3+1 dimensiones y otro espacio tiempo de 2+1 dimensiones (que actúa como un borde del primero). En física clásica este tipo de ideas no son extrañas a los que conocen la teoría de ecuaciones en derivadas parciales elípticas (como la ecuación de Laplace o la ecuación de Poisson). La solución en el interior de un dominio acotado viene especificada unívocamente por el valor de la solución en el contorno de dicho dominio. En teoría de cuerdas la idea es similar pero más poderosa. Una teoría de campos de Yang-Mills supersimétrica (SYM) tipo N=4 (con 4 supersimetrías) en 3+1 dimensiones es completamente (exactamente) equivalente a una teoría SYM tipo N=8 (con más supersimetrías, luego más sencilla) en 2+1 (aún más sencilla por su baja dimensionalidad). Las cuerdas en la teoría en 3+1 dimensiones (técnicamente son bucles de Wilson para el área) corresponden a cuerdas y (mem)branas en la teoría en 2+1 dimensiones, de tal forma que las cuerdas permiten explorar el régimen ultravioleta (UV o las distancias cortas) y las (mem)branas el régimen infrarrojo (IR o las distancias grandes). Todo cálculo en 3+1 dimensiones se reduce a un cálculo adecuado en 2+1 dimensiones. Más aún, todo cálculo con cuerdas (UV) tiene un análogo con (mem)branas (IR). Esta dualidad permite desarrollar con detalle cálculos en la teoría en 3+1 dimensiones que serían prácticamente imposibles sino fuera por la posibilidad de trabajar en 2+1 dimensiones y pasando de los regímenes UV y IR a conveniencia. Estas ideas se ilustran en la parte más a la izquierda de la figura de abajo.

Siguiendo con la figura, ahora arriba, la parte central es la propuesta de Jejjala et al. [5]. El flujo turbulento en 3+1 dimensiones que cumple la invarianza de escala de Kolmogorov se puede describir utilizando teoría cuántica de campos y bucles de Wilson, de forma que, gracias a la aplicación de técnicas de teoría de cuerdas, equivale a un flujo turbulento en 2+1 dimensiones descrito por una teoría cuántica de campos con dos regímenes: el ultravioleta, que da origen a las invarianzas de escala de Kolmogorov, y el infrarrojo, que da origen a las invarianzas de Kraichman. La analogía es bastante interesante. Como ilustra la figura más a la derecha, el proceso de inicio de la turbulencia por una cascada de energía de Kolmogorov corresponde, en la analogía cuántica, a la ruptura de un bucle de Wilson grande en una serie de bucles de Wilson más pequeños. Realmente curioso.

Por ahora, el trabajo de Jejjala et al. está todavía en pañales. Sin embargo, el enorme arsenal de técnicas matemáticas desarrolladas por los teóricos de cuerdas y físicos teóricos cuánticos durante los últimos 40 años, hasta ahora fuera del alcance de los especialistas en turbulencia, podría llegar a revolucionar nuestra comprensión de este difícil fenómeno, que hasta ahora ha escapado a todos nuestros ataques.

En este blog también puedes leer: La correspondencia AdS/CFT, 16 Septiembre 2009. La teoría de cuerdas y el secreto de los superconductores de alta temperatura, 22 Julio 2009. Gran éxito de la teoría de cuerdas en el estudio de las transiciones de fase cuánticas en líquidos de Fermi, 26 Junio 2009.

Publicado en Nature: La cooperación entre espermatozoides, los carotenoides y la importancia de la ticopartenogénesis

En la película «Avatar» de James Cameron, de la que aún no hemos hablado en este blog, todos los seres vivos son hexápodos (tienen 6 extremidades, como los prolemures de la imagen de la izquierda) excepto unos pocos que son cuadrúpedos (como los humanoides azules). La evolución por selección natural y sexual tiene estas cosas, algunos pocos linajes divergen del resto. Por ejemplo, hay unos cientos de especies animales en la Tierra que se reproducen por partenogénesis, los embriones de las hembras evolucionan a partir de huevos no fertilizados por machos. La reproducción sexual apareció hace mucho tiempo, entre 3,5 y 2 mil millones de años. ¿Por qué hay seres vivos que se reproducen por partenogénesis? Un nuevo estudio sugiere que la razón es una realimentación positiva que aprovecha la ticopartenogénesis («tychoparthenogenesis«), el hecho de que, en algunas especies, una pequeña proporción de huevos no fecundados pueden eclosionar de forma espontánea  y se convierten en hembras. Los investigadores han utilizado modelos por ordenador para demostrar que la ticopartenogénesis se puede realimentar de forma positiva, limitando el número de embriones machos y provocando que en algunas especies la selección natural prefiera que las hembras se reproduzcan por partenogénesis. Una inestabilidad biológica que hace crecer un fenómeno muy excepcional y que lo acaba convirtiendo en lo habitual. Nos lo cuentan en «Evolutionary biology: How girls go solo,» Nature 463: 272, 21 January 2010, haciéndose eco del artículo de Tanja Schwander1 et al., «Positive feedback in the transition from sexual reproduction to parthenogenesis,» Proceedings of the Royal Society B, Biological Sciences, Published online before print January 13, 2010.

Entras en una habitación y hueles cierto olor. No sabes bien dónde está, pero si insistes acabarás encontrando la fuente de dicho olor. Olisqueando acabarás encontrando la dirección en la que el olor es más intenso. El movimiento browniano, en última instancia, es el responsable. Hay moléculas de la substancia olorosa por doquier pero con mayor concentración en la dirección de la fuente. ¿Serías capaz de encontrar el olor en un laberinto? Quizás sí, quizás no, pero tu perro seguro que es capaz. Un gradiente de pH (acidez) produce tensiones en la superficie de una gota de aceite que provoca su movimiento en un canal estrecho. La gota se mueve en la dirección en la que el gradiente es máximo. En un laberinto, dicho gradiente máximo estará en el camino «correcto» hacia la fuente del ácido. A algunos les parece absurdo que una «gota de aceite resuelva un laberinto,» Lisandro Pardo, 15 de enero de 2010 [visto en Menéame]. Pero si uno lo piensa bien, el movimiento browniano de las moléculas del ácido es el secreto que el mago oculta tras la chistera. Nos lo cuentan brevemente en «Chemistry: Chase acid, solve maze,» Nature 463: 272, 21 January 2010, haciéndose eco del artículo de István Lagzi et al., «Maze Solving by Chemotactic Droplets,» J. Am. Chem. Soc., Article ASAP, January 11, 2010.

¡Y quién le importa que una gota de aceite sea capaz de resolver un laberinto! Como nos cuenta Lisandro, el proyecto de los investigadores busca encontrar formas más eficientes para la distribución en el cuerpo humano de medicinas para luchar contra el cáncer. La química y la física explican perfectamente la «inteligencia» de las gotas de aceite. ¿No serán los mismos principios físicos los que explican cómo resuelve laberintos un moho?  Quizás, pero bueno, si en dicho caso concedieron un Ig Nobel, seguramente en este caso también acabará cayendo. Enhorabuena a los investigadores por anticipado.

El hábito no hace al monje. La librea era el uniforme que los nobles y señores hacían llevar a sus criados. La librea de muchos pájaros es un indicador de la calidad de su esperma y de la fertilidad de los machos que la portan. Los espermatozoides son muy vulnerables a los radicales libres y los ornamentos sexuales de muchos pájaros presentan carotenoides que tienen una función protectora ante el estrés oxidativo. Así lo demuestra un estudio en carboneros comunes (Parus major), que se puede considerar la primera evidencia de que los ornamentos y la calidad del esperma pueden estar vinculados a través del estrés oxidativo. De hecho, el estudio logró mejorar la calidad del esperma de los machos con ornamentos menos coloridas gracias a suplementos alimentarios a base de carotenoides. Nos lo han contado en «Evolutionary Biology: Sperm signals,» Nature 463: 273, 21 January 2010, haciéndose eco del artículo de Fabrice Helfenstein et al., «Sperm of colourful males are better protected against oxidative stress,» Ecology Letters 13: 213-222, 4 Jan 2010.

La lucha por fertilizar a las hembras y lograr preservar nuestro genoma tiene su mejor expresión en la cooperación entre espermatozoides que se observa en las especies animales cuyas hembras son más promiscuas. Hay que vencer a la competencia sea como sea. Así lo ha mostrado un estudio del esperma de varias especies de ratones ciervo, ratones norteamericanos del género Peromyscus. Las hembras de los ratones ciervo de la especie Peromyscus maniculatus son mucho más promiscuas sexualmente que las hembras de la especie Peromyscus polionotus (que son monógamas). Los espermatozoides forman grupos con objeto de cooperar entre ellos para aumentar su velocidad de natación y obtener una ventaja competitiva a la hora de alcanzar el óvulo. En la especie de ratones monógamos, P. polionotus, los espermatozoides de un macho cooperan por igual con los espermatozoides de otros machos, sin distinción. Sin embargo, en la especie más promiscua P. maniculatus, son capaces de reconocer a sus «hermanos» y unirse sólo a ellos para nadar más rápido hacia el óvulo y vencer así al de machos rivales. Este comportamiento es observa en el esperma de la mayoría (más del 90%) de los mamíferos, sin embargo, sorprende que no se observe en los espermatozoides del hombre. Egoístas ellos no colaboran entre sí formando agregados que les faciliten hidrodinámicamente fertilizar el óvulo. Quizás porque los humanos no presentamos un periodo de celo estacional, estamos en celo permanentemente. El artículo técnico es Heidi S. Fisher, Hopi E. Hoekstra, «Competition drives cooperation among closely related sperm of deer mice,» Nature, Advance online publication 20 January 2010. Muchos medios se han hecho eco de esta noticia, como Público [visto en Menéame]. Los interesados en más información sobre estos temas pueden recurrir al libro de Tim Birkhead, «Promiscuity: An Evolutionary History of Sperm Competition.» La información suplementaria del artículo técnico incluye el siguiente vídeo, muy breve, de espermatozoides de P. maniculatus formando agregados.

Publicado en Nature: El IPCC se retracta, los glaciares del Himalaya no desaparecerán en 2035

Enciendes la televisión, sale el telediario de Intereconomía y comenta esta noticia. Curioso, aunque no tanto, se ha publicado en Nature. Los informes del IPCC (Intergovernmental Panel on Climate Change) los redactan un gran número de científicos que siguen un protocolo muy estricto. Los redactores de los informes pueden utilizar resultados publicados en congresos internacionales, revistas no impactadas y otras fuentes sin revisores o con una revisión por pares laxa, actuando ellos mismos de revisores. Ellos son expertos, luego pueden hacerlo sin problemas. Lo que pasa es que, a veces, igual que a las revistas con revisión por pares estricta, se la cuelan o se les cuela. El informe del IPCC de 2007 estimaba que los glaciares del Himalaya desaparecerían alrededor del año 2035, todo el hielo se descongelaría al menos una vez al año en unos 25 años. Exagerado, obviamente. Pero así son los informes técnicos que se basan en estimaciones de modelos predictivos por simulación. Los expertos siempre los cogen con alfileres. El problema es que ahora todo el mundo mira con lupa al IPCC y se ha descubierto que la fuente de dichos datos, un informe publicado en 2005 por un glaciólogo indio, no es fiable. El Dr. Syed Iqbal Hasnain fue entrevistado por la revista New Scientist y afirmó que sus conclusiones eran «especulativas,» que partían de un informe anterior, de 1999, del Working Group on Himalayan Glaciology, del International Commission on Snow and Ice. Que ni el mismo se creía los resultados de dicho informe, aunque los reportaba en el suyo. Ahora parece que todos los expertos están de acuerdo. Los resultados indican que los glaciares del Himalaya no desaparecerán, al menos, durante el s. XXI. Seamos optimistas. Son buenas noticias. Al mal tiempo, buena cara. Nos lo cuentan Quirin Schiermeier, «Glacier estimate is on thin ice. IPCC may modify its Himalayan melting forecasts,» News, Nature 463: 276-277, 19 January 2010, y muchísimos otros medios, hasta en el telediario de Intereconomía y, como no, en Menéame. Por cierto, allí nos apuntan a Randeep Ramesh, «India ‘arrogant’ to deny global warming link to melting glaciers. IPCC chairman Rajendra Pachauri accuses Indian environment ministry of ‘arrogance’ for its report claiming there is no evidence that climate change has shrunk Himalayan glaciers,» The Guardian, Nov. 2009.

Para un físico de partículas elementales un protón es como una bolsa de basura

Tommaso Dorigo es un físico de partículas elementales que colabora con el experimento CDF del Tevatrón en el Fermilab (EEUU) y con el experimento CMS del LHC del CERN (Europa). Es famoso por su blog «A Quantum Diaries Survivor,» en el que nos pone al día de los avances más interesantes en física de partículas elementales desde el punto de vista experimental y a veces también desde el punto de vista teórico. Su blog es el mejor que yo conozco sobre estos temas. Una de sus últimas entradas «Triggering – The Subtle Art Of Being Picky,» January 17th 2010, me ha llamado la atención y creo que su descripción de lo que es un protón para un físico de partículas elementales también llamará poderosamente la atención a los lectores de este mi blog.

Las colisiones de hadrones (protón-antiprotón en el Tevatrón y protón-protón en el LHC) son todo lo aburridas que uno pueda imaginar que algo aburrido pueda llegar a ser. Incluso si uno logra acelerar dos hadrones a energías altísimas, cuando uno los hace chocar entre sí es muy difícil que se produzcan colisiones realmente energéticas entre sus constituyentes. La mayoría de la energía se la llevan el resto de los constituyentes de estas partículas, que no colisionan de ninguna manera.

Pongamos el caso del LHC del CERN. Los protones son como bolsas de basura. En la colisión de dos protones, lo normal es que uno atraviese al otro sin que pase absolutamente nada. Los protones prácticamente están vacíos. Sus constituyentes, quarks y gluones, también llamados partones, sí son objetos «duros» y raras veces en las colisiones entre protones se observa que dos partones colisionen (y, por supuesto, cuando lo hacen, lo hacen con una energía muy inferior a la que tenían los protones). En estas raras ocasiones es como si una lata de cerveza de una bolsa de basura colisionara con una botella de ginebra de la otra. Sólo entonces se observa una colisión en los detectores de partículas. Los diferentes trozos de cristal de la botella vuelan en ciertas direcciones y los físicos de partículas se dedican a tratar de reconstruir gracias a sus detectores cual es la marca de ginebra que más le gusta al dueño de la bolsa de basura.

«Protons are like bags of junk, and they are capable of flying one through the other without much happening. The quarks and gluons they contain are «hard» objects instead: it occasionally happens that a tin can inside one bag comes in a collision course with a bottle of gin contained in the other bag, and then -only then- an interesting collision takes place. Glass bits will fly away in specific directions, and we will learn something about the brands that the owner of the bag likes to drink.» Tommaso Dorigo.

Lo peor de todo es que incluso cuando se observan colisiones entre partones, la mayoría no tienen ningún interés científico. Se comportan como cabría esperar según la cromodinámica cuántica (QCD), la teoría de los quarks y de los gluones. Una teoría que ha sido estudiada experimentalmente en los últimos 30 años y que no ofrece nada interesante a los físicos de partículas de la actualidad. De hecho, los sistemas de análisis automático de los resultados de los detectores están preparados para detectar dichas colisiones y descartarlas como colisiones que no tienen ningún tipo de interés (los datos de dichas colisiones ni siquiera son almacenados en disco). El LHC del CERN no se ha construido para que entendamos mejor los procesos debidos a la QCD.

El LHC del CERN se ha construido para estudiar los procesos relacionados con la ruptura de la simetría electrodébil y la posibilidad de física más allá del modelo estándar.  El problema es que los procesos electrodébiles son extremadamente raros, comparados con los procesos de la QCD, cuando se utilizan protones como proyectiles. Se estima que sólo una colisión en cada millón involucra un bosón electrodébil (W o Z). Para producir un solo bosón de Higgs es necesario estudiar más de 10 mil millones de colisiones de pares de protones.

Pero hay un problema añadido, los detectores del LHC del CERN no son 100% eficaces: es imposible que todos los bosones de Higgs que se produzcan sean observados. Por ejemplo, el experimento CMS del LHC será capaz de estudiar los bosones de Higgs que se desintegren en dos bosones Z y que posteriormente se desintegren en 4 muones (H -> ZZ -> 4 muones). Los detectores de muones tienen un eficacia del 90%, luego detectarán 4 muones simultáneamente sólo el 0,9^4=65% de las veces. Como un bosón de Higgs se desintegrará en un par de bosones Z un 20% de las veces (en el mejor caso), y un bosón Z se desintegra en un par de muones sólo un 3,3% de las veces, el resultado es que sólo el 0,65 x 0,2 x 0,033 x 0,033, alrededor del 0,0001 de las desintegraciones de bosones de Higgs en el LHC será detectada en el experimento CMS. Se necesitará producir más de 10.000 Higgs para detectar uno.

Haciendo números, para observar 1.000 bosones de Higgs y poder proclamar que dicha partícula ha sido definitivamente descubierta se requerirán 10 mil millones de desintegraciones en 4 muones, lo que requerirá 100 mil billones de colisiones de pares de protones en el LHC del CERN. En notación científica 10^17 colisiones. Tommaso nos recuerda magistralmente que 10^17 granos de arena son suficientes para cubrir varios cientos de kilómetros de costa. ¿Cuánto tiempo de colisiones continuas se requerirá en el LHC para alcanzar estos números? Tommaso nos asusta. En 7 años de colisiones, obviamente no todo el tiempo estará el LHC a pleno rendimiento, podemos estimar que habrá colisiones durantes unos 100 millones de segundos. Para recolectar 10^17 colisiones se necesitará adquirir, digitalizar y almacenar en disco duro los datos de unos 10^17/10^8= 10^9, o mil millones de colisiones por segundo. Algo prácticamente imposible, por lo que se han diseñado dispositivos capaces de detectar en tiempo real las colisiones interesantes y descartar el resto. Se estima que de cada 40 millones de colisiones por segundo, menos de 300 serán consideradas interesantes y serán almacenadas en disco para su análisis posterior. Una labor que ha requerido muchos años de trabajo de informáticos, ingenieros y científicos que hasta que la fase de pruebas de este año no se complete en su totalidad no se sabrá si logrará cumplir con todas las expectativas.

Los informáticos, ingenieros y demás científicos del CERN están preparados para lograrlo, y lo lograrán. ¡Alucinante!