Se publican los resultados de la primera búsqueda del bosón de Higgs en el LHC del CERN

El experimento CMS del LHC en el CERN excluye el bosón de Higgs en el rango de masas entre 144 y 207 GeV/c² al 95% CL, si existiera una cuarta generación de partículas en el modelo estándar (SM4). En dicho caso, el Tevatrón del Fermilab obtuvo el año pasado la exclusión en el rango de masas entre 131 y 204 GeV/c² al 95% CL. Sólo para tres generaciones de partículas (SM), CMS no ha logrado excluir ningún rango de masas; el resultado oficial sigue siendo el obtenido combinando los datos de CDF y DZero del Tevatrón, la exclusión del rango entre 158 y 175 GeV/c² al 95% CL. Cuando se publique el resultado del experimento ATLAS y se combine con el de CMS, el límite de masas SM4 para el Higgs se estrechará aún más, pero es difícil que con las pocas colisiones obtenidas en 2010 se pueda llegar a excluir el Higgs del SM en algún rango de masas. El artículo estudia sólo el canal de desintegración del Higgs H→WW→llνν, el más prometedor para masas por encima de los 130 GeV/c², con sólo 36 /pb de datos de colisiones y muestra la gran calidad del trabajo que se está haciendo en el LHC del CERN. Se han utilizado dos técnicas estadísticas bayesianas de análisis con resultados similares. En mi opinión, se trata de una buena noticia para todos los aficionados a la física de partículas elementales que están expectantes por saber lo que puede dar de sí el LHC en la búsqueda del Higgs. Todos los interesados en los detalles disfrutarán con el artículo técnico: The CMS Collaboration, “First Measurement of W+W− Production and Search for Higgs Boson in pp Collisions at sqrt(s) = 7 TeV,” CERN-PH-EP-2011-015, 26 Feb. 2011 (el artículo ha sido enviado a la revista Physics Letters B).

Ocho piezas fáciles de Frank Wilczek

Frank Wilczek es Premio Nobel de Física 2004 por sus contribuciones a la cromodinámica cuántica (QCD), la teoría de la interacción fuerte, junto a David Gross y a David Politzer. En 1973, Wilczek, estudiante de doctorado, y Gross, su director de tesis en la Universidad de Princeton, descubrieron la libertad asintótica que afirma que mientras más próximos estén los quarks menor es la interacción fuerte entre ellos; cuando los quarks están muy próximos entre sí se comportan como partículas libres lo que permitió confirmar su existencia en los experimentos. Politzer descubrió la libertad asintótica de forma independiente.

Wilczek tiene una serie de artículos divulgativos sobre cromodinámica cuántica y sobre el modelo estándar que merece la pena leer si te interesa saber algo más sobre estas teorías. Siguiendo la estela de Richard Feynman y sus “Seis Piezas Fáciles” os recopilo ocho de estos artículos a modo de “Ocho Piezas Fáciles” (los artículos están gratis en la página web de Wilczek)

  • QCD Made Simple,” Physics Today, August 2000: “Quantum chromodynamics is conceptually simple. Its realization in nature, however, is usually very complex. But not always.”
  • In Search of Symmetry Lost,” Nature, January 2005: “Powerful symmetry principles have guided physicists in their quest for nature’s fundamental laws. The symmetry-breaking field, the so-called Higgs particles, [will be] produced at the Large Hadron Collider.”
  • Four Big Questions with Pretty Good Answers,” ArXiv, February 2002: “I discuss four big questions that can be importantly addressed using concepts from modern QCD. They concern the origin of mass, the feebleness of gravity, the uniqueness of physical laws, and the fate of matter when it is squeezed very hard.”
  • Anticipating a New Golden Age,” ArXiv, October 2007: “The standard model of fundamental interactions is remarkably successful, but it leaves an unfinished agenda. Several major questions seem ripe for exploration in the near future. I anticipate that the coming decade will be a Golden Age of discovery in fundamental physics.”
  • Unification of Couplings,” Physics Today, October 1991: “Recent high-precision experimental results support the predictions of the minimal supersymmetric 5U(5) model that unifies electromagnetism and the weak and strong interactions.”
  • Enlightenment, Knowledge, Ignorance, Temptation,” ArXiv, December 2005: “I discuss the historical and conceptual roots of reasoning about the parameters of fundamental physics and cosmology based on selection effects. I argue concretely that such reasoning can and should be combined with arguments based on symmetry and dynamics; it supplements them, but does not replace them.”
  • Reference Frame: What Is Quantum Theory?,” Physics Today, June 2000: “I fee that after seventy-five years we are still two big steps away from understanding quantum theory properly.”
  • Asymptotic Freedom: From Paradox to Paradigm,” 2004 Nobel Prize Lecture: “Asymptotic freedom was developed as a response to two paradoxes: the weirdness of quarks, and in particular their failure to radiate copiously when struck; and the coexistence of special relativity and quantum theory, despite the apparent singularity of quantum field theory. It resolved these paradoxes, and catalyzed the development of several modern paradigms: the hard reality of quarks and gluons, the origin of mass from energy, the simplicity of the early universe, and the power of symmetry as a guide to physical law.”

Por cierto, y ya que estamos, también recomiendo:

  • Chris Quigg, “Unanswered Questions in the Electroweak Theory,” Annual Review of Nuclear and Particle Science, November 2009: “The status of the electroweak theory on the eve of experimentation at CERN’s Large Hadron Collider is presented. A compact summary of the logic and structure of the electroweak theory precedes an examination of what experimental tests have established so far. The outstanding unconfirmed prediction of the electroweak theory is the existence of the Higgs boson, a weakly interacting spin-zero particle that is the agent of electroweak symmetry breaking, the giver of mass to the weak gauge bosons, the quarks, and the leptons. General arguments imply that the Higgs boson or other new physics is required on the TeV energy scale.”
  • John Ellis, “To Higgs or Not to Higgs? Searching for Particle Physics Beyond the Standard Model at the LHC and Elsewhere,” ArXiv, 24 February 2011: “Following a general introduction to open questions beyond the Standard Model, the prospects for addressing them in the new era opened up by the LHC are reviewed.”

La respuesta de la ministra Garmendia a la queja de 2500 científicos de 168 instituciones españolas

Tenemos una ministra de Ciencia e Innovación que no nos la merecemos.

Denunciar una fuga de cerebros es insultar a los miles de investigadores de prestigio internacional que trabajan aquí. (…) Pesan demasiado los victimismos, los complejos y los prejuicios sobre la situación de nuestra ciencia, como la idea de que hay que emigrar del país para hacer ciencia de calidad. (…) El pesimismo acompaña a la mentalidad española desde el origen de nuestra ciencia moderna.” Palabras de Cristina Garmendia, ministra de Ciencia e Innovación en EL MUNDO, 24/02/11.

Muchos jóvenes doctorados en España están siendo obligados a emigrar, pero no hay fuga de cerebros. La emigración de trabajadores no es una fuga de cerebros, aunque se lleven en su cerebro un doctorado que ha costado muchos años y mucha inversión para nuestro país. Emigran porque en España hay paro y desempleo. La élite de nuestros mejores cerebros, la élite que puede hacer que en este país el paro y el desempleo se reduzcan, la élite debe emigrar a países donde no haya paro y desempleo (como Alemania o EE.UU.). Deben hacerlo porque pueden hacerlo y porque les conviene hacerlo. No hay fuga de cerebros en España.

Fuera de toda duda, no nos merecemos a nuestra ministra.

“Como el Dr. Bernard Rieux, protagonista y cronista de la novela ‘La peste’, de Albert Camus, la Sra. Garmendia confiesa las razones íntimas que le han llevado a trabajar en silencio y sin descanso por una causa que muchos dan por perdida. Su convicción de trabajar del lado de quienes lo necesitan. (…) Porque nuestra ciencia, nuestros investigadores, merecen mucho, pero no todo ni a cualquier precio.” La Sra. Garmendia nos recuerda que  “como ministra de Ciencia e Innovación ha tenido el privilegio de sentir de cerca ese compromiso de muchos de nuestros investigadores. Quienes después de cada premio, de cada publicación de prestigio, de cada patente o de cada nuevo contrato que firman con una empresa, vuelven al laboratorio para investigar con la misma tenacidad y discreción.”

No nos merecemos a la Sra. Garmendia, una ministra elogiada por doquier.

“El pasado 26 de enero la Comisión Europea invitó a España a participar en un seminario en Bruselas [donde] la comisaria europea del ramo, Máire Geoghegan-Quinn, felicitó al presidente del Gobierno por los ambiciosos objetivos españoles en materia de I+D.”

Sé que volverás a pensar, Francis otra vez dando la coña contra la ministra Garmendia. Pero me parece de vergüenza presumir de recibir elogios por proyectos de futuro, por los ambiciosos objetivos políticos, en lugar de recibir elogios por los logros alcanzados, por los ambiciosos objetivos cumplidos. Me parece de vergüenza la respuesta de la Sra. Garmendia a los “2.500 científicos de 168 instituciones que se quejan por carta a Zapatero denunciando el futuro “sombrío” de la ciencia española,” EFE 22/02/2011.

Me parece de vergüenza… y como tengo un blog lo hago público. Si quieres opinar públicamente en contra o a favor de la respuesta de nuestra Ilustrísima Ministra te animo a usar los comentarios.

PS (26 feb. 2011): Un artículo de un Profesor Titular de Universidad, como yo, que no puedes dejar de leer: Arturo Quirantes, “Carta abierta de un científico sin complejos,” Amazings.es, 25/02/2011. “Aquí no tenemos a Sarah Palin. Tenemos algo peor. Se llama Cristina Garmendia, y es Ministra de Ciencia e Innovación.”

PS (01 mar. 2011): Cantando “La vida te da sorpresas, sorpresas te da la vida ¡ay, Dios!…,” he descubierto en los comentarios a la entrada de Arturo en Amazings.es que la persona más rica (en patrimonio declarado) del gobierno español es “Cristina Garmendia, la titular de Ciencia e Innovación tiene un total 4.978.217 euros. Garmendia declara que parte de los 4.978.217 euros de su patrimonio proceden de herencia. Tiene inmuebles por valor catastral de 1.428.220 euros y otros bienes que suman 3.549.997 euros.” Visto en “Garmendia es la ministra más ´rica´ y Aído la más ´pobre´. La Ministra de Ciencia tiene un patrimonio 24 veces mayor que Zapatero, que asciende a 209.206 euros,” Levante-emv.com, 19/04/2010.

PS (03 mar. 2011): Gran artículo de José Manuel Sánchez Ron (miembro de la Real Academia Española y catedrático de Historia de la Ciencia en la Universidad Autónoma de Madrid), “Juventud, maldito tesoro,” El País, 19 feb. 2011. “En la investigación científica hay que identificar a los genios cuando aún no han eclosionado. En cambio, en España exportamos personas en cuya formación se han gastado cuantiosas sumas y puesto esperanzas.”

José Manuel es un experto en la historia de la ciencia en España y en el resto del mundo y sabe muy bien de lo que habla. Nos ilustra su artículo con “un episodio de la historia de un centro científico de excelencia: el Laboratorio Cavendish de Cambridge (Inglaterra). Fundado en 1871, este laboratorio tuvo como primer director a James Clerk Maxwell (1831-1879), una de las glorias de la ciencia universal. Cuando falleció, la Universidad ofreció el puesto a otro científico sobresaliente, lord Rayleigh (1842- 1919), pero en 1884 este dimitió: quería dedicarse a sus investigaciones y poseía medios económicos suficientes para hacerlo de forma privada. La Universidad anunció entonces que aceptaría candidatos para el puesto. Se presentaron cinco candidaturas: Richard Glazebrook (1854- 1935), Joseph Larmor (1857-1942), Osborne Reynolds (1842-1912), Arthur Schuster (1851-1934) y Joseph John Thomson (1856-1940). A pesar de no ser el más conocido ni el que contaba con más experiencia, el elegido fue Thomson. Tenía entonces 28 años y daría décadas de gloria a su Universidad. Bajo su dirección, el Cavendish se estableció como uno de los laboratorios líderes en la física mundial (el propio Thomson identificó allí, en 1897, al electrón como la carga eléctrica elemental, un trabajo que le reportó el Premio Nobel de Física en 1906). Lo que hizo la Universidad de Cambridge es algo difícil, pero muy importante: identificar el genio cuando este aún no ha eclosionado; el genio que necesita de poder y medios para producir todo lo que lleva dentro. La historia enseña algo que podemos comprender en bases neurofisiológicas y culturales: que en ciencia la creación de conocimiento realmente original suele deberse a jóvenes.

Cursos de Física Teórica de Leonard Susskind en la Universidad de Stanford gratis en youtube

Youtube nos ofrece muchas sorpresas agradables, entre ellas los cursos de Física Teórica que ha impartido Leonard Susskind, profesor de la Universidad de Stanford. Emulando a los geniales Lev Landau y Evgeny Lifshitz, Leonard nos ofrece lo mínimo que todo físico debe conocer sobre la física teórica. El Stanford Continuing Studies Program son cursos para “mayores” en el sentido de que no son cursos para alumnos de primeros cursos de carrera o para alumnos ya graduados, son cursos para un público general interesado en la física teórica y que no le tiene miedo a los detalles técnicos. Los cursos se presentan como una lista de reproducción (playlist), en sesiones de una hora, o una hora y media. Cursos muy interesantes (en mi opinión personal) que nos permiten disfrutar y aprender con uno de los grandes físicos teóricos vivos.

Mecánica Clásica (9 clases en vídeo)

Mecánica Cuántica (10 clases en vídeo)

Relatividad Especial (8 clases en vídeo)

Relatividad General de Einstein (12 clases en vídeo)

Cosmología (8 clases en vídeo)

Mecánica Estadística (10 clases en vídeo)

Entrelazamiento Cuántico Parte 1 (8 clases en vídeo de 2006)

Entrelazamiento Cuántico Parte 2 (8 clases en vídeo de 2007)

Nuevas revoluciones en la física de partículas (10 clases en vídeo)

Para los que no lo sepan, Susskind es uno de los padres de la teoría de cuerdas: descubrió en 1969 que la fórmula de Veneziano y el álgebra de Virasoro eran modelos de las vibraciones de una cuerda relativista; desde entonces ha sido uno de los físicos de cuerdas más famosos, destacando su trabajo con Edward Witten en 1998 que relacionó el principio holográfico de Gerardus ‘t Hooft con la entropía de los agujeros negros.

Carnaval de Matemáticas 2.1: Por qué una revista del montón (IJNSNS) tiene el mayor índice de impacto en Matemática Aplicada

La revista internacional The International Journal of Nonlinear Sciences and Numerical Simulation (IJNSNS) alcanzó en 2008 un índice de impacto de 8’91 y desde 2006 (hasta 2009) lidera la lista de revistas internacionales en el área de Matemática Aplicada del Journal Citation Reports (JCR). En 2011 ya no lo hará: IJNSNS ha cambiado de editorial (de Freund a De Gruiter) y su editor principal (Ji-Huan He) ha sido substituido (por Krishnaswamy Nandakumar). El making of del alto índice de impacto de IJNSNS, gracias a las malas artes de J.-H. He, nos lo explican Douglas N. Arnold y Kristine K. Fowler, “Nefarious Numbers,” Notices of the AMS 58: 434-437, Mach 2011 [ArXiv, 1 Oct 2010]. Más información en “Arnold & Fowler on “Nefarious Numbers” about the impact factor manipulation,” Francis’ world inside out, February 18, 2011. Esta entrada será mi primera participación en el Carnaval de Matemáticas 2.1 alojado por Tito Eliatrón Dixit.

Antes de nada hay que explicar la figura que abre esta entrada. El Consejo de Investigación Australiano (Australian Research Council, el equivalente australiano al CSIC español) ha evaluado mediante encuestas a investigadores la calidad de 20.000 revistas internacionales. La calidad global de una revista puede ser A* (lo mejor en su campo), A (de muy alta calidad), B (de reputación sólida) y C (para las que no encajan en las otras categorías). La lista ERA incluye 170 de las 175 revistas internacionales impactadas de la categoría “Mathematics, Applied” del JCR de 2008. La revista #1, IJNSNS ha sido calificada como B. Las revistas #2 y #3, Communications on Pure and Applied Mathematics (CPAM) y SIAM Review (SIREV), que solo alcanzan un índice impacto de 3’69 y 2’80, resp., son revistas de categoría A*. La línea roja en la figura se ha colocado en el percentil 20% para el índice de impacto de las revistas tipo A* (lo mejor de lo mejor); hay que destacar que 51% de las revistas tipo A tienen un índice de impacto mayor que este nivel, como el 23% de las revistas tipo B y el 17% de las “peores” revistas (tipo C). Obviamente, IJNSNS es el caso más anómalo. Su índice de impacto es astronómico para ser una revista de categoría B. Entre las 10 revistas con mayor índice de impacto (JCR 2008) tenemos 7 revistas A*, 2 revistas A y solo una revista B, IJNSNS. ¿Cómo es posible que IJNSNS haya obtenido un índice de impacto tan alto?

El índice de impacto se calcula como un cociente entre las citas recibidas y el número de artículos. En 2008 se citaron 821 veces los 79 artículos de IJNSNS publicados en 2007 y 561 veces los 84 publicados en 2006, por tanto, el índice de impacto es (821+561)/(79+84)=1382/163=8’479. ¿Cómo ha logrado Ji-Huan He que IJNSNS haya obtenido un índice de impacto tan alto?

El investigador que más citas a IJNSNS ha producido en 2008 es … su editor principal, Ji-Huan He (243 citas de las 1382). El segundo citador es D. D. Ganji (con 114 citas) y el tercero Mohamed El Naschie (con 58 citas), ambos son miembros del comité editorial de la revista. Estos 3 autores son responsables del 29% de las citas que cuentan para el índice de impacto de IJNSNS. Más aún, el 71’5% de las citas en 2008 a IJNSNS son citas a artículos publicados en 2006 y 2007 (las citas que cuentan para el índice de impacto).

La revista internacional que más ha citado a IJNSNS en 2008 es el Journal of Physics: Conference Series, responsable de 294 citas (más del 20% de las 1382). Todas estas citas provienen de un solo número de esta revista, las actas de un congreso internacional organizado por… Ji-Huan He, editor principal de IJNSNS en su propia universidad. La segunda revista que más ha citado a IJNSNS en 2008 fue el Topological Methods in Nonlinear Analysis, responsable de 206 citas (el 14%) y de nuevo todas las citas provienen de un solo número de esta revista, un número especial cuyo editor invitado es … como no, Ji-Huan He. La tercera revista más citadora en 2008 a IJNSNS es la revista Chaos, Solitons and Fractals, con 154 citas; Ji-Huan He era miembro del comité editorial de CS&F y su editor principal Mohamed El Naschie es coeditor (regional) de IJNSNS. La cuarta revista más citadora es el Journal of Polymer Engineering, también de un solo número y también editado por Ji-Huan He. Ji-Huan He es responsable “directo” de más del 50% de las citas al IJNSNS en 2008.

Según el Essential Science Indicators, producido por Thomson Reuters, J.-H. He es uno de los científicos más citados de la actualidad en Matemáticas, con 6.800 citas y un índice-h de 39 (según Hirsch, inventor del índice-h, la media de los ganadores del premio Nobel de Física es 35). He y sus malas artes han logrado encumbrarle al súmmun de los científicos más citados. Por ejemplo, sólo el número especial de la revista Journal of Physics: Conference Series antes citado,  editado por él mismo, contiene 353 citas a sus propios artículos. ¡Qué os voy a contar!

En este blog ya nos hemos hecho eco en varias ocasiones de las malas prácticas de He: “El editor que se autoedita, buen autoeditor es (salvo que le corten la cabeza como a El Naschie),” 27 noviembre 2008; “El presidente de SIAM y la “ingeniería” del índice de impacto de revistas internacionales,” 12 diciembre 2009; y “Una broma de mal gusto del ISI Web of Science o esto va de castaño a oscuro,” 16 junio 2009.

Lo sorprendente es que hasta el año 2009 nadie se atrevía a criticar las malas artes de J.-H. He. Imperaba una ley del silencio que destaparon una serie de blogs y una serie de artículos que criticaron la “basura” He-siana (porque sus artículos técnicos son pura “basura” no hay mejor palabra para calificarlos). En este blog nos hemos hecho eco de ello en varias ocasiones: “La cruzada de Francisco M. Fernández contra Ji-Huan He y los He-sianos, un ejemplo de la “basura” que se publica en revistas “respetables”,” 5 febrero 2009; “Nueva cruzada contra los He-sianos, pero en revistas sin índice de impacto, por ahora,” 23 abril 2009; “Nuestro cruzado, Marcelo, logra uno de los artículos más descargados en ScienceDirect,” 7 octubre 2009; “Nuevos avatares de la cruzada anti-He-siana de la mano del nuevo cruzado Sir Jason, autor del blog “El Naschie Watch”,” 2 julio 2010; ;  y “Nikolai Kudryashov y la cruzada en defensa de la fe en la matemática aplicada,” 27 noviembre 2010.

Hecha la ley, hecha la trampa. La ley de Goodhart nos dice que “cuando una medida se convierte en un objetivo, deja de ser una buena medida.” El índice de impacto ha pasado de ser un indicador bibliométrico desconocido para la mayoría de los investigadores a convertirse en la medida de la calidad más utilizada para revistas, investigadores e instituciones científicas. La manipulación del índice de impacto es inevitable, aunque pocas veces es de forma tan exagerada como en el caso del IJNSNS cuando era editado por J.-H. He (yo espero que el nuevo editor le lave la cara a esta revista).

Goodhart’s law warns us that “when a measure becomes a target, it ceases to be a good measure.” 

Nuevos límites de exclusión para la supersimetría según CMS y ATLAS del LHC en el CERN

La supersimetría (SUSY) será difícil de encontrar en el Gran Colisionador de Hadrones (LHC) del CERN. Las colaboraciones CMS y ATLAS han publicado los resultados de una su primera búsqueda de la supersimetría: descartan la existencia de squarks y gluinos con una masa inferior a 700 GeV/c² al 95% C.L. Por supuesto, hay muchas variantes de la SUSY y este resultado ha de ser interpretado con cuidado. Ambas colaboraciones han considerado ciertos parámetros razonables compatibles con las teorías llamadas mSUGRA y CMSSM. La figura que abre esta entrada ha sido extraída del artículo de ATLAS e incluye los resultados de CMS, así como resultados previos de LEP y del Tevatrón (CDF y DZero). Los ejes de la figura corresponden a dos parámetros típicos de un modelo particular de supersimetría. El eje horizontal está relacionado con la masa de los squarks (los supercompañeros de los quarks) mientras que el eje vertical está relacionado con la masa de los gauginos (los supercompañeros de los bosones vectoriales, como los gluinos, supercompañeros de los gluones). Los nuevos resultados descartan los valores de estos parámetros por debajo de las curvas roja (ATLAS) y negra (CMS); el más restrictivo es el resultado de ATLAS y en la parte horizontal el de LEP en azul. La teoría mSUGRA corresponde al modelo de supergravedad mínimo y CMSSM a la extensión supersimétrica mínima restringida del modelo estándar. Modelos supersimétricos más complicadas podrían implicar límites menos restrictivos. Los artículos técnicos para los interesados son The ATLAS Collaboration, “Search for supersymmetry using final states with one lepton, jets, and missing transverse momentum with the ATLAS detector in sqrt{s} = 7 TeV pp,” ArXiv, 11 Feb 2011, y The CMS Collaboration, “Search for Supersymmetry in pp Collisions at 7 TeV in Events with Jets and Missing Transverse Energy,” ArXiv, 8 Jan 2011. Se han hecho eco de estos resultados muchísimos blogs, como Flip Tanedo, “No love for low scale supersymmetry at the LHC,” US LHC Blog, 14 Feb 2011; Jester, “What LHC tells about SUSY,” Résonaances, 16 February 2011; y Sean Carroll, “Supersymmetry Still In Hiding,” Cosmic Variance, 17 Feb. 2011.

La supersimetría es una extensión del Modelo Estándar en el que cada partícula y cada antipartícula tiene una partícula supercompañera (para los fermiones se añade una “s” al principio del nombre, como los squarks para los quarks, y para los bosones se añade el sufijo “ino” al final del nombre, como gluinos para los gluones). La supersimetría (SUSY) no es una simetría exacta de la naturaleza (ya que entonces todos las partículas y las superpartículas tendrían la misma masa) y tiene que estar rota de tal forma que las superpartículas tengan masas mucho más grandes que las partículas. ¿Cuánto más grandes? Nadie lo sabe. Los más optimistas confían en que estarán al alcance del LHC del CERN que en los próximos años proclamará el descubrimiento de la SUSY (con el correspondiente Premio Nobel). Los más pesimistas recuerdan que la supersimetría “recomienda” que las supercompañeras tengan masas muy grandes, fuera del alcance del LHC del CERN (y quizás fuera del alcance los grandes colisionadores de partículas hasta finales del s. XXI).

La única esperanza de encontrar la supersimetría en el LHC está en la materia oscura: la partícula supersimétrica más ligera (LSP) es un candidato natural para la materia oscura. Su masa debe estar en el rango de los cientos de GeV, en cuyo caso será encontrada en el LHC en los próximos años. ¿Cómo la encontrará? Gracias a pérdidas de energía en las colisiones y a la formación de chorros. Sin embargo, el nuevo resultado de ATLAS y CMS no es una buena noticia para la supersimetría. Una de las características más atractivas de la supersimetría es que resuelve el problema de la jerarquía asociado a la masa del Higgs, pero requiere que las superpartículas tengan una masa por encima pero cercana a las partículas que conocemos. El nuevo resultado excluye gran parte del espacio de parámetros supersimétricos (en la teoría CMSSM) que permiten resolver este problema (si se confirma que el Higgs tiene una masa inferior a 200 GeV). La siguiente figura lo muestra de forma muy llamativa (Alessandro Strumia, “Implications of rst LHC results: Large extra dimensions & SuperSymmetry“). La finísima línea blanca entre la zona azul de la izquierda y la zona roja de la derecha es la única permitida. Por supuesto, los teóricos de la SUSY dirán que esta figura es muy pesimista y que el espacio de posibles extensiones supersimétricas del modelo estándar es tan amplio que el resultado del LHC del CERN no excluye para nada la SUSY. Sobre opiniones siempre hay mucho escrito.

PS (25 feb. 2011): Más sobre los límites de la SUSY según el LHC en O. Buchmueller et al., “Implications of Initial LHC Searches for Supersymmetry,” ArXiv, 22 Feb 2011; un artículo discutido por muchísima gente. Recomiendo la lectura de Kathy McAlpine, “Will the LHC find supersymmetry?,” PhysOrg.com, Feb 22, 2011. Por cierto, la autora es la rapera del vídeo de youtube de más abajo; me he enterado gracias a Tommaso Dorigo, “LHC Excludes SUSY Theories, Theorists Clinch Hands,” Quantum Diaries Survivor, February 22nd 2011. También recomiendo la lectura de Jester, “More SUSY limits,” Résonaances, 21 February 2011; y de Peter Woit, “Implications of Initial LHC Searches for Supersymmetry,” Not Even Wrong, February 22nd, 2011.

Confirmado, los osos hibernan durante el invierno, aunque su temperatura corporal cambie muy poco

La hibernación de los osos es una conducta difícil de observar en cautividad. Su temperatura corporal durante su letargo invernal baja muy poco, cuando la de otros mamíferos más pequeños cambia mucho, lo que ha planteado dudas sobre si realmente los osos hibernan o no. Un nuevo artículo aparecido en Science resuelve todas las dudas: los osos sí hibernan. Tøien et al. han medido de forma continua el consumo de oxígeno, la temperatura del cuerpo, el ritmo del corazón, la actividad muscular y la actividad cerebral de cinco osos negros (Ursus americanus) en un bosque cerca de Fairbanks, Alaska, durante su hibernación (entre noviembre y marzo) y tras salir de ella en primavera. El oso negro muestra patrones inusuales de regulación metabólica y de regulación térmica durante la hibernación, así como al poco de salir de este estado. La temperatura durante la hibernación oscila entre 30º C y 36º  C, con  una reducción en su tasa metabólica basal del 75%. Tras salir de su letargo, los osos mantuvieron una tasa metabólica basal baja (un 47% inferior a la normal) durante varias semanas. Aún no se conocen los mecanismos moleculares y las rutas bioquímicas responsables del ajuste metabólico durante la hibernación. Se cree que implica una inhibición de los procesos de producción de energía (metabolismo de la glucólisis y respiración mitocondrial), así como de los procesos que consumen energía (como la transcripción (ADN a ARNm), la traducción (ARNm a proteínas) y la degradación de proteínas); es decir, un estado hipometabólico, pero según el artículo técnico los mecanismos detallados aún son ignorados. Nos lo cuenta Gerhard Heldmaier, “Physiology: Life on Low Flame in Hibernation,” Perspective, Science 331: 866-867, 18 February 2011, que se hace eco del artículo técnico de Øivind Tøien et al., “Hibernation in Black Bears: Independence of Metabolic Suppression from Body Temperature,” Science 331: 906-909, 18 February 2011.

PS (18 feb. 2011): Antonio Martínez Ron, “Lo que sabemos sobre el sueño de los osos,” lainformacion.com, 18 febrero 2011, incluye un vídeo de uno de los osos roncando… que apareció originalmente en Susan Milius, “Hibernation mystery,” ScienceNews, February 17th, 2011, y en otros lugares.

I Carnaval de Biología: La biomecánica del pájaro carpintero permite diseñar microdispositivos que soportan 60.000 fuerzas G

Pájaro carpintero intentando agujerear un tubería de desigüe metálica. 

Un pájaro carpintero puede taladrar el tronco de un árbol hasta hacer un agujero golpeándolo a un ritmo entre 18 y 22 veces por segundo con una desaceleración de 1.200 g, cientos de veces mayor que la que experimenta un astronauta, y sin sufrir daño alguno en su cerebro (el estadounidense Eli L. Beeding Jr. ostenta desde 1958 el récord mundial al soportar 82’6 g durante 0’04 segundos; después se pasó tres días en un hospital). Un nuevo artículo de Yoon y Park, de la Universidad de California en Berkeley, se inspira en el secreto del pájaro carpintero para desarrollar un sistema de amortiguación de vibraciones para dispositivos microfabricados móviles. Una de las claves es el hueso esponjoso que rodea y protege el cráneo de este pájaro, pero no es la única. El nuevo sistema de amortiguación bioinspirado puede soportar hasta 60.000 g (comprobado con una escopeta de aire comprimido con un calibre de 60 mm). La biomecánica del pájaro carpintero se ha descubierto gracias a un estudio mediante tomografía computarizada de rayos X que ha conducido a un modelo biomecánico de la amortiguación de lass vibraciones en su cráneo. El artículo técnico, de acceso gratuito, es Sang-Hee Yoon, Sungmin Park, “A mechanical analysis of woodpecker drumming and its application to shock-absorbing systems,” Bioinspiration & Biomimetics 6: 016003, Published 17 enero 2011. Esta entrada es mi primera participación para el I Carnaval de Biología que alberga el blog Micro Gaia. Aunque el tema de esta edición son las bacterias, me he permitido la licencia de centrar mi entrada en los pájaros carpinteros, supongo que mi segunda entrada será bacteriana.

En el vídeo que abre esta entrada se observa a un carpintero de vientre rojo (Melanerpes carolinus) natural de América del Norte que golpea con insistencia un desagüe metálico, creyendo por error que se trata de un poste de madera. En la figura de arriba se muestra un detalle de la postura del animal durante un golpe rápido contra el desagüe (en el vídeo de youtube el carpintero alcanza hasta 20 golpes por segundo). Como se observa en la figura el carpintero hace palanca con su cuerpo y utiliza su cola para estabilizarse. Los autores del estudio han utilizado tomografía computarizada de rayos X para observar el cráneo del carpintero de frente dorada (Melanerpes aurifrons), pájaro natural de centroamérica y del sur de los EE.UU., como muestra la figura de abajo, que muestra el pico (beak), el hueso esponjoso (spongy bone), el hueso del cráneo (skull bone) y el hioide (hyoid).

Los autores del artículo han desarrollado un modelo biomecánico simplificado del sistema de amortiguación de golpes del pájaro carpintero. La figura de arriba muestra el modelo cinemático del golpe; un carpintero de frente dorada puede alcanzar los 28 golpes por segundo y es capaz de golpear un árbol repetidamente entre 500 y 600 veces al día. En la figura de abajo se muestra un modelo biomecánico de parámetros concentrados para el sistema de amortiguación del carpintero (un modelo simplificado basado en masas, muelles y amortiguadores). Para modelar las propiedades del hueso esponjoso han desarrollado un modelo experimental que hace vibrar un cilindro metálico relleno de microbolitas de cuarzo de diferentes diámetros (68, 120, 375, 500, y 875 μm); gracias a este modelo han descubierto que el hueso esponjoso actúa como un filtro paso bajo para las frecuencias de vibración con cierto factor de atenuación.

El mecanismo de amortiguación del pájaro carpintero sugiere que para mejorar la tolerancia a fuerzas G altas de dispositivos microfabricados hay que utilizar: (i) una capa externa de alta resistencia que proteja al microdispositivo de daños físicos (como deformaciones, fracturas, etc.), lo que en el pájaro carpintero es el pico; (ii) una capa viscoelástica que distribuya uniformemente las vibraciones mecánicas, lo que en el pájaro es como el hioides; (iii) una estructura porosa resiliente que filtre las altas frecuencias de vibración mecánica y evite su transmisión al microdispositivo, lo que en el carpintero es el hueso esponjoso; y (iv) otra capa de alta resistencia que contenga a la estructura porosa, como el hueso del cráneo en el pájaro. Gracias a estas ideas, Yoon y Park han desarrollado un sistema de absorción de impactos para microdispositivos biológicamente inspirado, que aparece en la figura de abajo.

Para demostrar que el nuevo sistema funciona han utilizado un rifle de aire comprimido con un calibre de 60 mm que permite acelerar los microdispositivos (recubiertos con su protección) hasta aceleraciones de 60.000 g. El sistema de protección, denominado BIRD-II, ha funcionado con una eficacia increíble. Sólo el 0’7% de los microdispositivos ha sufrido daños; con un sistema más convencional, también bioinspirado, llamado BIRD-I el número de microdispositivos que sufrieron daños fue del 26’4%.

En resumen, la ingeniería bioinspirado y/o biomimética no para de ofrecernos sorpresas, demostrando que la colaboración entre biólogos e ingenieros puede conducir a grandes avances tecnológicos.

Una rosa azul para tu mujer en el día de San Valentín

Regalarle una rosa azul a tu mujer el día de San Valentín no es fácil, salvo que hayas regresado de Japón hace poco y te hayas acordado de comprar una rosa azul “Aplauso” de la empresa japonesa Suntory. La venden desde noviembrre de 2009 sólo en ciertas prefecturas del país. Una rosa genéticamente modificada que presenta tonos azules (aunque en las fotografías que he visto parecen más bien morados), resultado de una investigación biotecnológica iniciada en 1990. Lo sé, una tontería… pero me hice eco de esta curiosidad en “una rosa azul para mi mujer en el día de San Valentín,” 14 Febrero 2008, y en “ya a la venta en Japón las rosas azules (a partir del 3 de noviembre de 2009),” 20 octubre 2009.

No has podido regalarle hoy, 14 de febrero de 2011, una rosa azul a tu mujer (novia, pareja, …), pero te gustaría hacerlo. Una opción “barata” es utilizar Photoshop o GIMP. Le regalas una rosa por la mañana y le haces una foto a ella con la rosa; luego por la tarde, tras procesar la foto con Photoshop puedes transformar el color de la rosa en azul. Por la noche le regalas su foto con la rosa azul y listo. Bueno, lo sé, lo sé, si no eres muy ducho con Photoshop o GIMP, ¿qué haces? Los siguientes vídeos de youtube quizás te ayuden.

Obviamente, sólo si tienes mucha práctica obtendrás un resultado de calidad. Pero como este es un blog de ciencia, no me queda otro remedio que ponerte los dientes largos y mostrarte lo que la tecnología actual de tratamiento del color en imágenes permite obtener de forma automática. Supongo que no pasará mucho tiempo hasta que este tipo de algoritmos esté implementado en programas como Photoshop o GIMP. Destacaré el siguiente trabajo de Hiroaki Kotera quien quiso regalar una rosa azul y desarrolló un software automático para ello.

El software de “robo de color” de Hiroaki Kotera todavía no está disponible en la web.  El artículo técnico es “Study on Image Color Stealing in Log-Polar Space,” LNCS 6453: 221–230, 2010. La idea es extraer la gama de colores de un objeto y aplicársela a otro objeto, preservando las transiciones tonales. El software de Kotera utiliza una representación del color en el espacio de color llamado CIE L*a*b* (también CIELAB) que permite describir todos los colores que puede percibir el ojo humano (la CIE es la Comisión Internacional de Iluminación, que lo desarrolló en 1976). En los dos imágenes, la que recibirá el color y la que lo dará, se selecciona y extrae una región (segmentación), se aplica una algoritmo de agrupamiento (clustering) a sus colores en el espacio CIELAB y luego se aplica un algoritmo de transformación (morphing) de ambas regiones en el espacio de color. El resultado lo podéis contemplar en la figura de arriba y el proceso de morphing en la de abajo.

 

El LHC del CERN y las dimensiones extra del espaciotiempo

El LHC del CERN no ha producido agujeros negros durante 2010. Para producirlos hubiera sido necesario que existan dimensiones extra en el espaciotiempo de gran tamaño como predicen algunas teorías de cuerdas. Tampoco ha observado ningún fenómeno de origen gravitatorio, como las partículas llamadas modos de Kaluza-Klein. No se han observado estas partículas en el LHC durante 2010 en las colisiones protón-protón con una energía de 7 TeV en el centro de masas. Aunque aún no conocemos la teoría cuántica correcta de la gravedad, se puede construir una teoría efectiva semiclásica caracterizada por una energía típica, sea M. La ausencia de señales gravitatorias en las colisiones del LHC durante 2010 permite asegurar que M>3’4 TeV al 95% C.L., según el experimento CMS del LHC (tras analizar 36/pb de datos de colisiones). Un valor que no está nada mal, teniendo en cuenta que en el LHC a máxima energía, 14 TeV c.m., no se podrán explorar valores de M más grandes de 6 TeV. Nos lo ha contado Alessandro Strumia, “Implications of first LHC results,” TH BSM Forum, CERN, 03 February 2011, que ha resumido sus dos artículos: Roberto Franceschini, Gian Francesco Giudice, Pier Paolo Giardino, Paolo Lodone, Alessandro Strumia, “LHC bounds on large extra dimensions,” ArXiv, CERN-PH-TH/2010-286, 25 Jan 2011, y Alessandro Strumia, “The fine-tuning price of the early LHC,” ArXiv, IFUP-TH/2011-1, 11 Jan 2011. El segundo de estos artículos nos recuerda que ni la supersimetría ni la supergravedad han sido observadas en el LHC (más aún, los gravitinos tienen una masa mayor de 650 GeV/c²).

Si existen las dimensiones extra del espacio compactificadas que sean observables en la escala de energías alcanzable por el LHC serán observadas como partículas llamadas modos de Kaluza-Klein (o partículas KK), cuya existencia está garantizada por el principio de indeterminación de Heisenberg. Estas partículas corresponden al espectro discreto de los estados del momento de la partícula como si estuviera “encerrada” en estas dimensiones extra (igual que una partícula cuántica encerrada en una caja). Os recuerdo. El producto de la indeterminación en el valor del momento (p), como los físicos llaman al producto de la velocidad por la masa, y de la posición (x) de una partícula es mayor que la constante de Planck multiplicada por una constante, en concreto Δx·Δp≥h/(4π). Este principio fundamental de la mecánica cuántica tiene como consecuencia que si una partícula tiene su posición restringida en cierto intervalo espacial, aparecen modos discretos (cuánticos) de vibración de esta partícula similares a los modos de vibración de un partícula cuántica que se encuentra encerrada en un pozo de potencial. Como no observamos nada más que 3 dimensiones en el espacio (3+1 contando el tiempo), si el espacio tiene D dimensiones (D=3+d) es necesario que estas dimensiones extra sean muy pequeñas, es decir, que estén compactificadas. Cualquier partícula elemental producida en el LHC del CERN que se propague por un espaciotiempo con D+1 dimensiones, presentará modos de vibración en las d dimensiones compactas que se observarán en las colisiones como nuevas partículas, los modos de Kaluza-Klein, cuya masa está relacionada con el inverso del tamaño de las dimensiones extra. El caso más sencillo es que haya una sola dimensión extra con un radio R; en dicho caso se observaría una “torre” (serie infinita) de partículas con masa Mn = n h / R c, donde n es un número entero, h es la constante de Planck y c es la velocidad de la luz. Si hay más de una dimensión extra el resultado es similar, aunque omito la expresión matemática concreta.

La partícula KK de menor masa en reposo un candidato ideal para la materia oscura. La razón es que una partícula KK es una partícula estable que no se puede desintegrar en ninguna otra partícula y tampoco puede ser producida directamente en un acelerador de partículas por colisión de otras partículas. Las partículas KK ni se pueden crear ni se pueden destruir. Curioso, pero sí se pueden observar como “ecos.” Por ejemplo, para una colisión pp→tbjj, una colisión protón-protón en el LHC que produzca un quark top, un quark bottom y dos jets (chorros de hadrones), se observará en el espectro de masas un pico asociado a la masa del par tb y otro pico (el “eco”) asociado a la energía total del sistema tbjj que corresponderá a la masa de la partícula KK excitada por la energía de esta colisión. Una resonancia de alta energía asociada siempre a los eventos de cierto tipo sería una señal inequívoca de un partícula KK. Estas señales no han sido encontradas en 2010 en el LHC.