Próximas noticias sobre el bosón de Higgs el 14 de noviembre desde Kioto (Japón)

Las próximas noticias sobre el Higgs se publicarán en el congreso 2012 Hadron Collider Physics Symposium (HCP2012), en la sesión sobre el Higgs que tendrá lugar el miércoles 14 de noviembre de 14:30 a 19:00 (día y hora de Tokio). Habrá charlas de ATLAS y CMS sobre los canales H→WW, H→ZZ, H→γγ, H→ττ, y H→bb. No se sabe cuáles de estas charlas presentarán resultados nuevos y cuáles repetirán los ya publicados en julio, pero todo indica que habrá nuevos resultados (así nos lo indicó Incandela (portavoz de CMS) y nos lo recuerdan en «Are the Higgs Rumors True?«). ¿Cuántos datos de colisiones serán analizados? No se sabe, pero se cree que unos 15 /fb de colisiones a 8 TeV de 2012 (a día de hoy ya se han acumulado más de 18 /fb) y los 5 /fb de colisiones de 7 TeV de 2011. Además, ha habido progresos en las técnicas de análisis de las colisiones, lo que permite sacar más rendimiento de los mismos datos. Hay varias cuestiones clave que podrían dilucidarse, con suerte, el 14 de noviembre; nos las recopila Jester, «Higgs: New Deal

1. La desintegración de un Higgs en dos fotones (H→γγ). Los datos publicados el 4 de julio mostraban una desviación de algo menos de dos sigmas en la tasa desintegración de un Higgs en dos fotones, en concreto un exceso del 80% y del 60% en ATLAS y CMS, resp. Obviamente, un exceso a dos sigmas es casi seguro una fluctuación estadística, pero ha sorprendido a muchos que en los dos experimentos la desviación tenga el mismo sentido. El 14 de noviembre hay dos resultados posibles. Por un lado, que el exceso desaparezca o decrezca, confirmando que el bosón de Higgs observado corresponde al predicho por el modelo estádnar. Y por otro lado, que el exceso se mantenga o crezca; como se espera que el error se reduzca en un tercio gracias a las nuevas colisiones, la confianza estadística sobre el exceso puede superar con creces las tres sigmas. Para muchos físicos esto sería una maravillosa señal de la existencia de nueva física más allá del modelo estándar. Por ahora solo podemos esperar.

2. La desintegración de un Higgs en un par de leptones tau (H→ττ). Los datos del 4 de julio no mostraban ninguna señal de un Higgs en el canal de desintegración en dos tau, como si el Higgs no existiera (en este canal); solo CMS utilizó datos de 2012 en este canal, ya que ATLAS se limitó a usar datos de 2011. Este canal no tiene sensibilidad suficiente para observar un Higgs, por lo que este problema se considera de menor relevancia que el anterior. Todo el mundo espera que el 14 de noviembre se publique información interesante en este canal, que con casi 20 /fb de colisiones (sumando datos de 2011 y 2012) ya tiene sensibilidad suficiente para observar algún exceso asociado al Higgs.

3. La desintegración de un Higgs en un par de quarks bottom (H→bb). El Tevatrón observó un exceso en este canal con tres sigmas, en la desintegración asociada con un bosón vectorial (WH→bb y ZH→bb), pero ni Tevatrón ni LHC tenían sensibilidad suficiente en julio para ver al Higgs en este canal. Con menos de 20 /fb de colisiones (sumando 2011 y 2012), el LHC tampoco tendrá sensibilidad suficiente para ver el Higgs, aunque podría verse algún exceso similar al observado en el Tevatrón. No es fácil y yo creo que habrá que esperar a la primavera de 2013 (Moriond) para ver algo, pero ya se sabe que en física de partículas muchas veces hay sorpresas.

4. La desintegración de un Higgs en un bosón Z y un fotón (H→Zγ). Este canal se parece al canal H→ZZ→4l (donde 4l son 4 leptones, o sea 4 muones, 4μ, o 2 mones y dos electrones, 2μ2e) en que la señal de la desintegración H→Zγ→γ2l (especialmente cuando 2l es 2μ) es una señal muy limpia, con muy poco ruido, y muy fácil de reconstruir con precisión; esto significa que incluso unos pocos eventos ofrecen una señal clara e inequívoca. Con menos de 20 /fb de colisiones será difícil ver al Higgs en este canal, salvo que la desintegración del Higgs en fotones esté reforzado (segunda posibilidad en la opción 1, más arriba). En cualquier caso, el canal H→Zγ es muy importante a la hora de restringir las posibilidades de nueva física más allá del modelo estándar.

5. El bosón de Higgs es una partícula escalar (espín cero). Ya se puede asegurar que el bosón de Higgs observado el 4 de julio tiene espín entero distinto de la unidad, pero no hay colisiones suficientes para decidir si su espín es cero (como predice la teoría) o dos (lo que sería una sorpresa mayúscula, más aún, revolucionaria). La combinación oficiosa de datos de LEP, Tevatrón y LHC indica que el Higgs tiene espín cero, pero utilizando datos de LHC aún no se puede asegurar. Con menos de 20 /fb el 14 de noviembre será difícil llegar a cinco sigmas a favor de una partícula escalar, pero se espera que se superen holgadamente las tres sigmas. La cuestión de si el Higgs observado es una partícula escalar o pseudoescalar tendrá que esperar a la primavera de 2013, salvo que haya alguna sorpresa.

6. La incertidumbre en la masa del bosón de Higgs. La masa del bosón de Higgs según CMS es 125,3 ± 0,4(stat.) ± 0,5(syst.) GeV, y según ATLAS es 126,0 ± 0,4(stat) ± 0,4(sys) GeV. Con los datos del 14 de noviembre se espera que estos errores se reduzcan a entre 0,1 y 0,2 GeV, con un valor central que podría rondar los 125,5 GeV.

En resumen, los datos que se publiquen el 14 de noviembre podrían ser muy interesantes para saber si el Higgs es el predicho por el modelo estándar (sobre todo en cuanto al exceso en el canal difotónico), aunque todavía es pronto para que sean concluyentes. En cualquier caso, serán un acicate importante para que quienes nominan candidatos al Premio Nobel de Física de 2013 apoyen la candidatura del Higgs.

Aceptan un artículo de Mathgen en una revista de matemáticas cuyo editor principal es español

¿Quién es el responsable de que un artículo generado por ordenador sea aceptado en una revista internacional? Mathgen es un generador online de artículos de matemáticas basado en SCIgen. El 13 de agosto de 2012, el editor principal de la revista open access Advances in Pure Mathematics aceptó un artículo enviado el 3 de agosto que había sido generado por Mathgen. ¿Realmente ha sido sometido a revisión por pares el artículo generado por Mathgen? A priori, uno tiende a dudarlo. “Independent, Negative, Canonically Turing Arrows of Equations and Problems in Applied Formal PDE” [copia en PDF] es un artículo sin sentido, imposible de entender y con un formato inaceptable, pero ha sido aceptado. La respuesta en plan broma del autor ficticio Professor Marcie Rathke (University of Southern North Dakota at Hoople) a los comentarios de los revisores no fue entendido por el editor, quien los aceptó sin más y solicitó el pago de los 500$ por el artículo. Obviamente, Nate Eldredge no quiso gastarse ni un dólar, pero nos lo cuenta en su entrada «Mathgen paper accepted!,» That’s Mathematics!, Sep. 14, 2012.

Lo que apena de este caso es que el editor principal de Advances in Pure Mathematics es un profesor español del departamento de geometría y topología de una prestigiosa universidad española. No tengo ni idea de qué puede haber ocurrido, pero ahora mismo es el hazmerreír de toda la comunidad matemática internacional. Una pena.

 

Francis en ¡Eureka!: Microbalones de fútbol fabricados por evaporación de gotas coloidales en una microcama de faquir

El titular de esta entrada puede parecer muy rebuscado, pero sigue la línea del artículo técnico «Building micro-soccer-balls with evaporating colloidal fakir drops,» arXiv:1203.4361, enviado primero a Physical Review Letters, pero que ha acabado apareciendo en PNAS, como Álvaro G. Marín et al, «Building microscopic soccer balls with evaporating colloidal fakir drops,» PNAS 109: 16455-16458, October 9, 2012. Álvaro es un físico sevillano que tras obtener su doctorado en el grupo de Antonio Barrero Ripoll (1947-2010), como muchos jóvenes, tuvo que emigrar para continuar su brillante carrera investigadora. Tras tres años en la Univ. de Twente, Holanda, ahora se encuentra en la Univ. Bundeswehr de Múnich, Alemania. Su trabajo en micro- y nano-fluidos es realmente interesante. La sección ¡Eureka! de La Rosa de los Vientos, Onda Cero, de este fin de semana ha estado dedicado a su trabajo. Si te apetece escuchar el audio, sigue este enlace.

Sigue leyendo

De Juana la Loca hasta las baterías de litio viajando por algunos carnavales de ciencias

Doña Juana I de Castilla y Aragón (1479-1555), Juana la Loca, Reina Propietaria del trono de España, fue la reina más poderosa de su tiempo, aunque nunca gobernó. Su padre, su esposo y más tarde su propio hijo afirmaron que estaba loca, mientras muchos nobles castellanos y los comuneros pretendían que dicha locura era pura invención de quienes querían usurparle el trono. Juana fue «internada» en Tordesillas, pues el confinamiento era el tratamiento oficial para la locura en su época. Sin embargo, todos los hijos de Juana, esposas y esposos de estos, incluso sus nietos ya en edad adulta, sobrinos y sobrinas, visitaban Tordesillas a menudo y le profesaban respeto, admiración y cariño. Si se tratara de una mujer alienada, celosa y delirante sería difícil imaginar de qué modo hubiera podido crear las condiciones de esa unión familiar alrededor de su persona, por tantas generaciones y ramas familiares. La leyenda de la «locura de amor» que Juana profesaba por su marido, Felipe «el Hermoso,» nació cuando Juana fue heredera legítima del trono de Castilla, tras varias muertes inesperadas, entre ellas la de su hermano Juan y su hermana Isabel. Con anterioridad no hay ninguna documentación al respecto. La salud «oficial» de Juana siempre osciló según las necesidades políticas.  Además, como en la Edad Media la locura era un «vicio,» Juana ha pasado a la historia como mujer lujuriosa, dominada por la desesperación, carente de prudencia y rebelde. Nos lo cuenta Begoña Matilla, «El mito de la Reina Juana: ¿“la Loca”?»

Pensar la locura de Juana desde la óptica del saber actual, nos induciría a error. Juana fue una mujer moderna para su tiempo que logró, desde las armas que las mujeres podían esgrimir en los inicios de la Edad Moderna, no perder su titularidad real por la que luchó con uñas y dientes, y hacer posible el gobierno de sus descendientes. Juana organizó estrategias políticas para asegurar la sucesión legítima de su hijo Carlos al trono, como esquivar la voluntad paterna, rompiendo todos los códigos de la época al no volver a casarse después de enviudar, a pesar de las muchas presiones recibidas. Además, cuando los Comuneros se alzaron contra Carlos V y la liberaron de su encierro, Juana logró esquivar sus pretensiones, que de facto, hubieran desheredado a Carlos. Gracias a ella, los Austrias ganaron la partida del poder en España.

La imagen que mucha gente tiene de Juana está moldeada por la película «Juana la loca» (2001) de Vicente Aranda, «una explosiva historia de amor» con más erotismo que precisión histórica, remake de «Locura de amor» (1948) de Juan de Orduña. Pilar López de Ayala interpreta el papel de una neurótica «loca de amor» que le permitió obtener un Goya. La imagen de Juana I que ofrece esta película me recuerda a una psicosis maníaco-depresiva o transtorno bipolar. Su tratamiento actual, basado en el carbonato de litio, será el leitmotiv de esta entrada, cuyo objetivo era superar el reto de los 7 carnavales lanzado por José Manuel López Nicolás (@ScientiaJMLN) en Twitter y superado por él mismo en su blog Scientia. No sé si lo he conseguido, pero no importa. Me ha servido para aprender muchas cosas sobre historia que no sabía. Espero que tú también disfrutes con mi resumen.

Sigue leyendo

Nota dominical: Los matemáticos polacos, Alan Turing y el secreto de la máquina Enigma

Máquina Enigma de 3 ruedas (C) National Museum of Science and Industry.

Muchos creen que Alan Turing, que recibió la Orden del Imperio Britanico por ello, fue el responsable de las técnicas matemáticas de criptoanálisis que revelaron el secreto de la máquina Enigma, utilizada por los nazis para cifrar sus conversaciones militares. Sin embargo, entre 1932 y 1938, el servicio secreto polaco (Biuro Szyfrów), gracias al criptoanálisis de la máquina Enigma de tres ruedas realizado por Marian Rejewsky, fue capaz de descifrar el 75% de los mensajes cifrados que lograron interceptar. Nos lo cuenta estupendamente B. Jack Copeland, «Enigma,» pp. 217-264 in «The Essential Turing. Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus The Secrets of Enigma,» Edited by B. Jack Copeland, Clarendon Press, 2004. Todos los que quieran saber más sobre la vida y obra de Turing deberían leerse este libro de Copeland.

En septiembre de 1938 los nazis cambiaron el sistema para asignar claves diarias. Pocas semanas más tarde, Rejewsky y sus colegas desarrollaron dos nuevos métodos de criptoanálisis, uno basado en hojas de papel perforadas con agujeros que permitían determinar la nueva clave diaria y el otro basado en una máquina  electromecánica (diseñada por Rejewski y el ingeniero Antoni Palluth) a la que llamaron «bomba» (en plural «bomby»). El nombre «bomba» fue elegido de forma jocosa; no sabían que nombre elegir y mientras le daban vueltas al asunto, uno de ellos disfrutaba de un postre helado de origen francés que en polaco recibía el nombre de «bomba» (versión polaca del francés «bombe»). En noviembre de 1938 ya disponían de seis «bomby» en operación, capaces de descifrar en dos horas lo que de otra forma requería unas 200 horas de trabajo de una persona. Sin embargo, en diciembre de 1938, los nazis añadieron dos ruedas más a la máquina. Los recursos disponibles por el Biuro Szyfrów polaco no eran suficientes para fabricar todas las réplicas necesarias para cubrir todas las combinaciones posibles de las ruedas de la máquina (donde antes bastaban 6 diferentes ahora eran necesarias 60 y por cada una había que fabricar 36 réplicas). Los polacos necesitaban ayuda.

Sigue leyendo

La electrónica de transformación basada en el control de la masa efectiva del electrón

La óptica de transformación está de moda. Tras la acústica de transformación, ahora nos proponen la electrónica de transformación. Te recuerdo, la óptica de transformación se basa en los metamateriales que permiten controlar las propiedades efectivas del índice de refracción, susceptibilidad eléctrica y permeabilidad magnética del material gracias a un diseño adecuado de su microestructura. En la electrónica de transformación la idea es controlar la masa efectiva de los electrones y huecos que se propagan en el material utilizando un diseño similar. En lugar de usar un metamaterial se utiliza una superred (superlattice) semiconductora en la que la masa efectiva de los portadores de carga presentan una fuerte anisotropía. La óptica de transformación permite el desarrollo de materiales muy exóticos como superlentes o capas de invisibilidad. En la electrónica de transformación nos proponen la fabricación de materiales en los que los electrones se comportan de forma efectiva como partículas sin masa, cuando se mueven en ciertas direcciones, lo que permitirá desarrollar dispositivos ultrarrápidos (no limitados por la movilidad de los electrones y huecos), con alta conductividad (que a baja temperatura es independiente de la temperatura) y con una respuesta no lineal fuerte. Todas estas propiedades los hacen fascinantes a la hora de desarrollar multitud de nuevos dispositivos para aplicaciones prácticas con las que ahora solo podemos soñar. Obviamente, la electrónica de transformación aún es solo una propuesta teórica, no demostrada mediante experimentos. Nos lo cuentan Mario G. Silveirinha, Nader Engheta, «Transformation Electronics: Tailoring Electron’s Effective Mass,» arXiv:1205.6325, 2012.

Sigue leyendo

Metamateriales hiperbólicos que permiten estudiar la causalidad en el espaciotiempo de Minkowski

Los metamateriales y la óptica de transformación están de moda pues permiten diseñar dispositivos fascinantes como lentes perfectas, capas de invisibilidad y objetos negros perfectos. Un metamaterial fabricado e iluminado con un haz láser en la aproximación de rayos extraordinarios (es decir, paralelos al eje de anisotropía) permite desarrollar un análogo óptico al concepto de espaciotiempo de Minkowski en 2+1 dimensiones y con él análogos físicos a agujeros negros, agujeros de gusano, propulsores (warp drive) de Alcubierre y cuerdas cósmicas. En estos sistemas una de las coordenadas espaciales del metamaterial tridimensional (por ejemplo la vertical) se comporta como tiempo y las otras dos (las transversales) como espacio, con lo que se simulan métricas de Minkowski solo en 2+1 dimensiones. El problema es que la luz en este medio puede propagarse por la coordenada que hace de tiempo (la vertical) en ambas direcciones, violando la causalidad (los eventos del «futuro» simulado pueden afectar a los eventos del «pasado» simulado). Igor I. Smolyaninov (Univ. Maryland, EEUU) propone un nuevo diseño de metamaterial hiperbólico «causal» que presenta una ruptura de la simetría PT (combinación de la simetría de reflexión en un espejo y la inversión temporal), lo que garantiza que la luz solo se puede propagar en una de las direcciones a la largo de la coordenada espacial que hace de tiempo. Con ello, el espaciotiempo de Minkowski que se simula en el material conserva la causalidad. La propuesta es puramente teórica y las figuras se han obtenido utilizado una simulación en COMSOL, sin embargo, el autor cree que estos metamateriales son realizables físicamente. Habrá que estar al tanto en los próximos años. El artículo técnico es Igor I. Smolyaninov, «Modeling of causality with metamaterials,» arXiv:1210.5628, Subm. 20 Oct 2012.

Las revistas de acceso gratuito y la revista PLoS ONE

Este vídeo de PhD Comics explica muy bien lo que son las revistas de acceso gratuito (open access). Me ha recordado que hace unos días, un compañero de la Universidad Politécnica de Valencia se sorprendió cuando le dije que PLoS ONE es la revista científica que publica más artículos al año del mundo. Según ISI WOS, publicó 4403 artículos en 2009, 6722 artículos en 2010, y 12075 artículos en 2011. ¿Cuántos lleva en 2012? En septiembre ya había superado los 12000, lo que apunta a que se acercará a los 20000 para finales de año. ¡Una barbaridad! Por ello, la revisión por pares de PLoS ONE es como la lotería, te pueden tocar revisores que acepten casi cualquier cosa, o te pueden tocar unos «cabrones» que te saquen los colores (mi amigo dice que le han pasado ambas cosas y no lo entendía). Los editores no pueden realizar con éxito su labor de elegir de forma adecuada a los revisores, dado el enorme volumen de artículos que manejan al año, de ahí que la revisión por pares sea «ligera» (por decirlo de forma políticamente correcta).

¿Cuál es la segunda revista por volumen de artículos publicados al año? Mi amigo, y varios de los oyentes de la conversación, no se lo podían creer, pero la segunda en volumen es Physical Review B que publicó 5676 artículos en 2009, 6032 artículos en 2010, y 6148 en 2011 (en 2012 publicará un número similar). Escribo esta entrada para mi amigo, que pensaba (inocente él) que Physical Review Letters tenía que publicar muchos más artículos que Physical Review B. Obviamente, yo no recordaba los números, pero le dije que tenía que publicar como la mitad. Para él (y para tí que lees esto), PRL publicó 3414 artículos en 2009, 3119 en 2010, y unos 3244 en 2011.

Las redes sociales y las elecciones en EEUU

Cada año electoral en EEUU es un hervidero de artículos sobre el papel de la web y las redes sociales (Facebook, Twitter y YouTube) a la hora de predecir el resultado. Como solo hay un 50% de posibilidades de acertar (o errar) siempre hay artículos cuyos autores pueden presumir de haber acertado, incluso en más de una ocasión. Sin embargo, los medios de comunicación social y los resultados de los algoritmos de análisis pueden ser fácilmente manipulados. Por ejemplo, alterando el número de seguidores de los candidatos en Twitter (uno de los candidatos presidenciales de este año aumentó su número de seguidores en 110.000 en un solo día, pero un análisis demostró que la mayoría de estos seguidores no eran personas reales). Los organizadores de la campaña utilizan de forma regular «Google bombs» (que engañan al algoritmo PageRank de Google y logran posicionar ciertos sitios web en los primeros lugares en los resultados de búsqueda para ciertos términos) y «Twitter bombs» (que logran trending topics gracias a retuitear de forma automática los tuits que incluyen cierta etiqueta o hashtag). Predecir los resultados electorales de forma fiable gracias a la web y las redes sociales requiere técnicas avanzadas de detección de «bombas» y de spam, técnicas contra las que compiten los desarrolladores de «bombas.» Por ello, algunos algoritmos tienen éxito en sus predicciones y otros no, o solo en algunas ocasiones y no en otras. La verdad es que muchos no usamos Twitter para hablar de política y los estudios indican que solo el 1% de los usuarios es responsable del 30% del volumen de tráfico sobre política. Nos lo cuentan Panagiotis T. Metaxas, Eni Mustafaraj, «Social Media and the Elections,» Science 338: 472-473, 26 October 2012.

Sigue leyendo

El aprendizaje asociativo del comportamiento social en los nemátodos

Estudiar el sistema nervioso humano es muy complicado porque es una red muy compleja de células interconectadas entre sí. Todas nuestras acciones, sentimientos, recuerdos, sueños, incluso nuestra conciencia, emergen de su funcionamiento. Para entenderlo se utilizan modelos animales con un sistema nervioso mucho más sencillo, como el nemátodo Caenorhabditis elegans, un «gusano» de solo 1 mm de largo con menos de 400 neuronas, cuyo genoma codifica tantos neurotransmisores, receptores de neurotransmisores, canales iónicos y componentes de la sinapsis como los seres humano. En los humanos, las hormonas oxitocina (OT) y vasopresina (VP) estimulan comportamientos maternales, reproductivos, agresivos y afiliativos; no solo en humanos, también en los mamíferos. Siendo hormonas cuyo origen genético se remonta hasta hace al menos 700 millones de años, podemos esperar que también sean importantes en los invertebrados. Sendos artículos en Science han encontrado una hormona del nemátodo C. elegans, llamada nematocina (NTC-1) que es análoga a OT y VP, cuya función es regular el comportamiento reproductivo y la plasticidad gustativa (quimiotaxis) en estos invertebrados. Nos lo cuenta Scott W. Emmons, «The Mood of a Worm,» Science 338: 475-476, 26 October 2012, quien se hace eco de los artículos técnicos de Jennifer L. Garrison et al, «Oxytocin/Vasopressin-Related Peptides Have an Ancient Role in Reproductive Behavior,» Science 338: 540-543, 26 October 2012, y Isabel Beets et al, «Vasopressin/Oxytocin-Related Signaling Regulates Gustatory Associative Learning in C. elegans,» Science 338: 543-545, 26 October 2012.

Sigue leyendo