Cada día será más difícil publicar en Physical Review Letters

PRL quiere un índice de impacto más alto. Lo conseguirá siendo más selectiva y más eficiente. Endurecerán el proceso de aceptación de artículos. Así se lo ha advertido el editor a los revisores: Tenéis que ser más duros, muchachos. Primero se quejaron de que por su tamaño (el gran número de artículo que publican al año) no podían tener un índice de impacto más alto (Editorial: «Is PRL Too Large to Have an ‘‘Impact’’?,» February 9, 2009). Ahora nos advierten que desde hoy publicar en PRL será cada día más difícil (Editorial: «Improving PRL,» June 29, 2009). Esto es la repera. Los editores están obsesionados con el índice de impacto. A ver quién «la» tiene más grande (la lista de artículos altamente citados, claro). ¡Qué cosas!

«PRL debe ser una revista más selectiva y más eficiente.» Sólo resultados de primera (¿no lo eran ya?) podrán ser publicados. Todos, autores, revisores y editores, deberán tenerlo en cuenta a partir de ahora (¿no lo tenían ya?).

¿Cuál es la clave? «Los revisores deberán tener en cuenta el impacto del resultado en su campo y en otros campos.» El impacto del artículo, es decir, quieren un índice de impacto más alto y quieren publicar solo artículos que esté garantizado que vayan a tener un alto índice de impacto. Más aún, los revisores tendrán que explicar al aceptar un artículo por qué cumple con los «altos» estándares de PRL. Más claro, agua, … digo, en inglés [c&p del original]

«Referees must judge breadth of interest based on the impact a result will have both in its field and across field boundaries, and, if they conclude that a paper meets PRL standards, they must explain why.»

Los nuevos criterios se aplicarán a partir de 1 de julio de 2009. Así que, amigo, a enviar papers a PRL ya, pero ya, que habrá que aprovechar el proceso de transición en el que la mayoría de los revisores no se hayan leído aún los nuevos criterios y no sepan aplicarlos, porque en los próximo meses si ya era difícil publicar en PRL se va a convertir en casi imposible.

En este blog ya contamos La “bonita” historia de Physical Review Letters (Publicado por emulenews en Febrero 7, 2009).

Según Steven Weinberg la teoría de cuerdas se inventó en 1926

Dibujo20090629_Steven_Weinberg«El artículo de Heinserberg-Born-Jordan de 1926 que aplicaba la mecánica matricial al campo electromagnético era teoría de cuerdas antes de que se inventara la teoría cuántica de campos.» Palabra de Steven Weinberg, Premio Nobel de Física, 1979, en «What is Quantum Field Theory, and What Did We Think It Is?,» ArXiv, Submitted on 4 Feb 1997.

Este tipo de citas hay que dejarlas literalmente, así que aquí lo tenéis, en inglés.

«Werner Heisenberg, with Max Born and Pascual Jordan, discovered matrix mechanics, the first version of quantum mechanics. The historical goal of understanding electron motion within atoms was abandoned in favor of a systematic method for organizing observable spectral lines. In 1926, in one of the very first papers on quantum mechanics, presented the quantum theory of the electromagnetic field. For simplicity they left out the polarization of the photon, and took spacetime to have one space and one time dimension, but that didn’t affect the main results.(Response to comment from audience: Yes, they were really doing string, so in this sense string theory is earlier than quantum field theory.)«

Qué ha pasado con «El Tevatrón encuentra una nueva partícula en contra del Modelo Estándar»

Dibujo20090629_CDF_Dzero_comparison_tevatron_fermilabLlegó a portada en Menéame, fue comentada en Eureka, Kanijo y en este blog, entre otros. ¿Qué ha pasado con el exceso de multimuones de alto parámetro de impacto que encontró el CDF del Tevatrón y publicó en ArXiv en noviembre de 2008? Ninguna partícula conocida en el Modelo Estándar podía explicarlo. Nueva física en el Modelo Estándar significa Premio Nobel. ¿Ha confirmado el DZERO del Tevatrón el resultado? No lo ha confirmado. ¿Se ha publicado el resultado original en una revista internacional? Lo enviaron a Physical Review D y todavía está en revisión. Quizás no lo acepten debido a que DZERO no ha confirmado lo observado. ¿Podemos descartar que haya sido encontrada nueva física más allá del Modelo Estándar? No todos lo creen así. Por ejemplo, Tommaso Dorigo, coautor del paper del CDF en ArXiv, opina que el análisis de los datos de DZERO no es concluyente. Su argumento: los multimuones se encontraron a gran parámetro de impacto y los datos de DZERO a gran parámetro de impacto son poco fiables. Habrá que esperar a nuevos resultados de CDF y DZERO (o hasta que el LHC empiece a dar resultados) para confirmar o rebatir la posible nueva física reportada por el Tevatrón. Así es la física de partículas experimental, lenta, pero segura.

Para los interesados en los resultados de DZERO que (quizás) refutan los resultados previos de CDF, el artículo técnico es Mark Williams (DZERO Collaboration) «Search for Excess Dimuon Production in the Radial Region (1.6 < r < 10) cm at the DZERO Experiment,» ArXiv, Submitted on 16 Jun 2009. En lugar del exceso observado por el CDF (de un 23%) han observado un exceso prácticamente nulo ((0.40 \pm 0.26 \pm 0.53)\%). La razón por la que este resultado no es una demostración definitiva de que se ha interpretado mal el resultado del CDF es sencilla. El exceso de muones del CDF fue observado lejos del punto de colisión de los haces de protones y antiprotones en el Tevatrón, más allá de 1.5 cm (que es una distancia enorme en física de partículas). A dichas distancias la eficacia de los detectores de estado sólido del DZERO no es demasiado alta (según Tommaso es insuficiente) para confirmar o refutar definitivamente el resultado del CDF (que a dichas distancias se supone que es mejor detector).

Para los que hayan perdido el hilo, recapitulemos. ¿Por qué el exceso de muones es una posible señal de nueva física? La razón es que los muones se producen en procesos de desintegración débil, procesos que son muy inestables. No es fácil explicar tantos muones como los encontrados tan lejos como a 1.5 cm del punto de colisión. Cualquier proceso de desintegración débil los habría producido a una distancia mucho más corta. Se han encontrado unos 300 mil muones cuando los modelos teóricos basados en métodos numéricos de Montecarlo resultan en 70 mil muones menos. Un exceso del 23% es muy grande. ¿Puede que a grandes parámetros de impacto (distancias alejadas del centro de la colisión) se esté subestimando el número de muones de fondo según el Modelo Estándar? Los físicos del CDF tienen una experiencia altamente demostrada durante décadas en calcularlo correctamente, es difícil que se hayan equivocado, pero no imposible. Nada es imposible.

¿Qué podría explicar los resultados observados en el CDF? Hay varias posibilidades pero todas apuntan a la existencia de alguna nueva partícula aún no descubierta, quizás una partícula tipo bosón escalar (de la misma familia que el bosón de Higgs o del inflatón posible responsable de la era de la inflación tras el Big Bang). El Modelo Estándar permite la existencia de bosones escalares pero no los incluye ya que nadie ha observado ninguno. Si el CDF ha descubierto el primero su incorporación seguramente no requerirá que nadie se rasge las vestiduras pero se convertirá en un firme candidato a Premio Nobel de Física. 

Se cofirme o se refute el resultado del CDF lo importante de este ejemplo es que todavía nos quedan muchas cosas por aprender del Modelo Estándar y de la física de partículas «convencional» sin necesidad de recurrir a exotismos como la supersimetría, los axiones y otros constructos teóricos. He de confesar que soy de los que piensan que la supersimetría es correcta y que será descubierta en el LHC del CERN.

PS (2 julio 2009): Más sobre los multimuones anómalos detectados en el CDF II con parámetro de impacto de 1,5 cm. Un nuevo artículo de F. Ptochos (CDF Collaboration), «Multi-muon events at CDF,» ArXiv, Submitted on 1 Jul 2009, trata de aclarar un poco el asunto. Me gustaría destacar un par de frases en dicho artículo: «It is difficult to reconcile the rate and characteristics of these anomalous events with expectations from known SM sources. Although one can never rule out the possibility that these data could be at least partially explained by detector effects not presently understood, we will present some additional properties of the ghost sample.» Aunque también afirman que «The possibility of instrumental effects, trigger and reconstruction biases have been investigated in detail.» Lo dicho, habrá que estar al loro a ver qué van publicando al respecto. Esto va a dar para largo…

ESTALMAT y el informe Gurb de nuestro colega Guz del Planeta G51

ESTALMAT (ESTímulo TALento MATemático) es una iniciativa de la Real Academia de Ciencias patrocinada por Vodafone-Fundación España y por el CSIC (Consejo Superior de Investigaciones Científicas) que busca descubrir jóvenes talentos en matemáticas y reforzarles con una formación específica algunos sábados durante el año. En Andalucía lo organiza la Asociación Andaluza de Educación Matemática Thales. Aquí tenéis los enunciados de las pruebas de 2009-2010 que se acaban de celebrar, así como las soluciones (no las miréis hasta haberos enfrentado a los problemas) [omito el enlace para evitar tentaciones]. También podéis atreveros con los problemas de los últimos cuatro años.

Os recomiendo como lectura «El informe Gurb en el Madrid del 2504. Un ejercicio didáctico de matemática-ficción para profesorado realista,» conferencia del gran Claudi Alsina. Os extraigo un trocito para que os hagáis una idea del contenido del resto.

«Antes de ser enviado a Madrid, Guz fue entrenado varios meses a bailar el chotis, digerir una extraña sopa llamada cocido y no alterar sus nervios tras largas horas sentado en el interior de un coche inmóvil. Guz acompañó durante años a Miguel de Guzmán sin que éste se enterase y gracias a este seguimiento concreto hemos podido hoy tener una visión mucho más clara de lo que hacía un matemático español cualquiera. Por lo visto daban diversas asignaturas, escribían muchos libros, daban conferencias y eran políglotas. Todos se preocupaban de investigar, de divulgar, de educar y de ayudar a los demás. En efecto, cada matemático dirigía varias tesis, publicando libros en diversos idiomas. Todos tenían una gran vocación didáctica y dedicaban muchas horas a la formación de profesores.

Al revés de otros trabajadores, los matemáticos renunciaban a los sábados y los dedicaban a promocionar las matemáticas en niños muy jóvenes. Una vez al año iban gratis a formar profesores al Salvador, o Argentina, o países similares. Todos sabían español, francés, inglés, alemán e incluso latín. En julio y septiembre daban cursos de verano o aprovechaban para escribir más libros.»

1/89, las sucesiones tipo Fibonacci y 1/69

Lo he visto en Menéame y me he quedado sorprendido. Me sorprenden que se sorprendan sobre 1/89 y la sucesión de Fibonacci. La suma (trivial) de la serie

S=\frac{F_0}{10}+\frac{F_1}{10^2}+\frac{F_2}{10^3}+\cdots = \frac{1}{10} \sum_{n=0}^\infty \frac{F_n}{10^{n}} = \frac{1}{89},

donde F_n son los números de Fibonacci, 0,1,1,2,3,5,8,13,\ldots, es un problema que puedo pedirle en un examen a un alumno. ¡Y hay gente que se sorprende! No sé, me encanta. Es el encanto de la matemática. ¡Imaginad que el resultado fuera 1/69 en lugar de 1/89! Sería como más «comercial,» digo yo, no sé. Es curioso.

La sucesión de Fibonacci cumple F_n=a\,F_{n-1}+b\,F_{n-2}, con a=1, b=1, y F_0=0, F_1=1. El polinomio característico de esta relación de recurrencia (o ecuación en diferencias finitas homogénea) es p(r)=r^2-a\,r-b, cuyas raíces nos dan directamente la solución general

r_{\pm} = \frac{ a \pm \sqrt{ a^2+4\,b}}{2},            F_n=\frac{1}{\sqrt{a^2+4\,b}}\,\left( r_+^n + r_-^n\right),

con lo que la suma que queremos calcular es una simple suma de series de potencias

S=\frac{1}{10\,\sqrt{a^2+4\,b}}\,\left( \sum_{n=0}^\infty \left(\frac{r_+}{10}\right)^n + \sum_{n=0}^\infty \left(\frac{r_-}{10}\right)^n\right),

que cuando converge nos da trivialmente

S=\frac{1}{10\,\sqrt{a^2+4\,b}}\,\left( \frac{1}{1-{r_+}/10} - \frac{1}{1-{r_-}/10} \right)

S =\frac{1}{\sqrt{a^2+4\,b}}\,\left(\frac{r_{+}-r_{-}}{(10-r_{+})\,(10-r_{-})}\right)=\frac{1}{(10-r_{+})\,(10-r_{-})}.

En el caso de la sucesión de Fibonacci, con a=1, b=1,, obtenemos r_{\pm}=(1\pm \sqrt{5})/2, y S=1/89.

¿Cómo podemos obtener 1/69? Hay muchas maneras, por ejemplo, con a=1, b=21, o con a=3, b=1. Pero lo más curioso es que la sucesión tipo Fibonacci F_n=10\,F_{n-1}-69\,F_{n-2}, da S=1/69. ¿Curioso o no? Así es la matemática. Te preguntan la demostración en un examen y te acojonas… pero el resultado llega a portada en Menéame.

Pregunta para aficionados a la matemática: ¿converge la serie en el caso a=10, b=-69? Tranquilo, es fácil.

El éxito de la astrología y su explicación psicológica, el efecto Forer

«La mejor prueba de que la astrología funciona es el testimonio personal de los creyentes en ella. La astrología falla patéticamente al predecir eventos históricos, pero tiene gran éxito al predecir las circunstancias personales de cada uno. Incluso los no creyentes en la astrología tienen que aceptar que sus predicciones son fiables.» Esta paradoja se explica fácilmente con el efecto Forer (también conocido como efecto Barnum): todos creemos que son muy fiables las descripciones de nuestra personalidad que han sido realizadas específicamente para nosotros, cuando en realidad son generales y suficientemente vagas como para ser aplicadas a un amplio espectro de gente. P. T. Barnum era un mentalista que lo usaba en el s. XIX en sus shows. Los psicólogos la llaman la «falacia de la validación personal»  desde que fue estudiada en 1948 por el psicólogo americano Bertram R. Forer, que demostró que se puede adivinar el carácter y la personalidad de una persona sin necesidad de ninguna dote adivinatoria especial.

Ya comentamos en este blog el experimento de Narlikar que ha generado cierta polémica en la India. Los indios quieren dejar claro que aunque en el experimento se utilizó la astrología ancestral hindú (jyothisha) en realidad el resultado es extendible a todos los tipos de astrología. Nos aclara Manoj Komath, «Testing astrology,» Current Science 96: 1568-1572, 25 June 2009, que «los numerosos estudios críticos sobre la astrología occidental en los últimos 60 años han demostrado que los astrólogos no son capaces de predecir más allá de la suerte.» No sé por qué pero a mí me parece que no era necesaria tal aclaración.

Los interesados en más información al respecto pueden recurrir aquí, donde afortunadamente nos resumen en 60 palabras lo que se puede leer en más amplitud en 470 mil «There is more to astrology than being true or false.» Solamente 70 artículos en contra de la astrología. Me han resultado curiosas estas recopilaciones de artículos con el tiempo estimado que requiere su lectura, aunque no voy a molestar en leer ninguno. Quizás tú sí te atrevas… [los enlaces los he sacado del artículo de Komath, claro].

Todavía no se ha resuelto el misterio del espín del protón: los gluones aportan menos del 5%

Dibujo20090626_spin_nucleon_proton_problem_3_quarks_multiple_gluons

El protón está formado por tres quarks de valencia (uud), dos quarks up y uno down. El espín del protón debería ser 1/2 ya que los correspondientes a los quarks suman 1/2-1/2+1/2. Sin embargo, los experimentos de dispersión inelástica profunda indican que no es así. Más aún, los 3 quarks sólo aportan el 20-30% del espín total del protón. En realidad, el protón está formado por un «mar» de gluones y pares quark-antiquark virtuales. La interpretación teórica de los experimentos más recientes en el RHIC (Relativistic Heavy Ion Collider en Brookhaven, EEUU) indican que los gluones aportan muy poco al espín del protón, el 3-5% del total. ¿De qué depende el espín del protón? Nadie lo sabe realmente. Los cálculos teóricos mediante métodos numéricos son casi imposibles y los experimentos en el RHIC no tienen energía suficiente todavía. La hipótesis más barajada entre los especialistas es que dependen del momento angular orbital conjunto de quarks y gluones. Según los especialistas faltan muchos años para que podamos determinar experimentalmente esta contribución. Curioso lo mucho que sabemos de unas cosas y lo poco de otras.

Ya nos hablaron de este problema Madhusree Mukerjee, «Origen del espín del protón,» Investigación y Ciencia, Mayo 1994, y Schäfer Rith, «The Mystery of Nucleon Spin,» en Scientific American, July 1999. Que los gluones no lo explican apareció a finales del año pasado en muchos medios, como en Saeko Okada, «Gluons don’t explain the spin surprise,» en relación al artículo técnico De Florian, D., Sassot, R., Stratmann, M., Vogelsang, W. «Global analysis of helicity parton densities and their uncertainties,» Physical Review Letters 101: 072001, 2008, y el más reciente Daniel de Florian, «Next-to-leading order QCD corrections to hadron+jet production in pp collisions at RHIC,» Physical Review D 79: 114014, 15 June 2009.

RHIC animations and multimedia.

PS: Los interesados en detalles técnicos pero físicos en general pueden consultar el artículo de Steven D. Bass, «The proton spin puzzle: where are we today?,» Mod. Phys. Lett. A 24: 1087-1101, 2009 (ArXiv, Submitted on 28 May 2009). «The proton spin puzzle has challenged our understanding of QCD for the last 20 years. The proton spin puzzle seems to be telling us about the interplay of valence quarks with the complex vacuum structure of QCD.» [Visto en The Gauge Connection]. La entrada «PHENIX says gluons are not all the story,» también será de vuestro interés.

Las interacciones entre proteínas no son más fiables porque hayan sido publicadas en muchos artículos

Dibujo20090626_protein_protein_interaction_PDB_1LFD_chain_A_BMuchos científicos piensan que un resultado es más fiable si ha sido publicado muchas veces. No es así. Muchos biólogos piensan que una posible interacción entre dos proteínas es más fiable si ha sido publicada muchas veces. Un estudio reciente demuestra que esto no es verdad. Las áreas de moda o candentes, debido a la alta competitividad científica, presentan resultados con un gran número de errores. Las probabilidades de falsos positivos y verdaderos negativos crecen con el volumen de publicaciones en un área. Así lo han demostrado Thomas Pfeiffer y Robert Hoffmann al estudiar las interacciones entre proteínas de levadura de la cerveza (S. cerevisiae) publicadas en revistas internacionales, en su reciente artículo «Large-Scale Assessment of the Effect of Popularity on the Reliability of Research,» PLoS ONE, 4: e5996, June 24, 2009.

La investigación científica no está libre de errores. Ciertos estudios científicos pueden avalar hipótesis erróneas o refutar hipótesis correctas. Las áreas de moda o candentes, debido a la alta competitividad científica, presentan gran número de estos errores. Por ejemplo, muchos falsos positivos son «fabricados» (modificando o sesgando datos estadísticos). Pfeiffer y Hoffmann han comparado los resultados más recientes y fiables sobre las interacciones de proteínas en la levadura de la cerveza (S. cerevisiae) con los resultados publicados en años pasados. Han observado que las interacciones más populares en lugar de ser las mejor caracterizadas, todo lo contrario, son las caracterizadas con menor fiabilidad. Los resultados muestran que no es más fiable una interacción protéica porque haya sido reportada por múltiples estudios. Los índices que miden la calidad de una interacción protéica por el número de publicaciones en las que ha aparecido caracterizada (muy usados en bioinformática) se caen por su propio peso.

Parece paradójico que en las áreas más candentes (hot topic) sea muy difícil distinguir entre falsos positivos y verdaderos positivos. Los autores concluyen de su estudio que debería disminuirse la financiación en las áreas de investigación de moda y redirigirla a las áreas menos populares («the funding available in scientific research could be specifically directed towards promising projects on topics of currently low popularity«).

Gran éxito de la teoría de cuerdas en el estudio de las transiciones de fase cuánticas en líquidos de Fermi

Dibujo20090626_AdS_CFT_correspondence_illustrated_with_sphere_and_hyperbolic_spaceUno de los problemas más importantes de la física de la materia condensada es alcanzar una teoría que describa la transición de fase cuántica a temperatura cero en líquidos de Fermi fuertemente acoplados (problema que se considera fundamental en una posible teoría de superconductores de alta temperatura). El problema se ha resistido a todas las técnicas matemáticas de teoría cuántica de campos convencionales. Pero ha sido doblegado por las nuevas técnicas matemáticas de la teoría de cuerdas. La correspondencia AdS/CFT permite relacionar los campos cuánticos fermiónicos con un problema gravitatorio, mucho más sencillo, que permite determinar las funciones espectrales de los fermiones en esta teoría de campos. Un incremento en la densidad de fermiones más allá del punto crítico cuántico observado conduce a que emerja un estado con las características de un líquido de Fermi. El artículo técnico es Mihailo Čubrović, Jan Zaanen, Koenraad Schalm, «String Theory, Quantum Phase Transitions, and the Emergent Fermi Liquid,» Science Express, Published Online June 25, 2009 (ArXiv preprint, versión extendida).

En mi opinión es un gran éxito que la teoría de cuerdas aplicada a la física del estado sólido (transiciones de fase cuánticas en líquidos de Fermi) logre publicar un artículo en Science. Sea o no útil para entender la gravedad cuántica, su utilidad en física de la materia condensada es cada día más relevante. Lo hemos contado varias veces en este blog. La teoría cuántica de campos ya es materia obligada de estudio para cualquier licenciado en Ciencias Físicas. No por sus aplicaciones al Modelo Estándar sino por las que tiene en física de la materia condensada y del estado sólido. Quizás, la teoría de cuerdas también alcanzará dicho estatus. 

Dibujo20090626_quantum_critical_phase_diagram_of_graphene_(C)_SchmalianLos detalles técnicos exceden mis conocimientos. Aún así, permitidme una breve disgresión. Las técnicas de dualidad son técnicas matemáticas por las que un problema en una cierta teoría se puede describir en el marco de una teoría diferente conduciendo a un resultado final idéntico. Normalmente se usa la dualidad para simplificar los cálculos ya que el régimen de acoplamiento fuerte en una de las teorías corresponde a un régimen de acoplamiento débil en la otra. La correspondencia AdS/CFT es una relación de dualidad entre una teoría gravitatoria clásica en D+1 dimensiones construida en un espaciotiempo con una geometría de tipo Anti-de-Sitter (AdS) y una teoría de campos críticos fuertemente acoplada con invarianza conforme descrita en su borde, un espaciotiempo plano o esférico de D dimensiones.

Este tipo de técnicas matemáticas (correspondencia AdS/CFT) ya ha sido utilizada en física de la materia condensada para describir estados con bosones, como las transiciones aislante-superconductor o los sistemas de átomos fríos que presentan resonancias de Feshbach. Pero en estos sistemas las técnicas convencionales de teoría de campos logran una descripción alternativa, a veces con cálculos más largos, pero que para la mayoría de los físicos es más fácil de entender. Pero con fermiones (pesados o fuertemente acoplados), por ahora, la teoría de cuerdas es la única opción viable.

PS (08 julio 2009): Este resultado científico ayuda a resolver, pero no resuelve, el estudio teórico de uno de los grandes problemas en teoría de superconductores de alta temperatura: el hecho de que en el diagrama de fases de estos materiales aparece cierta región en las propiedades de un líquido de Fermi asociada a una transición de fase cuántica a temperatura cero. Sin embargo, obviamente, esto no demuestra que la teoría de cuerdas sea correcta, como muchos han proclamado, p.ej. Realidad física: la Teoría de Cuerdas ha sido finalmente demostrada!, jul 7, 2009. Hay un post muy interesante al respecto de Lubos Molt «Physical reality of string theory demonstrated?» Solo un comentario, cuidado a los que no conozcan a Lubos, siempre exagera bastante (a mí me gustan sus exageraciones), por ejemplo, afirmando «The Leiden group has used the AdS/CFT methods to study the «critical state of matter» that makes high-temperature superconductivity possible.» Hasta ahora lo único que se sabe es que los líquidos de Fermi aparecen en casi todos los superconductores y como son difíciles de entender (¿hasta ahora?) se piensa que pueden ser una pieza clave en una futura teoría que los explique, aunque puede que no. 

 Más en este blog sobre teoría de cuerdas en estado sólido:

La teoría de cuerdas, nueva herramienta en física del estado sólido (Publicado por emulenews en Diciembre 17, 2008)

La teoría de cuerdas: nueva herramienta en la física de la materia condensada (Publicado por emulenews en Agosto 7, 2008)

Teoría de cuerdas: matemática pura o aplicada (Publicado por emulenews en Julio 20, 2008)

El Higgs podría descubrirse gracias al roce de dos protones que no lleguen a chocar

Dibujo20090625_virtual_photons_gluons_meson_production_CDF_collaboration

Las partículas elementales no están desnudas. Según la mecánica cuántica, están rodeadas de nubes de partículas virtuales. Existir existen pero no pueden ser detectadas individualmente. ¿Qué pasa si dos nubes de partículas virtuales se rozan sin chocar? Se pueden producir otras partículas igual que cuando chocan dos partículas, pero su choque será mucho más limpio. Un bosón de Higgs de poca masa será muy difícil de detectar en el LHC del CERN. Las colisiones entre protones generan tal explosión de partículas que encontrarlo será como encontrar una aguja en un pajar. Sin embargo, si se rozan las dos nubes de partículas virtuales de cada protón, podrían generarse bosones de Higgs muy limpiamente (unos cientos al año en el LHC). Así lo han propuesto físicos del Fermilab que han logrado generar mesones charmonium (formados por pares de quarks encantado y antiencantado) gracias a dichos roces. El artículo técnico es (otro paper más de Aaltonen) T. Aaltonen et al. (CDF Collaboration), «Observation of Exclusive Charmonium Production and γγ → μ+μ- in pp Collisions at √s = 1.96 TeV,» Phys. Rev. Lett. 102: 242001, 19 June 2009 (ArXiv preprint). Muchos se han hecho eco de este artículo, como «A Higgs Boson without the Mess,» Physical Review Focus, 24 June 2009, traducido al español por César en «Un bosón de Higgs, pero sin el barullo,» Experientia docet, 25 junio de 2009. Os extraigo el primer párrafo [c&p] para que os animéis a leerlo.

«Los físicos de partículas del Large Hadron Collider (LHC) del CERN esperan descubrir el bosón de Higgs entre el barullo de partículas que se generen en las colisiones protón-protón. Los resultados que se publican en el número del 19 de junio de Physical Review Letters muestran que hay una forma de eliminar parte de ese barullo. Un experimento en el colisionador protón-antiprotón Fermilab (Illinois, EE.UU.) ha identificado un proceso poco frecuente que produce materia a partir del intenso campo de la fuerza nuclear fuerte pero que deja intactos al protón y al antiprotón. Existe una posibilidad de que la misma interacción básica les permita a los físicos del LHC tener una visión más clara del Higgs.»