Dorigo contra Dittmar, un combate de boxeo dialéctico contra el Tevatrón en el CERN

Los medios (prensa, radio, televisión) ya no relatan las noticias. Son partícipes de la noticia. Crean la noticia. Sin los medios muchas noticias no existirían. Todo es noticiable. Los políticos necesitan a los medios. No eres nadie si los medios no hablan de tí, aunque sea mal. Todas las instituciones científicas necesitan dinero, mucho dinero, más dinero aún. Los políticos sólo quieren conceder fondos a las instituciones científicas que aparecen en los medios. Que generan noticias. El contribuyente necesita saber que su dinero está bien invertido, afirman los políticos. El dinero sólo se debe invertir en las instituciones que produzcan resultados, que produzcan noticias. Sin noticias no hay resultados. La ciencia debería estar al margen, pero no puede estarlo. La ciencia está vendida a los medios.

El año 2008 fue el año del LHC del CERN. Copó todos los medios. No hubo resultados. Todo acabó en nada. En una espera a que haya resultados. ¿Volverá el LHC en 2010 a copar todos los medios? El Tevatrón del Fermilab aprovechó la oportunidad. Recortes financieros requerían generar noticias. Y el Tevatrón ha generado noticias que han copado los medios a finales de 2008 y principios de 2009. ¿Había pocos resultados y ahora hay muchos? ¿Estaban aguantando los resultados en el cajón a la espera del momento oportuno? Los medios afirman que el Tevatrón puede ganarle al LHC la carrera de la búsqueda del bosón de Higgs. ¿Verdad o sólo noticia? Necesitan más fondos, todo el mundo lo sabe (muchos trabajadores se vieron obligados a abandonar el Fermilab). ¿Hemos de creer todo lo que se publica sobre los increíbles resultados obtenidos en el Tevatrón en el último año?

dibujo20090404tomassodorigodibujo20090404michaeldittmarHay científicos que no se creen los resultados del Tevatrón Run II. La mayoría callan. Michael Dittmar (ETH-Zurich, Suiza) ha querido ser la voz pública de todos los que callan. Dittmar impartió una conferencia en la división teórica del CERN el martes 19 de marzo de 2009 titulada “¿Por qué nunca me creo los resultados del Tevatrón sobre el bosón de Higgs?” (powerpoint de “Why I never believed in the Tevatron Higgs sensitivity claims for Run 2ab”). Entre el público se encontraba Tommaso Dorigo. Responsable del mejor blog sobre física de partículas elementales del mundo “A quantum diaries survivor” (PS: yo no soy el único que lo opina).  Nos relata el combate de boxeo dialéctico Dorigo contra Dittmar en “A seminar against the Tevatron!” Tras 35 años volvemos a revivir el combate de Foreman contra Ali, en el que el segundo arrebató el título al primero. ¿Quién ha ganado en este nuevo combate? Sólo tengo acceso a la versión de Dorigo, que paso a resumiros.

El primer asalto fue por los derroteros esperados. El campeón Foreman acorraló a Ali contra las cuerdas. Dittmar presentó una figura sobre la búsqueda del Higgs en el Tevatrón. Una figura bien conocida por todos entre el público, publicada en el año 2000, resultado del esfuerzo de decenas de investigadores de los detectores CDF y DZERO del Fermilab. La figura lleva como título “Combined CDF/DZERO thresholds.”  Dittmar afirmó que nadie sabía cómo había sido obtenida. ¡Nadie! John Conway, “jefe” del grupo que busca el Higgs en el CDF espetó un ¡¿comorrr?! “Si está puesto en el título de la figura, combinando datos del CDF y del DZERO.” Más aún, Conway confesó que él era el mismísimo autor de la figura. Dundee, entrenador de Ali, le espetó que se tranquilizara. Que no hiciera locuras.

La resistencia de Ali ante los golpes de Foreman era prodigiosa. No así la de Dorrigo, que lleva trabajando en las técnicas que condujeron a la susodicha figura desde 1992. Su propia tesis doctoral en 1998 versó sobre estas técnicas. Dittmar estaba atacando su trabajo durante al menos 4 años. Dorrigo se aguantó como pudo. En sus palabras literales “I kept my cool, because when your opponent offers you on a silver plate the chance to verbally sodomize him, you cannot be too angry with him.” Le comentó a Dittmar que los detalles estaban publicados y le recomendó que se estudiara los artículos más cuidadosamente antes de continuar con su charla. Conway explicó brevemente el quiz de la cuestión por el beneficio del público, que no del conferenciante, que se hizo el sordo.

Foreman atacaba una y otra vez y Ali resistía. Dittmar espetó que los investigadores del Tevatrón estaban perdiendo el tiempo. Que cedieran el testigo al LHC del CERN. No tenían ninguna oportunidad de hacer ciencia de calidad. Literalmente “My personal conclusion is that if the Tevatron people want to waste their time on it, good luck to them.” Para Dittmar los límites sobre la masa del bosón de Higgs obtenidos por el Tevatrón eran incorrectos y científicamente deshonestos. Acabó su charla con una terrible afirmación:

“Optimistic expectations might help to get funding! This is true, but it is also true that this approach eventually destroys some remaining confidence in science of the public.”.

“It is the time to confess and admit that the sensitivity predictions were wrong”.

Ali en el octavo asalto tras una serie de certeros e imparables golpes logró que Foreman besara la lona. El campeón ya era ex-campeón. El ataque final, la “puntilla” de Dorigo a Dittmar nos la ha ofrecido en su blog.  

¿Por qué Dittmar atacó al Tevatrón y defendió al LHC? Tony Smith comenta en el blog de Dorigo que Dittmar es aficionado a atacar grandes proyectos de física (salvo al CERN, claro). En el libro editado “The Final Energy Crisis” (Pluto Press 2008), tiene una artículo “Fusion Ilusions,” en el que ataca acaloradamente el proyecto de fusión del ITER. Quizás esté preparando una nueva contribución a un libro similar en el que atacará al Tevatrón.

Por cierto, Alberto Ruiz, director del Grupo de Física de Altas Energías del Instituto de Física de Cantabria, que también asistió a la conferencia de Michael, confirma en un comentario en el blog de Tommaso que su versión de lo que pasó es correcta y además que coincide con su opinión: “I agree absolutely with your opinions. It is really astonishing to see such a low level talk at CERN, I hope at the end is irrelevant.” Por cierto, Alberto también colabora con el Tevatrón actívamente.

Con las técnicas de análisis del año 2005, la acumulación de datos experimentales en el Tevatrón hubiera resultado en la curva verde. Sin embargo, también han mejorado las técnicas de análisis de datos, y se han acumulado más datos (más luminosidad) por lo que ahora se obtienen resultados mucho mejores.

Uno de los grandes avances en las técnicas de análisis de datos ha sido la incorporación de nuevas herramientas basadas en redes de neuronas artificiales. Gordon Watts nos informa que estas técnicas, cuyo desarrollo en esta aplicación ha requerido más de una década de trabajo, permiten analizar inmensas cantidades de datos, imposibles de atacar con las técnicas anteriores. Dorigo nos aclara que son una técnica, que en este contexto, se entiende muy bien. De hecho, CDF y DZERO utilizan técnicas de redes de neuronas artificiales diferentes que han sido validadas con datos obtenidos con otras técnicas y entre ellas.

En el fondo de todo este debate se encuentra el hecho de que los datos experimentales del Tevatrón utilizados en la búsqueda del bosón de Higgs no son públicos. Se publican los resultados finales tras el análisis de los datos, pero no los datos como tales. ¿Por qué? Política cientifíca. ¿Ciencia no repetible? Sólo un Tevatrón… si hubiera dos. El LHC nos sacará de dudas… pero quien verificará los resultados del LHC… si sólo habrá uno.

¿Qué beneficio práctico obtendremos gracias a la búsqueda del bosón de Higgs en el LHC del CERN?

La “gran ciencia” (big science) genera tecnología, tecnología punta, genera industria, mucha industria, genera riqueza. Los grandes aceleradores de partículas, como el LHC del CERN, son ejemplos perfectos de ello. La tecnología de aceleradores de partículas ha permitido desarrollar dispositivos de implantación iónica que se utilizan para la fabricación de mejores semiconductores, para la fabricación prótesis de rodilla más duraderas, para la fabricación de neumáticos menos contaminantes, para el desarrollo de nuevas terapias contra el cáncer. Esto último gracias a que lo último de lo último en superimanes superconductores está en los grandes aceleradores. Esta tecnología ha permitido desarrollar y permitirá mejorar los potentes imanes necesarios en el diagnóstico clínico (como en resonancia magnética nuclear) y para terapias contra el cáncer basadas en haces de protones. Nos lo cuenta Elizabeth Clements, en “Particle physics benefits: Adding it up,” Symmetry, dec. 2008 .

La “gran ciencia” también genera un enorme potencial humano. Sólo el 10% de los físicos teóricos y experimentales formados en el campo de los aceleradores de partículas acaban siendo profesores de universidad o investigadores en instituciones públicas. El 90% restante se incorpora a la industria privada, como nos cuenta Tona Kunz, en “A fearlessly creative workforce,” Symmetry, dec. 2008 . Un ejemplo, el físico teórico Jorge López, especialista en la “esotérica” teoría de cuerdas, que trabajó en el Fermilab en el experimento DZero que descubrió el quark top en 1995, ahora trabaja en la Shell Oil, en el modelado por ordenador de prospecciones petrolíferas en 3D. Otro ejemplo, Dave Whittum que diseñaba aceleradores lineales de microondas para el Fermilab y el SLAC, ahora trabaja para Varian Medical Systems, en California, desarrollando aceleradores de partículas para el tratamiento del cáncer y aparatos de rayos X para detectar bombas en cargueros. Un último ejemplo, muchas constructoras y promotoras inmobiliarias de los alrededores de Chicago contratan a personas que han trabajado para el Fermilab, incluidos doctores en física teórica, porque les están muy buen “resultado.”

En el LHC del CERN se aceleran haces de protones. La mejor terapia contra el cáncer está basada en aceleradores de protones, como nos cuenta Glennda Chui, “The power of proton therapy,” Symmetry, dec. 2008 . “A la hora de luchar contra el cáncer, el escalpelo más preciso podría ser un haz de protones.” El tratamiento del cáncer basado en radioterapia tiene gran número de efectos secundarios, ya que no sólo mueren las células cancerígenas. El físico teórico Robert Wilson, de la Universidad de Harvard, propuso el uso de haces de protones en lugar de rayos X como técnica de radioterapia en 1946 (“Radiological Use of Fast Protons“). En el Fermilab se construyó un acelerador de protones para el Centro Médico de la Universidad de Loma Linda, en el sur de California, el primer hospital del mundo en ofrecer la terapia basada en protones (el primer paciente fue tratado en octubre de 1980). Actualmente hay 26 distribuidos por todo el mundo. La gran ventaja de los protones es que es posible conseguir que descargen más del 90% de su energía en los últimos 5 mm de su trayectoria reduciendo al mínimo los efectos secundarios. Los avances en los grandes aceleradores de protones, como el LHC del CERN, repercutirán en el desarrollo de equipos más pequeños y baratos para la terapia protónica del cáncer, permitiendo que todas podamos “disfrutar” de dicha técnica.

Las técnicas de imagen en medicina, como la resonancia magnética nuclear (MRI) o la tomografía por emisión de positones (PET), con grandes ventajas respecto a los rayos X, son una de las grandes contribuciones de los aceleradores de partículas en nuestro día a día. Nos lo recuerda Calla Cofield, “deconstruction: MRI,” Symmetry, dec. 2008 . Particle physics’ key role in producing breathtaking images of the human body,” Symmetry, dec. 2008 . Recapitulemos brevemente la historia de la MRI. Isidor Isaac Rabi en 1937 descubrió cómo afectan campos magnéticos fuertes a las propiedades de los átomos y cómo así se pueden observar sus propiedades (por ello recibió el Premio Nobel de Física de 1944). Edward Purcell y Felix Bloch descubrieron en 1946 el fenómeno de resonancia magnética nuclear (NMR), inicialmente para mejorar el estudio de átomos y moléculas, pero que pronto se aplicó al estudio de tejidos vivos (por ello recibieron en Premio Nobel de Física de 1952). En 1973, Paul Christian Lauterbur (fallecido en 2007) descubrió cómo aplicar la NMR para obtener imágenes del cuerpo humano, creando la MRI (por ello recibió el Premio Nobel de Fisiología y Medicina en 2003). La técnica reción descubierta se aprovechó de los avances en las técnicas de imanes extremadamente potentes necesarios para la construcción del Tevatrón en el Fermilab (que se inició en 1974). La solución ideal para ambos, MRI y aceleradores, fueron los imanes superconductores que estaban basados en aleaciones metálicas “raras,” que en 1974 se vendían por kilos, pero que el Fermilab empezó a comprar por toneladas. Algo tan simple como el abaratamiento de los precios de estos materiales fue clave para el abaratamiento posterior de los aparatos de MRI (aún hoy en día siguen siendo caros, con precios del orden del millón de euros o superiores).

Hay muchísimas tecnologías que avanzan gracias a las necesidades de los aceleradores de partículas. Todos disfrutamos de Internet y disfrutaremos de la computación en grid. Los detectores de partículas basados en semiconductores permiten desarrollar nuevas tecnologías semiconductoras. En el Fermilab necesitaban detectores semiconductores 3D, chips 3D. El concurso lo ganó la empresa Tezzaron Semiconductor, que desde 2006 está desarrollando este tipo de detectores. Los chips 3D tienen muchas ventajas, básicamente porque reducen la longitud del cableado, con lo que aumentan la velocidad de cómputo y reducen el calentamiento de los micros (se calientan por la fricción de los flujos de electrones en los cables, luego a menos cables, menos calentamiento). En un futuro no muy lejano, los chips 3D se encontraran en las cámaras de fotos, los teléfonos móviles (celulares), y los ordenadores ultraportátiles, como nos cuenta Kathryn Grim, “Labs and industry perfect 3-D chip,” Symmetry, dec. 2008 .

En resumen, los beneficios en nuestra sociedad de la física de partículas elementales son muchos, y serán muchos más, tanto directos como indirectos. El número monográfico de la revista Symmetry dedicado a este tema es sólo un botón de muestra.

Nota: esta entrada, en parte, “recontesta” la pregunta de Milton en el primer comentario de mi entrada “Qué aprenderemos del mundo si se descubre el bosón de Higgs en el LHC del CERN.”

La masa del quark top (cima) sigue creciendo según el Tevatrón (o qué pasará en el LHC del CERN dentro de “unos” días)

U. HEINTZ, “TOP QUARK MASS MEASUREMENTS AT THE TEVATRON,” ArXiv Preprint, 6 June 2008. [emulenews en Menéame] La nueva estimación de la masa del quark cima, 172.6±1.4 GeV, con un error por debajo del 1%, decrece el límite superior (si el Modelo Estándar es correcto) de la masa del Higgs hasta como mucho 160 GeV (al 95% de confianza), resultando 114 < mH < 160 GeV, es decir, entre 121 < mH < 170 veces la masa del protón (0.938 GeV). Son buenas noticias para la búsqueda del Higgs en el LHC. De interés para aficionados a la física. [¡¡noticia en portada de Menéame!!]

El quark top es la partícula elemental de más masa conocida hasta el momento. Los nuevos datos se han obtenido en el Tevatrón, que se encuentra en el Fermilab, a las afueras de Chicago, EEUU, en colisiones protón-antiprotón a la friolera de 1.96 TeV (tera-electrón-voltio). Recuerda que en su arranqeu, el LHC empezará con colisiones similares pero a 2 TeV (aunque la “luminosidad”, la probabilidad de detectar ciertas “cosas”, del LHC es mayor que la del Tevatrón). La idea de que el fin del mundo está próximo es completamente descabellada (en los rayos cósmicos, de hecho, se obtienen energías cientos de veces mayores y “no pasa nada”). Días, horas, y minutos para el arranque del LHC (cuenta atrás para los físicos) [emulenews en Menéame] Relacionada con meneame.net/story/lhc-cern-ya-tiene-fecha-arranque donde se anunciaba que el arranque del LHC ya tiene fecha. Pues bien, aquí tenéis un contador (basado en dicha fecha) para poder publicar en meneame la noticia del encendido del LHC un día antes. Ánimo, a ver quién es el primero. [¡¡otra noticia en portada de Menéame!!]

Lo que NO pasará cuando arranque el LHC del CERN.

Estatus actual de la búsqueda del bosón de Higgs (en la reunión de la APS)

Traducción libre de “PHYSICS NEWS UPDATE”, The American Institute of Physics Bulletin of Physics News, Number 861, April 15, 2008, www.aip.org/pnu by Phillip F. Schewe and Jason S. Bardi.

ENCONTRAR EL BOSÓN DE HIGGS es el problema más importante a resolver en los dos aceleradores de partículas más grandes que nunca se han construido: el Tevatrón del Fermilab (EEUU), que ahora está alcanzando sus picos de energía tras décadas de funcionamiento, y el LHC (Gran Colisionador de Hadrones) en el CERN (Europa), donde en los próximos meses se harán circular haces de protones (núcleos de hidrógeno) y antiprotones (sus antipartículas) en un túnel de 27 km de longitud. La partítula de Higgs todavía no ha sido encontrada, pero en la conferencia de la Sociedad de Física Americana (APS), esta semana, en St. Louis, docenas de charlas se han referido al estatus actual de la búsqueda del Higgs.

¿Por qué el Higgs es tan importante? Porque se supone que domina el vacío en el universo; no como el antiguo éter, sustrato material para la propagación de ondas electromagnéticas, sino para interactuar con otras partículas y dotarlas de masa (en reposo) no nula. El campo del Higgs normalmente está oculto en el propio vacío, pero si acumulamos suficiente energía en un volumen de espacio minúsculo, como en el punto en el que dos haces de partículas muy energéticas colisionan, entonces el Higgs aparece como una partícula “real” masiva cuya existencia puede ser detectada.

Los cálculos teóricos usando el Modelo Estándar de la Física de Partículas combinadas con cotas obtenidas de experimentos desarrollados en el pasado nos permiten limitar el rango de masas en reposo de la partícula de Higgs. Ahora mismo sabemos que su masa en reposo debe ser mayor que 114 GeV, pero menor que unos 190 GeV. El Tevatrón del Fermilab genera energía más que suficiente para crear una partícula con ese rango de masas. El mayor problema es su luminosidad, o la densidad de partículas en el haz que se hacen colisionar juntas por segundo. El Tevatrón recientemente ha alcanzada su récord de luminosidad: 3.1 x 10^32 por cm^2 por segundo.

¿Cómo veríamos un bosón de Higgs en el Tevatrón?  Brian Winer (de la Universidad del Estado de Ohio) dice que “el evento más parecido a un evento tipo Higgs” visto hasta el momento en las colisiones protón-antiprotón en el Tevatrón ha creado una bola de fuego (fireball) que ha decaído en un bosón W (uno de los portadores de la fuerza nuclear débil) y una partícula de Higgs. Pero esta última ha decaído tan rápidamente en un par quark-antiquark (en concreto, bottom-antibottom) con una masa combinada superior a 120 GeV. Como tal, dicho evento no constituye un descubrimiento. Hay eventos de “fondo” que se parecen al resultado de observar un Higgs. Una observación “de verdad” del Higgs requiere eventos candidatos sustancialmetne mayores que el número de eventos de “fondo” esperados. Quizás con el tiempo (e incrementos en la luminosidad) el Tevatrón podrá acumular suficientes eventos candidatos a Higgs como para establecer un “descubrimiento” estadísticamente satisfactorio. Un físico del Tevatrón, Dmitri Denisov (denisovd@fnal.gov) resume el estado actual de los experimentos asociados a los detectores CDF y D0, e indica que se espera que para el año 2010, con una luminosidad posiblemente del doble de la actual y con un número de eventos unas 4 u 8 veces mayor, el Higgs sea “descubierto” en el Tevatrón.

Pero quizás se adelanten en el CERN. A las energías de las colisiones de haces protón-antiprotón en el LHC, el Higgs, si existe, será observado abundantemente. Abraham Seiden (abs@scipp.ucsc.edu) de la Universidad de California en Santa Cruz, resumió el estado actual del LHC. Los ingenieros y científicos del CERN están ajustando los imanes que garantizan que los protones sigan la trayectoria correcta que deberán funcionar a temperaturas próximas al cero absoluto, necesarias para que operen como superconductores. Aunque el LHC está diseñado para alcanzar energías de hasta 7 TeV, será “encendido” a “solamente” unos 5 TeV. Seiden indica que está planificado que para mediados de junio se enfrien los imanes superconductores y esté lista para que los haces de protones empiecen a circular por el anillo. Para agosto próximo se espera que se produzcan las primeras colisiones y “todo” comience … y la historia del Higgs se reescriba … Sin embargo, varios científicos en la Conferencia de la APS estaban un poco excépticos sobre esta fecha cuando fueron preguntados en privado. Agosto es la fecha de los optimistas. Los pesimistas lo retrasan a finales de este año.

El escenario de posibles descubrimientos en el LHC esperado para los próximos años, dice Seiden, más allá del Higgs, hace posible que la primera partícula supersimétrica (la de menor masa en reposo de una gran familia de partículas hipóteticas parejas de las que conocemos) puede ser detectada como pronto en 2009 antes de la confirmación última del Higgs que deberá esperar a 2010.

La carrera de la búsqueda del Higgs está en la línea de salida y sólo ganará el que tenga más “suerte”, ya que tanto Tevatrón como LHC esperan tener un descubrimiento “confirmado” en 2010. ¿Quién ganará? Se admiten apuestas.

La “pequeña” gran ciencia de los aceleradores de partículas “de bolsillo” (o aceleradores basados en láseres de petawatios)

3D model of Vulcan

Tour virtual por el Laboratorio del Láser Vulcano (p) Gary Booth

Los aceleradores de partículas (como el futuro LHC del CERN) y las fuentes de luz sincrotrón (útiles en medicina) son calificadas de “Ciencia Grande” (big science), no sólo por su importancia, sino porque requieren de laboratorios e instalaciones “enormes” (el sincrotrón Alba, que se instalará en el Vallés, será la mayor instalación científico-tecnológica de España y requerirá la inversión de más de 200 millones de euros, se espera que esté finalizado para el 2010).  Un artículo reciente (de 20 autores) S. Kneip et al., “Observation of Synchrotron Radiation from Electrons Accelerated in a Petawatt-Laser-Generated Plasma Cavity,” Phys. Rev. Lett. 100, 105006 (2008), ha utilizado un láser ultrapotente, de petawatios (recuerda: mega (millón), giga (mil-millones), tera (billón), y peta (mil-billones), o sea, de mil billones de watios, que no es “moco de pavo”), que ha dirigido a un pequeña muestra de gas hasta convertirla en un plasma de iones y electrones acelerados hasta energía de varios cientos de MeV (mega-electrón-voltio, una media de energía en aceleradores de partículas). Los investigadores han mostrado como canalizar ese plasma para lograr un fuente emisora de rayos X con energía de hasta 50 keV (similar a una fuente de luz sincrotrón para medicina). Si logran incrementar esta energía podrán lograr aceleradores de partículas basados en la aceleración láser (de los electrones) de un plasma.

Como el laboratorio Vulcano (en el que se ha producido el avance) es “muy pequeño” comparado con una instalación sincrotrón usual (como el que se construirá en España próximamente), este avance científico permitirá reducir el tamaño de estos laboratorios significativamente, aunque todavía no serán de tamaño “bolsillo”, claro.

Maqueta del futuro Sincrotrón Alba en el Vallés, será la mayor instalación científica de España

¿Por qué hay más materia que antimateria en el universo? (o ¿por qué el Modelo Estándar no lo explica?)

La noticia en Menéame “¿Por qué hay más materia que antimateria en el Universo?” (más de 180 meneos y más de 2 semanas tarde), que en realidad es exactamente la misma noticia que “Nuevo giro en el misterio de la antimateria” (pocos meneos y en su momento más inmediata), pero con un título y un texto “ligeramente” distinto (tratan de lo mismo, un artículo publicado en Nature por el grupo Belle sobre mesones B, uno de los experimentos en el acelerador de partículas KEK japonés, toda una fábrica de mesones tipo B, hay otra en EEUU); la noticia ya ha sido comentada en un blog castellano aquí. Estos “meneos” me han recordado la importancia del “titular” de una noticia. Así que les robo el mismo. Además, he visto una gran discusión de los lectores sobre el tema… que parece que no queda claro en ninguna de las dos noticias. Ya se sabía la respuesta a la pregunta. ¿Se tiene o no se tiene explicación para la asimetría materia-antimateria?

 

La figura ilustra los cuatros procesos más importantes para el decaimiento de mesones B en kaones (mesones K) y piones (mesones pi) y que los “B-esones” son inestables y sólo existen a alta energía. El mesón B positivo está formado por un antiquark b y un quark u (los mesones son siempre pares quark-antiquark) y el mesón B neutro por un antiquark b y un quark d. Estos mesones decaen en piones (pi neutro, anti-u y u, pi negativo, anti-u y d) y mesones K (u y anti-s) o mesones pi positivos (u y anti-d). El diagrama de Feynman de la figura (a) lo ilustra “claramente”, donde W es un bosón vectorial, que acarrea fuerza débil. Los demás diagramas son similares. La figura (b) es un diagrama de tipo pingüino, no entraré en sus detalles  (g es un gluón, partícula portada de la fuerza fuerte), como (c) donde Z es un bosón vectorial neutro que acarrea fuerza débil. Tanto (a) como (b) se explican “fácilmente” en el modelo estándar. Sin embargo, la observación de las interacciones mostradas en los diagramas (c) y (d) es más complicada y requiere una “adición” al Modelo Estándar, nueva física, una mayor violación CP de la que se incluía previamente.

Evidencia de nueva física, pero ¿cómo implementar esa violación reforzada de la simetría CP? Ahora es el turno de los teóricos que deberán buscar la mínima adición posible al Modelo Estándar que explique estos nuevos descubrimientos experimentales. Mientras tanto, los experimentales seguirán trabjando.

La moraleja es sencilla, por “muy bello” que sea el Modelo Estándar (en mi opinión ya no lo es) y por mucha imaginación que tengan los físicos teóricos, sin experimento no puede avanzar nuestra comprensión de la realidad. Bienvenido sea el LHC. ¡¡ Ahhh !! Gracias CERN, por la Internet.

Paseando por la ciudad casi a la velocidad de la luz (o mirando a través de un agujero de gusano)

Ver la realidad con ojos “relativistas”, a velocidades cercanas a la velocidad de la luz, nos acerca a lo que podía pensar e imaginar la mente de Einstein cuando estaba desarrollando la teoría especial de la relatividad (según él se imaginaba a sí mismo “montado” en un rayo de luz). El artículo de U. Kraus, “First-person visualizations of the special and general theory of relativity,” Eur. J. Phys. 29, pp. 1-13 (2008), nos ofrece dicha posibilidad. Han preparado varios vídeos (arriba tenéis uno, abajo otro) donde visualizan cómo vería una persona en una “bicicleta relativista” una ciudad si pudiera alcanzar velocidad próximas a las de la luz (hasta del 95% de ésta). El artículo explica la teoría detrás de estas simulaciones, muy sencilla, por cierto.

La relatividad y los efectos relativistas me recuerdan la reciente polémica sobre si se podrán “fabricar” agujeros negros y agujeros de gusano en el futuro LHC del CERN, suscitada en los mass media gracias al artículo I.Ya. Aref’eva and I.V. Volovich, “Time Machine at the LHC,” ArXiv preprint, 25 Oct 2007, quienes sugieren un test del principio de causalidad en el LHC si éste observa mini-agujeros negros. Si la escala de la graveda cuántica es del orden de unos pocos TeV (tera-electrón-voltios, una unidad de energía) en las colisiones protón-protón en el LHC se podrían generar agujeros negros y agujeros de gusano. Éstos últimos son pequeñas “máquinas del tiempo” (regiones del espacio-tiempo con curvas temporales cerradas) que pueden violar el principio de causalidad (el nieto retornó al pasado desde el futuro y mató a su abuelo, ¿qué pasará?). Estos mini-agujeros de gusano violan ciertas principios físicos clásicos pero quizás estén permitidos por la física cuántica (que muchas veces se nos muestra muy exótica) y conducirían a un tipo de materia exótica, sorprendentemente, muy parecido a las propiedades de la “famosa” energía oscura que puebla el 72% del Universo. El artículo discuto cómo se podrían detectar (cuáles serían las señales) de este tipo de mini-máquinas del tiempo.

La idea de crear agujeros negros en grandes aceleradores de partículas no es nueva. Por ejemplo, véanse los artículos citados por Marcus Bleicher, “How to Create Black Holes on Earth?,” ArXiv preprint, 24 May 2007, y se basan en la existencia de dimensiones superiores (predichas por la teoría de cuerdas y sus variantes) de gran radio (del orden de micras). Sería absolutamente “alucinante” que se observarán mini-agujeros negros en el LHC. Aunque no se conocen las leyes físicas en detalle que regirían estos fenómenos lo que parece claro es que la traza dejada por estos objetos sería suficientemente distintiva. Por cierto, que no pasaría nada, que no se “tragarían” nuestro mundo ni nada de eso, como tendrían muy poca masa, se evaporarían (si la radiación de Hawking se realmente es cierta) en muy poco tiempo.

Y todo esto porque Michael S. Morris and Kip S. Thorne, “Wormholes in spacetime and their use for interstellar travel: A tool for teaching general relativity,” American Journal of Physics 56, 395-412 (1988), presentaron los viajes en el tiempo a través de agujeros de gusano como un medio “bonito” de explicar física relativista. Con docentes así, la vida de los estudiantes es más fácil, ¿o no?.

La metafísica de la teoría de cuerdas como teoría de todo

 

Reiner Hedrich, en el artículo “String Theory. From Physics to Metaphysics,” ArXiV preprint, 2002, afirma que “la teoría de cuerdas (…) es una estructura laberíntica de procedimientos matemáticos e intuiciones físicas que se justifican por el hecho de que, al menos formalmente, reproducen la teoría de la relatividad general y el modelo estándar de partículas elementales.” Más aún, “la teoría de cuerdas pretende ser la teoría final que unifique todas las interacciones fundamentales, incluyendo la gravedad, pero, de hecho, se desconocen sus principios físicos subyacentes, por lo que, por el momento, la “teoría” de cuerdas no es realmente una teoría.”

El gran problema de la teoría de cuerdas es, sin lugar a dudas, el problema del landscape (su extrema generalidad), ya que hay evidencias fuertes de que no sólo reproduce la dinámica y las simetrías del modelo estándar, sino también una plétora de diferentes escenarios con muchísimos diferentes dinámicas, modelos y simetrías (se estima que serán del orden 10 elevado a 100, una barbaridad). Es decir, la teoría de cuerdas no sólo describe Nuestro Universo, también describe una “infinidad” de posibles Universos (landscape). El único principio que se puede esgrimir para seleccionar Nuestro Universo entre todos ellos es el Principio Antrópico, nosotros estamos aquí gracias a una combinación muy particular de leyes y constantes fundamentales. En otros universos quizás no son posibles seres inteligentes como nosotros.

La teoría de cuerdas en este sentido es más Metafísica que Física. ¿Podrá el LHC (en el CERN) ofrecernos datos experimentales que devuelvan la teoría de cuerdas al mundo de la Física? La mayoría de los físicos no confían en ellos… excepto los teóricos de cuerdas, claro.

Para los que quieran asistir a conferencias en inglés del mismísimo Ed Witten, os recomiendo.

Future of String Theory,” Edward Witten, KITP Lecture 2004. 

Duality, Spacetime and Quantum Mechanics,” Edward Witten, KITP.