Nunca te metas en camisa de once varas (o déjale a Rapel su papel)

En este blog hice de Rapel y predije que el precio del petróleo volverá a los dígitos (unos 80$ el barril a finales de septiembre). Era una predicción arriesgada y ahora tenemos el petróleo alrededor de los 100$. Las fuerzas del mercado quieren que baje pero la fuerza de los productores quieren que se mantenga por encima de las dos cifras. Mi predicción se basaba en un modelo de Didier Sornette para burbujas especulativas (Sornette es un especialista en predecir catastrófes, o mejor, en la teoría de las catástrofes que encumbró a René Thom a la cima de los genios). El sistema financiero internacional ha cambiado mucho en los últimos dos meses y dicho modelo quizás no sea aplicable ahora. Los productores de la OPEP han reducido la producción para contener el precio; China (y la India) parece que empiezan a notar la crisis (lo mismo que España tras 1992), aunque China no era el culpable del precio tan alto del crudo, para este año se espera que crezca menos del 10% y su segunda compañía de seguros cae en la bancarrota arrastrada por Fortis; los especuladores que se refugiaron en el mercado de futuros de las materias primas están viendo que el futuro no es tan alagüeño para la economía en general y para éstas en particular.

El Plan Paulson-Bernanke-Bush ha encontrado dificultades entre los congresistas que lo han rechazado por 225 votos en contra y 208 a favor. Parece que voces como las de Carter Dougherty han sido oídas. Revindicó el Modelo Sueco en el New York Times (traducción, traducción en El País). Algunos comparan el Plan de Bush con el que otrora llevó a Mexico a la bancarrota. Aunque el Plan de rescate no siga adelante, lo que está claro es que tanto la FED, como el BCE y otros bancos centrales tienen la obligación de inyectar dinero líquido en el sistema y ya han dado la orden de hacerlo, unos 630 mil millones de dólares. Aclaración [iescolar]: este tipo de inyecciones de capital consisten en préstamos a otro bancos privados a un interés muy reducido un breve tiempo, normalmente 24 horas, para que hagan frente a sus pagos y no haya problemas de liquidez en momentos complicados para la economía; ese dinero después se devuelve pasado el plazo pactado.

Curioso el mundo de la economía global… habrá que dejar de meterse en camisa de once varas (es decir, de unos nueve metros) [ver wiki].

La física de la picadura del mosquito y sus aplicaciones en ingeniería

A nadie le gusta que le pinchen con una jeringuilla. La punción a través de la piel humana mediante una aguja hueca es el procedimiento médico invasivo más utilizado para inyectar o extraer líquidos en el cuerpo humano. Los ingenieros tratan de desarrollar nuevas jeringas que no sean dolorosas y que «no se noten». Una línea de investigación son las microagujas hipodérmicas, que penetran del orden de 1.5 mm en la piel sin provocar dolor. Sin embargo, se han encontrado grandes dificultades en su desarrollo (es muy fácil que se partan). La picadura del mosquito no se nota (y su probóscide no se parte). ¿Por qué no imitarla en el desarrollo de microagujas? Para ello necesitamos conocer la física y la mecánica de la picadura del mosquito. M. K. Ramasubramanian et al., «Mechanics of a mosquito bite with applications to microneedle design,» Bioinspir. Biomim. 3, 046001, 2008 , presentan un primer estudio de la mecánica de la picadura de un mosquito. Su interés no es biológico. Su objetivo es desarrollar nuevas microagujas que no causen dolor (que no «se noten») y que no se partan fácilmente. Los diabéticos desearán estar atentos a sus progresos.

El mosquito es un insecto díptero cuyas hembras (no así los machos) beben sangre (ambos géneros se alimentan del néctar de plantas). La hembra en su picadura inyecta un anticoagulante y, a veces, virus causantes de enfermedades, tales como malaria, fiebre del dengue, fiebre amarilla, etc., de los que las «mosquitas» son vectores (propagan la enfermedad a partir de un ser humano enfermo a otro). ¿Cómo estudiar la mecánica de la picadura?

Igual que el vuelo de una mosca (o de un mosquito), el análisis de la mecánica de la picadura de un mosquito requiere el uso de cámaras de video de alta velocidad y de modelos matemáticos, necesarios para  la «correcta» interpretación de los resultados experimentales. El probóscide de la «mosquita» es una microaguja polimérica compuesta de una material dúctil, la quitina (polisacárido que forma parte del cuerpo de muchos artóprodos). El modelo mecánico desarrollado por los autores aproxima el probóscide mediante un columna alargada (esbelta) soportada por una estructura elástica que sufre tanto cargas mecánicas no conservativas (tipo Beck) como conservativas (tipo Euler). No quiero entrar en los detalles técnicos. Los interesados en leer el artículo (pero no tienen acceso a las revistas del IOP) se alegrarán de saber que el artículo se basa en la tesis doctoral de uno de los autores (Oliver M. Barham) que está disponible gratuitamente en Internet. La tesis incluye códigos en Matlab para desarrollar las simulaciones del modelo matemático utilizado con lo que nos permite reproducir parte de los experimentos que han realizado los autores (de interés para profesores «curiosos»).

Desafortunadamente, las microagujas que se han fabricado hasta el momento imitando el probóscide del mosquito, fabricadas con silicio, con acero inoxidable o con titanio, suelen tener, más o menos, 1 mm de longitud, un diámetro de 40 μm y con una pared de una anchura de unas 1.6 μm. Sin embargo, son extremadamente frágiles y se rompen fácilmente mientras penetran en la piel. También se han propuesto microagujas flexibles fabricadas con polímeros (plásticos). Los autores creen que el gran hándicap en la fabricación de estas microagujas es que no se conoce con detalle la mecánica de la penetración del probóscide en la piel, con lo que su estudio, que trata de resolver este problema pretende ser un primer paso en esta interesante línea de trabajo. Aunque como siempre pasa en los primeros estudios de un campo nuevo, son más las preguntas que han surgido que las respuestas que se han ofrecido.

La Naturaleza siempre está por delante nuestra. Gracias a la selección natural, durante millones de años, ha logrado que las «mosquitas» posean un probóscide flexible, del tamaño de un cabello humano, que puede penetrar en la piel humana y succionar sangre sin que prácticamente lo notemos. ¡Qué maravilla de la Naturaleza! Los ingenieros tienen que estudiar la «biología» (biomecánica) para lograr ingenios biomiméticos capaces de lograr, con inteligencia, lo que una selección natural probabilística a logrado «a la perfección».

Qué aprenderemos del mundo si se descubre el bosón de Higgs en el LHC del CERN

Supongamos que el LHC del CERN descubre el bosón de Higgs. ¿Qué importancia «científica» tendría dicho descubrimiento para el «hombre de la calle»? Quizás lo más importante es que el bosón de Higgs sería un nuevo tipo de materia, el primero encontrado en más de un siglo. Es verdad que se han descubierto muchas partículas nuevas «parecidas» al electrón (neutrinos, quarks, etc.) y que se han descubierto muchas partículas nuevas «parecidas» al fotón (bosones W y Z, gluones, etc.), pero el bosón del Higgs sería la primera partícula elemental tipo bosón escalar encontrada en toda la historia. Un nuevo tipo de materia completamente «nuevo».

La primera cuestión es ¿qué bosón de Higgs se ha descubierto? ¿Cómo…? ¿Hay más de uno? Bueno, hay muchos modelos matemáticos (teóricos) para una partícula «tipo» bosón de Higgs (una revisión técnica pero al mismo tiempo asequible es «HIGGS BOSONS: THEORY AND SEARCHES,» de G. Bernardi et al., Particle Data Group, November 2007; esta entrada también está basada en G. L. Kane et al., «What will we learn if a Higgs boson is found [at LEP2]?,» Phys.Rev. D64, 095013, (2001), ArXiv preprint).

Recapitulemos. Está el bosón de Higgs que aparece en la teoría electrodébil (en el Modelo Estándar) que dota de masa a los bosones vectoriales W y Z pero no al fotón. Se supone que este bosón podría dar también masa a los fermiones (electrones, neutrinos, quarks) pero posiblemente haya otros bosones de Higgs que se encarguen de ello. Pero también hay otros bosones de Higgs (otros modelos). El bosón de Higgs en las teorías supersimétricas es mucho más ligero y también se han propuesto modelos en los que el bosón de Higgs es una partícula compuesta de otros más elementales. Hasta que no se observe el Higgs y se determinen sus propiedades no sabremos «cuál/es es/son realmente.»

Un bosón de Higgs con un masa en reposo inferior a 130 GeV, pongamos 120 GeV (casi 128 veces la masa del protón), será supersimétrico casi con toda seguridad y vendrá acompañado de una «parejita» (otro bosón de Higgs). Con una masa entre 130 y 180 GeV será el del Modelo Estándar (un bosón único). Con una masa mayor hay muchas otras posibilidades, por ejemplo entre 180 y 230 GeV será un bosón compuesto (teorías de technicolor).

Una curiosidad, casi sorprendente, es que el primer bosón de Higgs encontrado no sea el más ligero (de menor masa en reposo) sino el segundo, que haya un bosón de Higgs más ligero que esté fuertemente desacoplado del resto del Modelo Estándar y que por ello haya sido «descartado erróneamente» en los límites a la masa del bosón de Higgs más ligero obtenidos con el LEP2 del CERN, que aseguran una masa mayor de 115 GeV. Para muchos investigadores esta posibilidad es la «más natural» ya que permitiría que el bosón de Higgs más ligero tuviera una masa en reposo similar a la masa de los bosones W y Z (ligeramente mayor que la del bosón Z). Ello evita que haya que realizar ciertos «malabarismos» técnicos para desplazar la masa en reposo del Higgs unos 30 GeV más que la masa del bosón Z, su valor «natural» (si suponemos que tiene unos 120 GeV).

¿Pero cómo es posible que un bosón de Higgs supersimétrico tenga una masa inferior al límite de 115 GeV obtenido con el LEP-2 del CERN? Si la ruptura de la simetría electrodébil es mediada por la supersimetría, entonces la masa de un bosón de Higgs tipo el del Modelo Estándar, que ha sido restringida por los resultados del experimento, no está relacionada con los acoplamientos de la fuerza débil en el Modelo Estándar y un bosón de Higgs supersimétrico no tendría que cumplir dicho límite inferior. En relación a este tipo de estudios, os recomiendo el reciente artículo de Puneet Batra, Eduardo Ponton, de la Universidad de Columbia, «The Supersymmetric Higgs,» ArXiv preprint, 22 Sep 2008 .

Para algunos autores es más «natural» un bosón de Higgs (supersimétrico) de baja masa que un Higgs del tipo del Modelo Estándar. Pero, ¿qué entendemos por «natural»? El Principio de Naturalidad, como el Principio Antrópico, es una guía para la selección de modelos teóricos con información estrictamente teórica, cuando no hay información experimental. Siguiendo al genial y premiado con el Nobel ‘t Hooft, el Principio de la Naturalidad nos dice que si la Naturalieza muestra un parámetro con un valor pequeño a cierta escala de energía, entonces necesariamente en el límite en el que el parámetro se vuelva nulo el sistema debe ganar simetría, debe tender a un estado más simétrico (para una descripción más técnica pero comprensible ver por ejemplo «NATURALNESS AND ELECTRO-WEAK SYMMETRY BREAKING,» de Romesh K. Kaul, ArXiv preprint, 26 May 2008 ) .

La Electrodinámica Cuántica (QED) y la Cromodinámica Cuántica (QCD) son teorías perfectamente naturales. Tanto en QED como en QCD la masa de las partículas (electrones y quarks) está asociada a una ruptura de la simetría y cuando estas masas se hacen cero, la simetría se recupera. Sin embargo, una teoría con un campo escalar que corresponda a una partícula elemental tipo bosón escalar (no se ha descubierto todavía ninguna) «no es natural» ya que su correspondiente masa no está asociada a ninguna simetría aproximada y hacer que tienda a cero no introduce ninguna simetría adicional. La teoría electrodébil (EW) no es natural porque requiere de un campo escalar (el bosón de Higgs) que destruye la «naturalidad» que podría tener la teoría.

La solución más sencilla al problema de la falta de naturalidad de la teoría electrodébil es suponer que el bosón de Higgs es una partícula compuesta (no elemental). Por ejemplo, una combinación sin espín (por eso es una partícula escalar) de un fermión y un antifermión. A esta solución se la denomina teoría del technicolor. De hecho, ambos fermiones, llamados techniquarks, podrían estar confinados en el bosón de Higgs (como los quarks en un protón) y por tanto no podrían ser observadas como partículas «separadas» (tampoco podemos observar a los quarks de esta forma). ¿Podrían ser los tecniquarks iguales a los quarks? No, en dicho caso deberían ser quarks top o cima (un cima y un anticima) pero un tal Higgs requeriría que la masa del quark cima fuera mayor que la experimentalmente medida en la actualidad.

El technicolor es una solución al problema de la naturalidad que no gusta a todo el mundo, especialmente por que hay otra solución (hay muchas más, por supuesto) que gusta a mucha más gente, la supersimetría, como descubrió R.K. Kaul en 1982. La supersimetría está rota pero se recupera cuando la masa de partículas escalares como los bosones de Higgs se hacen tender a cero, como exige el Principio de Naturalidad. Es una solución elegante y simple, que además sólo requiere teorías de tipo perturbativo, lo que simplifica la matemática. Por ello, es más «natural» concebir un bosón de Higgs como partícula supersimétrica que no siéndolo.

Un descubrimiento en el LHC que mataría «dos pájaros de un solo tiro» sería el descubrimiento de no uno sino dos bosones de Higgs con una masa del orden de 120 GeV, ya que ello casaría a la perfección con las predicciones del Modelo Estándar Minimal Supersimétrico (MSSM). Llamémosles Higgs Up (HU) y Down (HD). Uno de estos bosones de Higgs podría, incluso, tener una masa inferior a 115 GeV (de unos 95 GeV) y el otro una un poco más grande. Permitidme para acabar una «broma»: algunos claman que el bosón de Higgs es la «partícula de Dios», pero si se descubrieran dos Higgs, ¿seguría siéndolo?

Supersimetría, materia oscura y neutralinos

Me ha sorprendido encontrar en una entrada del Kanijo sobre neutralinos en el LHC, cuyas traducciones deben ser una lectura obligada para los buenos aficionados a la divulgación científica, la misma figura que yo he utilizado para ilustrar una entrada sobre la supersimetría. Yo confieso que la extraje de Symmetry, la revista que sustituyó en 2004 a FermiNews, la revista de noticias del Fermilab, en Chicago. La extraje de uno de los artículos de la sección «Explain in 60 seconds» (explícalo en un minuto). Quizás Kanijo la extrajo del mismo lugar. Quien sabe, pero todo esto me ha hecho pensar en los neutralinos. Hablaremos un poco de ellos y pondré otra ilustración «copiada» de dicha revista (la que ilustra la entrada «dark matter«).

Quizás el candidato más razonable para dar cuenta de la Materia Oscura en el Universo es la partícula supersimétrica estable más ligera LSP (lightest supersymmetric particle), que corresponde a materia oscura «fría» formada por partículas de tipo WIMP (weakly interacting particle), hipóteticas partículas cuya interacción con el resto de las partículas es muy débil, comparable a la interacción del neutrino; todavía no ha sido detectada ninguna WIMP, pero lo más razonable es que corresponda a una partícula supersimétrica, SUSY WIMP.

La supersimetría no es una simetría exacta de la Naturaleza (está «rota») ya que no se la observa a baja energía. Todas las superpartículas tienen grandes masas que «creemos» se han generado en la ruptura de esta simetría que se produjo en los primeros momentos de la Gran Explosión (big bang). Como no hemos observado ninguna partícula supersimétrica en la actualidad a baja energía, hemos de suponer que son inestables y que en las primeras fases del big bang se desintegraron a pares (superpartícula-antisuperpartícula, por ejemplo) produciendo partículas supersimétricas de menor masa en reposo. La única partícula que puede haber sobrevivido a dicho proceso es la más ligera, que no puede desintegrarse en partículas supersimétricas de menor masa (sin violar la simetría de la supersimetría, la llamada paridad R, que evita que el protón se desintegre demasiado rápido y que en la actualidad existan protones). Las partículas LSP remanentes de este proceso, reliquias del big bang, serían entonces un buen candidato a materia oscura en el universo.

¿Qué superpartícula (spartícula) es el mejor candidato a partícula más ligera (LSP) ? Antes de 1984 se habían propuesto el fotino (sfotón), el gravitino (sgravitón), el sneutrino y el selectrón, pero el artículo de Ellis et al. «Supersymmetric relics from the big bang,» Nuclear Physics B, 238:453-476, 1984, mostró que la LSP más razonable era el neutralino, una superposición lineal del fotino y del zino (sbosón Z) junto a dos higgsinos (sbosones de Higgs) neutros. Hay cuatro posibles neutralinos según sea su composición, que depende de una matriz 4×4 a determinar experimentalmente siendo sus autovectores representantes de cada uno de los posibles estados masivos, la proporción de sus constituyentes (ver por ejemplo PDG SUSY página 15). El neutralino de menor masa es la partícula LSP responsable de la materia oscura (según los datos cosmológicos actuales) si su masa en reposo se encuentra en 90 y 400 GeV; según los aceleradores actuales, a la espera de los futuros resultados del LHC, el límite inferior de la masa del LSP es de 46 GeV con un 95 % CL (ver el valor en negrita en la primera página de PDG SUSY). Más sobre SUSY y LSP del PDG.

Hay una cuestión interesante que debemos indicar, los neutralinos (o al menos el más ligero) podrían tener masa nula o una masa extremadamente pequeña (como los neutrinos, una masa menor de 0.1 GeV), ver por ejemplo Stefano Profumo, «Hunting the lightest lightest neutralinos,» Phys. Rev. D 78, 023507, 2008 , ArXiv preprint, con lo que la partícula LSP candidato a materia oscura fría, de ser un neutralino, sería el que tenga una masa más pequeña del orden de los 100 GeV. En este sentido es interesante el artículo de John Ellis, «Sneutrino NLSP Scenarios in the NUHM with Gravitino Dark Matter,» ArXiv preprint, 23 July 2008 , que propone como candidato la siguiente partícula más ligera (NLSP, next-to-lightest supersymmetric particle).

El último párrafo de las conclusiones de este último artículo merece ser repetido aquí (traducido y abreviado). «El estudio de la escala de energías de los TeV con el LHC nos descubrirá física desconocida (‘unknown’). La supersimetría se considera muchas veces como una «desconocida conocida» (‘known unknown’, es decir, «una desconocida familiar»), en el sentido de que aunque no sabemos si existe, creemos que sabemos cómo será si existe. John Ellis nos recuerda que la supersimetría podría ser una «desconocida desconocida» (‘unknown unknown’, es decir, «una desconocida de verdad»), en el sentido de que no sólo no sabemos si existe, sino que tampoco sabemos cómo podría ser. Hay muchas posibilidades, especialmente en el sector que involucra los sgravitinos.» Yo os añado, recurriremos al LHC para aclararnos al respecto.

Poesía dominical: Lo ingrato de esta vida es que sobra tiempo para inventarse un destino y un infierno

LLUVIA 

Cuando llueve me olvido del paraguas
y dudo largamente con el cuerpo
sembrado en las aceras.

                                                Hago esto
porque comparto la alegría de los árboles
y he decidido pensar en lo que importa.

(Pero al rato ya estoy tras los cristales
y me froto las manos como un niño
si un gorrión busca abrigo en mi ventana.)

SOLO A SOLAS 

La soledad es un hospital gris
con un enfermo único
que se levanta y tropieza en los espejos
con su rostro innumerable y su memoria inerte
y cae en el vacío doblemente vacío
del gran hospital gris de su soledad sola.

PIE DE FOTO:

Éramos tan felices porque no lo sabíamos…

 

Alberto Vega (Langreo, Asturias, 1956-2006)

«Era alto, muy alto, por eso llevaba un pedazo de nube en los zapatos. Tenía un cuerpo cortazariano y una mirada extraviada hacia horizontes borgianos.»

Sobre el descubrimiento de la supersimetría en el LHC del CERN

¿Cómo se descubrirá la supersimetría en el LHC cuando empiece a funcionar a pleno rendimiento en un par de años? Hans Peter Nilles, uno de los grandes expertos mundiales en supersimetría (autor de un artículo clásico sobre el tema, que yo leí hace ya muchos años, aunque me enteré de la misa la mitad: «Supersymmetry, supergravity and particle physics,» Physics Reports, 110:1-162, 1984, citado 1589 veces según Scopus), acaba de publicar «Supersymmetry: The Final Countdown,» ArXiv preprint, 25 sep 2008 , donde nos indica que el LHC descubrirá o refutará la supersimetría en la escala de los TeV. En su opinión, el descubrimiento de los primeros supercompañeros (gluinos y neutralinos) y la relación entre sus masas nos permitirá confirmar sin lugar a dudas la supersimetría y el modelo correcto de ruptura espontánea de la supersimetría (tiene que estar rota porque a baja energía no la observamos). El artículo es cortito, no muy técnico, y merece la pena ser leído. Para los menos atrevidos, recapitulemos un poco. 

Las partículas elementales en el Modelo Estándar son de dos tipos, fermiones y bosones. Los fermiones (electrones, neutrinos y quarks) son partículas de espín semi-entero y representan las partículas «materiales». Los bosones son partículas de espín entero. Aún no se ha descubierto ningún bosón escalar, con espín nulo, como el Higgs. Sólo se conocen bosones vectoriales (con espín unidad) que son las partículas «portadoras» de las fuerzas fundamentales: el fotón (electromagnetismo), los bosones W y Z (la fuerza débil) y los gluones (la fuerza fuerte). Estos bosones vectoriales se denominan colectivamente bosones de gauge, porque se «deducen» de las simetrías de tipo gauge (de aforo o contraste) en el Modelo Estándar. El gravitón, la partícula portadora de la gravedad, sería un bosón tensorial (espín 2), pero todavía no ha sido observado.

La supersimetría es una simetría que relaciona fermiones con bosones. No es posible aplicarla para relacionar los fermiones actualmente conocidos con los bosones actualmente conocidos, por lo que su validez implica la existencia de supercompañeros (superpartículas aún por descubrir) asociadas a cada una de las partículas (fermiones y bosones) actualmente conocidos. ¿Por qué no los hemos observado (aún)? Por que la supersimetría está rota (a baja energía) y las superpartículas tienen mucha más masa en reposo que las partículas (sólo pueden ser observadas a alta energía).

La esperanza para los físicos teóricos especialistas en supersimetría (y en teoría de cuerdas) es que la supersimetría sea descubierta en el LHC del CERN. ¿Cómo será observada? Observando por primera vez una superpartícula. ¿Cuál será la primera en ser observada? Posiblemente un gaugino, una superpartícula tipo fermión asociada a un bosón (vectorial) de gauge. En el modelo supersimétrico más sencillo que extiende el modelo estándar, el Modelo Minimal Supersimétrico (MMSM), los únicos gauginos están asociados a los únicos bosones vectoriales descubiertos: fotino (asociado al fotón), wino y zino (asociados a los bosones W y Z), gluino (asociado a los gluones) y el bino (asociado a cierta combinación mediante fuerza débil del fotón y los bosones W y Z). Por supuesto, en teoría habría también un gravitino (asociado al gravitón), dos higgsinos (asociados al Higgs), etc.

¿Cómo observaremos un gaugino en el LHC? En el Modelo Estándar las partículas con masa la adquieren gracias a una ruptura de la simetría (mediada por un bosón de Higgs) que conduce a «estados masivos» (mass eigenstates) que no coinciden exactamente con ninguna de las partículas del espectro antes de la ruptura, sino que son combinaciones (lineales) de las mismas. Por ello se cree que en el LHC no se observarán directamente los gauginos o los higgsinos sino ciertas combinaciones lineales de ellos denominados neutralinos (neutros) y carginos (cargados). Casi todos los modelos supersimétricos suponen que el neutralino menos masivo es una partícula estable, denominada WIMP, que es el mejor candidato actualmente para la materia oscura («fría» ya que la «caliente», partículas rápidas como los neutrinos, ha sido descartada recientemente).

Supongamos que se observa un neutralino, ¿quedará actualmente verificada la supersimetría? No. Los astrofísicos se pondrían muy contentos ya que tendrían un gran candidato para la materia oscura, pero muchos físicos teóricos seguirían dudando de la supersimetría. ¿Cómo verificarla sin duda? Encontrando más de una superpartícula y estudiando la relación entre sus masas. Lo ideal sería que fueran gauginos, ya que hay varias relaciones entre sus masas predichas por diferentes variantes de la supersimetría. Las tres más importantes las podéis encontrar en el artículo de Kiwoon Choi, Hans Peter Nilles, «The Gaugino Code,» IOP Journal of High Energy Physics (2007), disponible gratis en ArXiv.

Asociadas a las tres simetrías del Modelo Estándar U(1), SU(2) y SU(3) habrá tres gauginos cuyas masas M1 (fotinos, binos), M2 (winos, zinos) , y M3 (gluinos) estarán relacionadas aproximadamente por M1 : M2 : M3 1 : 2 : 6, en las escalas de energía alcanzables en el LHC (la escala de TeV). Esta relación tan sencilla sería muy fácil de detectar en los experimentos, pero es muy difícil que se cumpla, ya que la supersimetría está rota y dependiendo de cómo se rompa esta relación cambia. Las dos relaciones mejor justificadas teóricamente depende de si la ruptura es mediada por anomalías, patrón M1 : M2 : M3 3.3 : 1 : 9, y la mediada por simetrías especulares, patrón M1 : M2 : M3 (1 + 0.66α) : (2 + 0.2α) : (6 1.8α), donde α es un parámetro cuyo valor es del orden de la unidad.

¿Realmente si observamos tres superpartículas diferentes será fácil comprobar si su patrón de masas cumple con las relaciones anteriores? Desafortunadamente, no. Seguramente la masa de los gluinos estará relacionada directamente con M3, pero los neutralinos (mezclas de binos, winos, y quizás higgsinos) son una combinación lineal de M1 y M2 que sólo sabemos determinar experimentalmente. De todas formas, Nilles, uno de los mayores expertos mundiales en supersimetría, no pierde la esperanza y cree que incluso si sólo se observan 2 gauginos (probablemente neutralinos) será posible (estudiando los detalles de cómo interactúan) determinar cuál es el esquema de ruptura de la simetría (el patrón de masas) del resto, lo que permitirá en futuros experimentos en aceleradores afinar mejor el modelo supersimétrico.

La esperanza es lo último que se pierde.

El «sonic boom» sobre Málaga y los «eurofighters» del Ministerio de Defensa Español

Muchos se han sobresaltado esta mañana, a las 9:50 horas, en la Costa del Sol. Se han escuchado dos explosiones intensas sin que fuera fácil determinar de dónde provenían. «Ruído ensordecedor y seco que llegó a hacer temblar muchos cristales alarmando a los ciudadanos. Muchos optaron por llamar a la policía y a emergencias temiendo que podría ser un atentado. Otros llamaron a sus amigos y familiares. La red telefónica fija y móvil se colapsó durantes unos minutos. Ya ocurrió lo mismo en el año 2000. Muchos medios se han hecho eco de la noticia, no sólo el Diario Sur (el periódico más vendido en la provincia de Málaga) sino también El Mundo y El País. La causa oficial, dos aviones de combate supersónicos, modelo Eurofigther (las fotos son del modelo Typhoon de nuestro Ejército del Aire), que volaban (a unos 37.000 pies) por encima de la velocidad del sonido (unos 1200 km/h). Esta altura es legal. Es decir, no se les ha escuchado porque volaban «bajo», volaban «a su altura».

¿Por qué se ha escuchado tan fuerte y con tanta potencia (han vibrado cristales)? Según el periódico El Mundo, citando como fuente el Ministerio de Defensa, «al parecer las condiciones climatológicas [serán meteorológicas] han favorecido que el normal estruendo que se origina cuando se supera [será cuando se vuela con una velocidad superior a] la barrera del sonido se haya multiplicado. [Los periodistas, ya se sabe].»

Lo primero que me gustaría recordar es que el sonido del «sonic boom» no se produce cuando el avión atraviesa la barrera del sonido y luego se apaga. Es permanente mientras el avión vuele por encima de dicha velocidad. Se debe a una onda de choque (cambio brusco de la presión) en un gran cono que tiene su vértice en el avión. Escuchamos un «boom» cuando el cono sónico a la altura del suelo pasa por encima de nuestras cabezas. Por eso parece que empieza y acaba. Pero es permanente mientras el avión vuela, acompañándolo durante su vuelo. El primer dibujo en la entrada de la wiki lo aclara muy bien.

Lo segundo, que la velocidad a la que se rompe la barrera del sonido (vuelo supersónico) depende de la altura de vuelo, ya que la temperatura afecta a la velocidad del sonido. Los aviones de combate a 37000 pies de altuna, unos 11.2 km, vuelan cerca de la frontera entre la troposfera (donde vivimos) y la tropopausa, donde el aire tiene unos -60 ºC. La velocidad del sonido en el aire a unos 20ºC es de unos 340 m/s, pero a 0ºC es de 331 m/s y a -60ªC es sólo de 272 m/s, es decir, el eurofighter habrá superado la barrera del sonido (y volará a más de Mach 1.0) por encima de los 979 km/h (mucho menos de los más de 1200 km/h que proclaman muchos periodistas). De hecho los eurofighter pueden volar a Mach 2.0, a esa altura, unos 1900 km/h.

Los «boom sónicos» son ondas de choque débiles y a la altura del suelo pueden generar una cambio brusco de presión de hasta 100 Pascales. Dependiendo de las condiciones atmosféricas y de la trayectoria del vuelo, la onda de choque durante el vuelo supersónico puede alcanzar al oyente en tierra de varias formas, la más típica un boom primario. La forma de la curva de presión en este boom es una onda de choque doble en forma de N (onda-N o N-wave), caracterizada por dos incrementos bruscos de la presión de hasta 100 pascales, separados por de 1 a 3 décimas de segundo, con niveles sonoros audibles de entre 114-134 dB (decibelios). El boom sónico primario sorprende porque es inesperado. Sobre todo en el Sur de España donde no es habitual que las condiciones meteorológicas sean las adecuadas. La figura muestra el número de días (en función de la meteorología diaria durante el año 2000) en los que NO se podría escuchar en tierra (en el suelo) el boom sónico (si sobrevolara un avión supersónico, algo que tampoco ocurre todos los días). La figura proviene del estudio alemán Martina Kästner and Dietrich Heimann, «SOUND PROPAGATION OF SONIC BOOMS THROUGH REAL ATMOSPHERES EMITTED FROM A NEW SUPERSONIC BUSINESS AIRCRAFT,» en los Proceedings del ICAM2007. Los autores han utilizando técnicas de trazado de rayos para seguir la posición de la onda de choque en función de las condiciones meteorólogicas diarias.

¿Por qué a veces escuchamos el boom sónico y otras veces no? El cono de sónico no es uniforme, porque la temperatura desde 11 km hasta la Tierra cambia (decrece) linealmente y la velocidad del sonido se incrementa linealmente, lo que introduce una deformación en el cono (el «sonido» se refracta en al atmósfera). El artículo de Reinhard Blumrich, François Coulouvrat, Dietrich Heimann, «Variability of focused sonic booms from accelerating supersonic aircraft in consideration of meteorological effects,» The Journal of the Acoustical Society of America, 118:696-706 , 2005 , estudia en detalle cómo afectan las condiciones meteorológicas en la audición del boom sónico [página web de Heimann].

Es de jóvenes perder el tiempo y de viejos el guiarlos por el «buen» camino

Es curioso pero a veces, algunos matemáticos (de profesión o aficionados), sobre todo los jóvenes, redescubren la verdad de ciertas verdades y otras pierden el tiempo demostrando que es mentira lo que todo el mundo sabe que es verdad o que es verdad lo que todo el mundo sabe que es mentira.

Acabo de descubrir el primer «gran artículo» (matemático) del Dr. Laurent Germain, un «joven catedrático» (professeur permanent) de «Economie et finance» de una escuela de negocios de Toulouse. ¡¡Ha descubierto que la gran obra de Cantor es mentira!! Ha demostrado que el cardinal del conjunto potencia de un conjunto (el del conjunto de todos sus subconjuntos) es igual al cardinal del conjunto original. El argumento diagonal de la demostración de Cantor «debe ser» mentira. Su artículo, obviamente un preprint, impublicable en cualquier revista «seria», es «The Continuum is Countable: Infinity is Unique,» ArXiv preprint, 24 september 2008 . Para los aficionados a la matemática puede ser «agradable» descubrir el «grave» error de su argumento (la demostración de su primer lema). El resto sigue la «lógica matemática de un aficionado» (aunque sea catedrático) a partir de dicho lema.

Muchos jóvenes (sobre todo en etapas predoctorales) se creen que pueden descubrir «el oro y el moro» sin recurrir a la guía de los «viejos», que siempre están ocupados, a los que hay que perseguir como a la doncella de nuestros ojos, … en mi opinión se equivocan, quizás porque ya soy «viejo».

El futuro de los discos duros para ordenadores portátiles

Cuando parecía que el disco duro tenía sus días contados, debido a la gran rebaja en los precios de las memorias de estado sólido tipo flash, de menor consumo y mayor velocidad, los físicos de estado sólido descubren una manera de controlar la dirección de magnetización en un sólido utilizando directamente un campo eléctrico (en los discos duros se require que la corriente eléctrica genere un campo magnético que controla dicha inversión). De esta forma se obtienen discos duros de menor consumo de potencia y más rápidos, los competidores ideales para las nuevas memorias de estado sólido.

El descubrimiento se publica hoy en Nature por D. Chiba et al. «Magnetization vector manipulation by electric fields,» Nature, 455: 515-518 ( 2008 ), comentado en el mismo número por Eiji Saitoh, «Solid-state physics: New order for magnetism,» Nature, 455: 474-475 ( 2008 ).

Un material imantable está formado por pequeños imanes a escala atómica (espines) que cuando se aplica un campo magnético externo se alinean en la dirección del campo (rotan sus espines). En los imanes esta rotación se puede hacer permanente. En los discos duros se utiliza este proceso para almacenar información binaria (1 y 0) a base de imantar en dos direcciones opuestas pequeñas regiones de su superficie magnética. Para ello, se aplica un campo eléctrico a un electroimán y éste es el que cambia la dirección del campo magnético del punto magnético del disco. Este proceso «indirecto» consume energía e introduce cierto retraso. La alternativa ideal sería que la corriente eléctrica directamente cambiara la dirección de los imanes sin electroimán intermedio. Eso es lo que han logrado el japonés Chiba y sus colaboradores.

El secreto es un fenómeno físico llamado anisotropía magnética: al  polarizar el espín de los electrones de la corriente eléctrica inyectada en el material, ésta es capaz de reorientar los espines del material (si su estructura electrónica es la adecuada, claro). Chiba et al. modulan la densidad de electrones usando un dispositivo MOS (metal-óxido-semiconductor) utilizando para éste último una película de (Ga,Mn)As que tiene propiedades ferromagnéticas a baja temperatura. Cuando se aplica un voltaje negativo en la puerta (gate, el metal) los portadores de carga positiva en el semiconductor (huecos) son atraídos hacia el electrodo. Por el contrario, al aplicar un voltaje positivo, el número de huecos cerca de la puerta decrece. Esta propiedad permite que la densidad de huecos y con ella la anisotropía magnética de la película de (Ga,Mn)As pueda ser controlada eléctricamente resultando en un cambio en la dirección de magnetización.

La tecnología utilizada por los investigadores japoneses es muy similar a la utilizada actualmente en la fabricación de discos duros, por lo que es de esperar que en pocos años tengamos en el mercado toda una nueva generación de discos duros de bajo de consumo.

La primera ley de Newton de la evolución (o si Darwin hubiera sido matemático)

Darwin una vez escribió «siento muchísimo no haber profundizado lo suficiente para comprender los grandes principios que guían la matemática; ya que los que los dominan parecen dotados de un sentido extra.» Como nos recuerda Robert M. May, en «Uses and Abuses of Mathematics in Biology,» Science, 303: 790-793, 2004 . Una de las críticas más importantes a Darwin, por parte del ingeniero Fleeming Jenkin y otros, fue que la herencia que mezcla características del padre y de la madre no puede preservar la variación natural («blending inheritance» en la figura). Las observaciones de Mendel, contemporáneas a Darwin, resolvían este dilema, como mostraron Fisher y otros, pero fue necesario medio siglo hasta que Hardy y Weinberg resolvieran matemáticamente este problema gracias a su demostración de 1908 de que la herencia (Mendeliana) preserva la variación en las poblaciones. El teorema o la ley de Hardy-Weinberg equivalen a la Primera Ley de Newton (los cuerpos en reposo o en movimiento uniforme en línea recta, mantienen este estado si no se aplican fuerzas externas): la frecuencia de los genes en una población no se altera de generación en generación si están ausentes fenómenos poblacionales externos, como la migración, selección, fluctuaciones estadísticas, o mutaciones. La entrada de la wiki es muy clara y recomiendo su lectura a los interesados.

El artículo de May nos presenta varios ejemplos en los que «biólogos» abusan del uso de modelos estadísticos en los que se «asumen» ciertas hipótesis «no probadas» para obtener conclusiones, algunas intuitivamente absurdas. Recomiendo su lectura. May nos recuerda que hasta hace pocas décadas quienes aplicaban la matemática y la estadística en biología poseían una formación sólida en matemáticas, pero que en la actualidad, como está tan de moda la llamada «biología de sistemas» (nuevo nombre para la «biología matemática» de siempre) muchos usan estas técnicas para obtener conclusiones (fenómenos emergentes), supuestamente ratificadas por el modelo matemático, sin un conocimiento claro de lo que están haciendo y de las hipótesis necesarias para sustentarlos. Según May, esto es preocupante. Por ejemplo, muchos presuponen que cualquier perturbación estadística sigue una distribución gaussiana, incluso cuando el fenómeno es fuertemente no lineal, olvidando que en dinámica de sistemas no lineales los «sucesos raros» son mucho más importantes de lo que una distribución gaussiana presupone. Más aún, May nos indica que muchos de los abusos que actualmente está observando no son siempre fáciles de reconocer, incluso para los matemáticos, no digamos para los «pobres biólogos».

Y todo esto me ha venido a la mente tras releer «Pruebas y refutaciones,» de Imre Lakatos, oportunamente recomendada por JL Pérez de la Cruz. Gracias, compañero.