"Buen articulo Morton. Trabájalo un poco más hasta que parezca mio."
Hay algunas cosas que parecen obvias, pero a veces alguien te las tiene que contar para que te des cuenta de ello. Por ejemplo, los investigadores «viejos» que siguen en activo son mucho más productivos que los «jóvenes». Los investigadores «viejos» que no siguen en activo, obviamente no producen. Lo acaban de «descubrir» los canadienses Yves Gingras, Vincent Lariviere, Benoit Macaluso, Jean-Pierre Robitaille, «The effects of aging of scientists on their publication and citation patterns,» ArXiv preprint, 23 oct 2008 . A mí me parece la «cuenta de la vieja», pero Geoff Brumfiel, «Older scientists publish more papers. Age is no barrier to productivity,» lo acaba de aprovechar para publicar en Nature, 28 oct 2008 , que no es «moco de pavo,» aunque él lo tiene fácil pues es periodista científico de la propia Nature desde 2002.
Los investigadores de la Universidad de Quebec, en Montreal, Canadá, estudiaron las publicaciones de casi 14.000 investigadores y encontraron que los que cincuentones y sesentones publican casi el doble de artículos que los treintañeros. Más aún, sus artículos son altamente citados. Los investigadores que se mantienen productivos son más productivos. ¡Gran descubrimiento!
Obviamente, nos comenta Brumfield que ha dicho Anthony van Raan de la Universidad de Leiden en Holanda, «Mayor impacto no es lo mismo que originalidad,» en cualquier caso, «es mejor dejar que los investigadores que no quieran jubilarse puedan continuar su trabajo, ya que pueden ser muy productivos.»
Hay algo que el estudio no ha tenido en cuenta, los investigadores «senior» suelen tener grupos de investigación más grandes, de ahí que publiquen más, y con miembros «junior» (estudiantes pre y postdoctorales) en su «mejor» momento de productividad y creatividad, de ahí que logren gran impacto.
Otro factor a recordar es que los investigadores «senior» en sus campos suelen ser mucho más conocidos en los círculos científicos, respetados y en muchos casos hasta admirados. Además, les es más fácil lograr fondos públicos y privados para subvencionar sus investigaciones.
En cualquier caso, como me decía un buen amigo (catedrático de universidad español de 63 años) aún en activo: «este año va a ser mi mejor año,» en cuanto a número de artículos publicados e índice de impacto de las revistas en las que se han publicado. Más aún, me decía, «el año pasado fue mi mejor año.» Por cierto, este amigo está enamorado de la ciencia y sigue trabajando hasta los domingos. ¡Envidio su buen estado de salud mental! Espero con su edad ser capaz de producir al menos la mitad de lo que él es capaz.
También admiro a otro amigo, quien cumplió el año pasado la friolera de 90 años, quien sigue viniendo al despacho que le han prestado (ya no está oficialmente vinculado con la universidad) todos los lunes, miercoles y viernes, sin falta, a primera hora, para seguir aprendiendo, para seguir enseñando. ¡Bravo!
La numerología es el «arte» de ver «lo que uno quiere donde no lo hay». Aunque pueda parecer broma, muchos grandes genios de la física y de la matemática han «creído» en la numerología. De todos es conocido que Newton dedicó la segunda parte de su vida a la política, en su parte pública, y a la numerología bíblica, en su parte privada («alquimista» de vocación, quiso descubrir lo que Dios había escribo en la Biblia, en su idioma «original», para que sólo los «supergenios» como él lo descubrieran). En el s. XX ha habido muchos «genios» numérologos, pero destacan entre todos dos grandes genios, Dirac y Eddington.
El valor numerológico de ciertas magnitudes suele ser una aproximación muy mala al valor exacto, pero muchas veces pasan décadas hasta que los físicos experimentales logran demostrar la diferencia (encontrar el valor exacto). Cuanto mayor incertidumbre tenga una magnitud, mejor para el numerólogo (quien más confiará en ella). Por ejemplo, ¿cuántas partículas elementales hay en el universo? Unas 10^80 más o menos. Bien para el numerólogo, el «disfrutón de los más o menos.»
Al grano, Dragan S. Hajdukovic (el de la foto), nos presenta en «Pions- lords of the Universe,» ArXiv preprint, 26 oct 2008 , una relación «mágica» entre la masa del pión (hay 3 piones), la constante de Hubble (difícil de medir experimentalmente) y las constantes físicas fundamentales. Aclaro. Hay 3 piones, uno neutro (π0) con masa 134.98 MeV/c^2, que en realidad son dos partículas «idénticas» formadas por una pareja quark-antiquark (abajo-antiabajo o arriba-antiarriba), y dos piones cargados (π+ y π-) con masa 139.57 MeV/c^2, también formados por una pareja quark-antiquark (arriba-antiabajo y abajo-antiarriba). La constante de Hubble mide la «velocidad» de expansión del universo, un parámetro extremadamente difícil de medir cuyo valor ha fluctuado durante todo el s. XX y sigue haciéndolo en la actualidad en el contexto de un universo que se expande de forma acelerada.
El artículo se inicia con la fórmula «aproximada» (aunque tiene un signo de igualdad) que vemos a la izquierda, que notó por primera vez el Premio Nobel Steven Weinberg en su famoso libro «Gravitation and Cosmology.» El autor «mejora» esta aproximación y sugiere una interpretación para la misma: el vacío cuántico del universo está dominado por la contribución de un gas de piones virtuales de masa gravitatoria nula, por eso no han sido detectados como materia ordinaria (bariónica). El autor sugiere que este gas de piones virtuales son la energía oscura, es decir, más del 70% del universo. Los piones son los «señores» del Universo, según el autor, aunque yo he preferido «los másters del universo.»
Nunca se sabe si las coincidiencias numerológicas encierran algo de verdad, alguna «misteriosa» verdad aún por descubrir. Cuando se «eleva» una coincidencia a «verdad» absoluta, se obtienen «nuevas leyes» de la Naturaleza. Por ejemplo, Dirac (1937-1938) supuso que el cociente H/G (donde H es la constante de Hubble y G la constante de gravitación universal de Newton) es constante en el tiempo desde la Gran Explosión hasta el momento presente. Como H varía desde el inicio de la Gran Explosión, G también debe variar. Dirac «predecía» gracias a su «teoría» la gran debilidad de la gravitación en el presente: un universo antiguo nos da una gravedad débil. Como es bien sabido, dicha relación es incompatible con todo nuestro conocimiento actual sobre cosmogonía (el origen y evolución del universo). Actualmente es insostenible.
Hajdukovic mejora la fórmula de Weinberg, proponiendo la que aparece a la izquierda. En la que reemplaza H0 (que no es constante) por una magnitud de valor comparable a ella que es «aparentemente» constante. En concreto, Ω es la densidad de energía total del universo relativa a la densidad crítica para que el universo sea plano y rH = c/H es el llamado radio de Hubble del Universo. Esta relación es «aparentemente» mucho más exacta que la anterior, pero sigue teniendo cierta incertidumbre (por ejemplo, qué valor se usa para la masa del pión). El autor afirma que la relación anterior tiene una profunda y misteriosa relación con la energía oscura que «domina» el universo en la actualidad. Es debida a la existencia de un gas de piones virtuales sin masa gravitatoria (¿?) que tiene una temperatura «gravitacional», el responsable último de la energía oscura (que actualmente no tiene explicación convincente, pero se modela como una constante cosmológica de Einstein no nula).
¿Dónde está la energía oscura en la fórmula anterior? Para dejar más clara su idea propone una fórmula aún más precisa todavía (también aparece a la izquierda), que tiene en cuenta el número de grados de libertad de un pión nf y ΩΛ la densidad de energía oscura. Despejando esta última de esta nueva fórmula se obtiene un valor cercano al observado experimentalmente en el WMAP. Pero, cuidado, ¿cuántos grados de libertad tiene un pión? ¿Quién lo sabe? Bueno, el autor propone que ¡es obvio! que son 48 (será para que todo le cuadre).
Este juego de fórmulas, estimaciones, parámetros imposibles de determinar (como nf) a los que se les da un valor «razonable» (bueno, se «ajusta» para que todo funcione y luego se justifica que es el valor más razonable) es muy habitual en el campo de la numerología. En este sentido el artículo de Hajdukovic es un excelente ejemplo y merece ser comentado por ello, aunque sin olvidar que no estamos hablando de «ciencia» sino de «religión.»
PS: por cierto, tres fórmulas matemáticas en una sola entrada y además, todas «mentira». ¡Qué fuerte!
Murray Gell-Mann (1929-) dominó el campo de las partículas elementales en los 1960s con sus ideas sobre cómo sistematizar (cual Mendeléyev) la inmensa cantidad de datos experimentales sobre partículas «elementales» que se obtuvieron en dicha década (recibió el Nobel de Física en 1969). Utilizó como herramienta la teoría de grupos continuos (de Lie) compactos. Su introducción en 1964 de los quarks como «entes matemáticos,» independientemente también lo hizo George Zweig, útiles para sistematizar los hadrones, los bariones y los mesones conocidos en aquella época (hoy sabemos que estaban constituidos por los tres quarks más ligeros, arriba, abajo y extraño). Gell-Mann nunca pensó que fueran partículas de verdad. Si lo fueran, como tienen carga eléctrica no entera deberían haber sido fácilmente «vistos». Por supuesto, tras los experimentos en el SLAC de Stanford en 1969 y su interpretación por parte de Richard Feynman y James Bjorken, entre otros, en términos de «subpartículas» elementales (partones, más tarde llamados quarks), Gell-Mann se convirtió en un gran defensor de la naturaleza «real» pero «oculta» de los quarks. Técnicamente, están confinados en los hadrones de tal forma de que no son accedibles experimentalmente. Hoy en día los físicos experimentales «ven quarks» por doquier en sus diagramas de bloques tipo LEGO («mira un quark por aquí, mira, otro por allá).
Leí un artículo, hace ya bastantes años (ahora soy incapaz de encontrarlo en el «dios» Google), en el que Gell-Mann afirmaba que el mayor reto de la física teórica era descubrir cómo obtener la versión cuántica de («cuantizar») una teoría de campos basada en grupos de Lie no compactos. Problemas como la aparición de probabilidades negativas, es decir, la ausencia de unitariedad (por ejemplo, para el grupo SL(2,C), ver J.P. Hsu, M.D. Xin, «Incompatibility of unitarity and gauge symmetry in the SL(2,C) Yang-Mills field theory,» Phys. Rev. D 24: 471-474, 1981, o J.P. Hsu, T.Y. Shi, «Unitarity and invariant Lagrangians under Yang-Mills-Weyl transformations,» Il Nuovo Cimento A, 79: 321-332, 1984), o la no renormalizabilidad (entre otras dificultades técnicas) parecen extremadamente difíciles de resolver.
¿Por qué preocuparnos por las teorías de campos basadas en grupos no compactos? Este tipo de grupos aparecen siempre que se trata de «cuantizar» la gravedad. Un uso reciente es la «teoría simple para todo» de Garrett Lisi basada en el grupo excepcional E8 de la que ya hemos hablado. La propuesta de Lisi es el uso de la técnicas de cuantización BRST (Becchi-Rouet-Stora-Tyutin). Aplicada a la cuantización de teorías basadas en grupos compactos no parece muy complicada. Un ejemplo sencillo e ilustrativo en el caso abeliano lo tenéis en D. R. Bes and O. Civitarese, «Illustrations of the Becchi-Rouet-Stora-Tyutin invariance by means of simple toy models,» Am. J. Phys. 70: 548-555, 2002 . ¿Qué pasa en el caso no compacto? ¿Qué dificultades surgen? ¿Es prometedora en dicho caso esta técnica? La verdad no lo sé. El único artículo que parece agarrar el toro por los cuernos es el de A.E. Margolin, V.I. Strazhev, «Yang-Mills field quantization with noncompact gauge group,» Modern Physics Letters A, 7: 2747-2752, 1992, pero sólo ha sido citado 1 vez en el ISI WOS, lo que es «mala señal».
¿Ha habido avances recientes en la cuantización BRST de teorías de campos basadas en grupos no compactos? La verdad es que no había estado al loro de este campo en los últimos años y no lo sé. Tendré que estar más al loro, es un campo que promete recibir mucha atención en los próximos años.
Flujo de energía en un vehículo con un motor de combustión interna convencional (ICE), con un motor híbrido (HICE) y con una célula de combustible alimentado por hidrógeno (AFC).
Buena pregunta. He encontrado un artículo de hace unos años que trata de contestar dicha pregunta: Nurettin Demirdöven y John Deutch del prestigioso M.I.T., en «Hybrid Cars Now, Fuel Cell Cars Later,» Science, 305: 974-976, 2004, compararon la eficacia energética de vehículos de combustión interna convencionales, vehículos híbridos, con un motor eléctrico basado en baterías que complementa al motor convencional, y vehículos basados en células de combustible (fuel cells) alimentados con hidrógeno.
El análisis de los autores muestra que energéticamente lo más conveniente tanto para la industria como para los gobiernos es favorecer prioritariamente el desarrollo de los vehículos híbridos. Por supuesto, en 2004 la tecnología de vehículos basados en células de combustible estaba en pañales y los autores hicieron su comparación basándose en un modelo teórico para la eficacia energética en lugar de probar tres vehículos diferentes en el mismo circuito.
El artículo/charla de Reinhold Wurster, «Pathways to a Hydrogen Refueling Infrastructure Between Today and 2020,» Fuel Cell Teach-in European Commission DGTren, Brussels, July 11/12, 2002, considera las expectativas de la tecnología de vehículos a motor con células de combustible en el contexto de la legislación y el mercado europeos (con énfasis en Alemania). En una visión positiva. El peor caso puede ser mucho más descorazonador.
¿Cómo influirá la evolución del precio del crudo en estas expectativas? Hoy está por debajo de los 70$ y aunque se espera que suba (reunión «urgente» de la OPEP en noviembre para reducir la producción) creo que tendremos un petróleo alrededor de los 75$ durante un par de años. La peor noticia posible para las energías alternativas.
¿Cuándo notará en su bolsillo el españolito de a pie la reducción del precio del crudo? En las gasolineras, la evolución «natural» de los precios del crudo debería notarse en enero de 2009, pero coincide que entonces dejará de venderse la gasolina «super» (97 octanos) por normativa europea. ¿Cómo afectará al precio de los otras? Lo que está claro, hasta el Ministro Montilla lo tiene claro, es que el gasóleo volverá a ser significativamente más barato que la gasofa. ¿Quién se acuerda de las protestas de los camioneros que sesgarón vidas humanas?
Espectacular video en el que un avión de combate «vuela» a la velocidad del sonido. La onda de choque que rodea al avión supersónico (F-14) comprime el aire tanto que provoca que la humedad ambiental forme una nube de vapor (el cambio brusco de presión causa que la temperatura baje brúscamente, lo que si hay humedad en el ambiente provoca que el vapor de agua se condense en gotitas que conforman la nube que vemos). Precioso.
Bueno, seamos fieles a la verdad, el avión del video no está volando ni a la velocidad del sonido ni por encima de ella, sino por debajo. ¿Cómo? Técnicamente, la nube de condensación de Prandtl-Glauert se puede formar fácilmente a velocidades altas, pero inferiores a la velocidad del sonido. No puede considerarse una «prueba» de que el avión de combate vuela por encima de la barrera del sonido o de que ha roto dicha barrera.
De hecho, normalmente, los contenidos de humedad necesarios para que se produzca este fenómeno se suelen dar a «baja» altura y los aviones supersónicos tienen prohibido volar tan bajo (salvo en caso de conflictos bélicos, etc.). En cualquier caso, qué bonito es disfrutar de este precioso fenómeno.
Simetría SU(4) de sabor (4 quarks). En el plano C=0 la simetría SU(3) de sabor (3 quarks) de la vía óctuple del Nobel Murray Gell-Mann.
¿Qué es una partícula elemental? Un «objeto» con «momento», «energía», «masa», «espín», y algunas «cargas» localizado en el espaciotiempo (en un lugar del espacio en un momento dado).
Sea una partícula elemental «libre» (no sujeta a fuerzas externas). ¿Qué es el momento (lineal)? Si las propiedades de un «objeto» físico «aquí» son las mismas (invariantes) que «allí», hay algo que se conserva, es el «momento». ¿Qué es la energía (total)? Si las propiedades de un «objeto» físico «hoy» son las mismas (invariantes) que «mañana», hay algo que se conserva, es la «energía». ¿Qué es la masa? Para un «objeto» libre, la energía (total) es energía cinética (masa) que depende de su velocidad. Si el «objeto» puede estar en reposo, la energía cinética en dicho caso es la «masa» (en reposo). Si el «objeto» no puede estar en reposo, tiene «masa» nula. ¿Qué es el momento cinético (angular)? Si las propiedades de un «objeto» físico «sólido» son las mismas independientemente del ángulo con la que las veamos, hay algo que se conserva, es el momento cinético. Para una partícula elemental que es un «objeto» puntual, no sólido, la conservación del momento cinético es trivial. «Sorprendentemente,» la teoría de la relatividad de Einstein «obliga» a que toda partícula elemental tenga un «momento cinético interno» que se denomina «espín». Lo descubrió «físicamente» Dirac para el electrón, pero en teoría de grupos era algo conocido hacía tiempo (las representaciones espinoriales de grupos).
En Física Matémática, toda magnitud «conservada» en un sistema físico es resultado de una simetría en su descripción matemática (teorema de Emmy Noether). En Matemáticas, las simetrías son descritas utilizando teoría de grupos (de transformaciones). Una simetría es lo que no cambia ante la acción de un grupo (de transformaciones). Si f(x,t) es la función que describe una partícula elemental localizada en el espaciotiempo en (x,t), ¿cómo podemos garantizar que describe un «objeto» con «momento», «energía», «masa», y «espín»? Basta con que f corresponda a alguna representación del grupo de Poincaré (la invarianza ante traslaciones y rotaciones en el espacio tiempo). Es decir, f deberá ser una «función» (representación) escalar, pseudoescalar, vectorial, pseudovectorial, espinorial, tensorial, etc. No entraré en detallar qué es una representación de un grupo y en concreto representaciones de grupos de Lie (como el de Poincaré) que modelan simetrías continuas (cuyos parámetros son diferenciables y permiten utilizar el concepto de álgebra de Lie).
La asociación de partículas (libres) con representaciones del grupo de Poincaré dota de significado a conceptos abstractos como «momento», «energía», «masa» y «espín». Una elección «adecuada» del espacio al que pertenece la función f que describe la partícula automáticamente garantiza valores «medibles» para dichos conceptos.
Las partículas elementales se observan en la Naturaleza en clases (o tipos). Ciertas interacciones (colisiones, desintegraciones, etc.) se observan sólo entre ciertos tipos de partículas. «Abusemos» del lenguaje un poco. Hay partículas machos (fermiones) y hembras (bosones). A los machos les gusta «normalmente» interactuar con las hembras (las interacciones entre fermiones «normalmente» están mediadas por bosones). Aunque a algunos machos les gusta interactuar con otros machos (hay fermiones que interactúan con fermiones en teorías como la de Fermi para la fuerza débil) y a algunas hembras les gusta interactuar con otras hembras (hay bosones no lineales que interactúan entre ellos como los gravitones). También hay «lucha» de clases. Hay machos de ciertas «clases» que prefieren interactuar con hembras «de su misma clase» y no con hembras de otras clases, y viceversa. Lo mismo pasa con las iteracciones hombre-hombre y hembra-hembra.
¿Qué propiedad caracteriza las «clases» de partículas elementales en función de sus interacciones? Las «cargas» (topológicas) asociadas a ciertas simetrías. Cargas como la eléctrica (QED), la de color (QCD), o cargas «efectivas» como el isoespín o la hipercarga («extrañeza»). ¿Qué simetría es la responsable de la «conservación» de estas «cargas»? O mejor, ¿la invarianza respecto a qué simetría conduce a la aparición de estas cargas conservadas? Obviamente, se trata de una simetría «interna» (propia) de la partícula elemental. Algo que «no vemos» cuando «vemos» a la partícula en un lugar y un momento determinados del espaciotiempo. Sabemos que está ahí cuando observamos cómo interactúa la partícula con otras. El «trato» entre partículas nos muestra de qué clase son. La única partícula no clasista, que interactúa con todas las demás, es el gravitón (aún no observada) que es responsable de la fuerza de la gravedad. Las demás partículas son «clasistas». La «lucha de clases» entre partículas nos indica que «poseen» simetrías internas.
La descripción matemática de las simetrías internas requiere la introducción de ciertos grupos (continuos o de Lie) «internos» que se aplican al espacio (de representación del grupo de Poincaré) al que pertenece la función matemática que describe a cada partícula. Grupos como U(1), responsable de la carga eléctrica (invarianza de fase), SU(2), responsable de la fuerza electrodébil a alta energía, SU(3), responsable de la carga de «color», responsable de la fuerza fuerte entre quarks a alta energía, etc. ¿Por qué decimos que ciertos grupos sólo aparecen a alta energía? Porque las simetrías que «vemos» muy claras a alta energía, «no se ven» a baja energía, parece como si hubieran desaparecido «parcialmente». Decimos que la simetría está rota. La simetría SU(2) de la fuerza electrodébil está rota a baja energía y observamos dos fuerzas muy distintas, el electromagnetismo y la fuerza débil. La simetría SU(3) de color de la fuerza fuerte está rota a baja energía donde es imposible observar los quarks (fermiones coloreados) que sufren dicha fuerza sino estados compuestos sin color («blancos») que aparentan ser partículas elementales (hadrones clasificados como bariones y mesones).
Hay simetrías «aproximadas» que podríamos calificar de «accidentales», como la vía óctuple de Gell-Mann basada en SU(3) que explica las partículas (hadrones, es decir, bariones y mesones) «formadas» por 3 quarks (los menos masivos) denominados arriba, abajo y extraño. Introdujo el concepto de hiperarga («extrañeza») como magnitud que se conserva en una partícula si uno de sus constituyentes es un quark extraño. Para Gell-Mann, en esa época, los quarks eran meros «instrumentos» matemáticos que «expresaban» las simetrías internas de las partículas, se necesitó casi un década para obtener pruebas experimentales de su existencia (hoy en día, los físicos experimentales afirman «ver» quarks por doquier). El esquema SU(3) le permitió predecir una partícula con 3 quarks extraños que fue detectada experimentalmente. El descubrimiento del cuarto quark nos llevó a un modelo SU(4), como en la figura que inicia esta entrada. En la actualidad se conocen 6 quarks porque lo que la simetría «aproximada» de Gell-Mann «correcta» es SU(6), llamada SU(6) de sabor. Esta simetría es «buena» para los 3 quarks más ligeros, pero su poder predictivo es «pobre» en el caso general, debido a la gran diferencia de masas entre los quarks. Hay una diferencia de 5 órdenes de magnitud entre la masa del quark más ligero (up, arriba) y el más pesado (top, cima).
Descubrir una nueva simetría entre las partículas elementales significa que hay nuevas «cargas» (propiedades) asociadas a ellas que las hace «clasistas» y que ciertas interacciones entre partículas están prohibidas (reglas de selección) porque estas «cargas» no se conservarían en dichas interacciones. Estas «nuevas» simetrías estarán rotas, porque a baja energía no se las observa (creemos que conocemos muy bien lo que pasa a «baja» energía). Estas «nuevas» simetrías conducirán a resultados «no esperados» a alta energía. Garrett Lisi y su «teoría «simple» para todo» introducen nuevas simetrías que deberán estar rotas a baja energía. En su trabajo no dice cómo se rompen (la ruptura puede ser espontánea, ocurrió en el Big Bang de forma «natural», o dinámica, hay una cierta combinación de factores que llevó a que se produjera, por ejemplo, en el contexto del principio antrópico). Garrett elige un grupo de simetría interna para todas las partículas conocidas, E8, y las representa utilizando ciertas «representaciones de grupos» de ciertos subgrupos de E8 (que es muy rico en subgrupos). ¿Y contiene su teoría al Modelo Estándar? Lisi lo impone, seleccionando ad hoc (arbitrariamente) que así sea. Él elige (impone) que la teoría (lagrangiano) así sea. El grupo de Lie E8 puede ser muy bello pero su lagrangiano («el del» modelo estándar) no lo es y además es muy «artificial». Lo ideal sería una ruptura espontánea de la simetría de E8.
Sin palabras: «el gráfico del pánico,» donde se puede apreciar la «escandalosa» coincidencia entre el gráfico actual del Dow Jones con el de la crisis de 1929 y el temor a que esa coincidencia continúe [visto en euribor.com].
Poema «Sin Palabras» de Adelardo López de Ayala
Mil veces con palabras de dulzura
esta pasión comunicarte ansío;
mas, ¿qué palabras hallaré, bien mío,
que no haya profanado la impostura?
Penetre en ti callada mi ternura,
sin detenerse en el menor desvío,
como rayo de luna en claro río,
como aroma sutil en aura pura.
Ábreme el alma silenciosamente,
y déjame que inunde satisfecho
sus regiones, de amor y encanto llenas…
Fiel pensamiento, animaré tu mente;
afecto dulce, viviré en tu pecho;
llama suave, correré en tus venas.
Me encanta perder el tiempo leyendo artículos de física teórica que no entiendo. Nuestro amigo y asiduo lector Kondor, me preguntaba por la nueva teoría del físico A. Garrett Lisi, «An Exceptionally Simple Theory of Everything,» ArXiv preprint, 6 Nov 2007 . Dicho artículo me pasó desapercibido en su momento, me pego un tirón de orejas, aunque tiene un título de puro marketing (no así a mucha otra gente, incluso en español). La Lisi-manía está de moda (en los dos sentidos, los fans de Lisi y los que le tienen manía). Lisi es el «nuevo Einstein» del s. XXI: «guaperas», con una guapa novia, surfista, con un despacho móvil en su caravana y trabajando «a lo grande» desde un enfoque «abandonado» (GUT + supergravedad + teoría gravitodébil). ¡Qué monstruo! Muchas madres querrían que su hijo fuera de mayor como Lisi: científico, famoso, surfista y protagonista de programas de T.V. de prensa rosa. Lo sé, lo sé, es… ¡envidia! ¡Que le tengo envidia! Que a mí me da «miedo» eso de practicar el surf (lo mío eran las aguas bravas).
Esta nueva teoría algebraica de Lisi está muy bien comentada, en inglés, por Sabine de BackReaction «A Theoretically Simple Exception of Everything.» Yo no puedo hacerlo mejor. Si sabes inglés, te lo recomiendo. La objeción más fuerte que he encontrado al trabajo de Lisi, obviamente sólo una idea a la que quedan muchos años para madurar, nos la ofrece John Baez: no unifica bien fermiones y bosones (el comentario de Baez requiere un buen conocimiento de teoría de grupos de Lie para entenderlo). La crítica de Lubos Molt en «the reference frame» es dura, divertida, y muestra un poco de «envidia», pero da también en el grano.
Seré breve. El Modelo Estándar de la Física de Partículas Elementales y la Teoría General de la Relatividad para la Gravitación son teorías matemáticas complicadas que se pueden entender desde múltiples puntos de vista. Un punto de vista «maravilloso» es el punto de visto del Álgebra (teoría de grupos de Lie, álgebras de Lie y sus representaciones). A los matemáticos que trabajan en Álgebra Abstracta les encanta. Una explicación muy buena del Modelo Estándar en este sentido la tienes en M. Robinson, K. Bland, G. Cleaver, J. Dittmann, «A Simple Introduction to Particle Physics,» ArXiv preprint, 18 Oct 2008 (se lee fácil y si quieres ir al grano puedes ir directamente a la página 127).
Subgrupos de E8 o sus múltiples "caras".
Básicamente, las 24 partículas elementales conocidas (12 fermiones = 2×3 quarks, 3 electrones y 3 neutrinos, y 12 bosones = 1 fotón, 3 bosones vectoriales y 8 gluones) y al menos un bosón de Higgs, por descubrir, están caracterizadas por magnitudes que se conservan (números cuánticos) que indican cuándo dos de ellas pueden interactuar entre sí. No hay un todos con todos. Estas leyes de conservación se escriben como el resultado de una simetría en la descripción matemática de dichas partículas. Estas simetrías «internas» se escriben como grupos de Lie. Los fermiones se modelan con un grupo producto SU(3)xSU(2)xU(1), más o menos (obvio detalles técnicos como la quiralidad). Los bosones surgen de forma automática (son predicciones) si dicha simetría es local (relativista). Los fermiones, a alta energía, no tienen masa. Adquieren masa a baja energía gracias a un mecanismo de ruptura (espontánea) de la simetría (se supone que como «prueba» de este proceso se observará el bosón de Higgs). La teoría de la gravedad se basa en un grupo SO(3,1), que se diferencia de los demás en que no es compacto, lo que técnicamente dificulta las cosas y se supone, no tenemos teoría cuántica de la gravedad, que el gravitón, aún por descubrir, será una partícula predicha a partir de dicha seimetría. La no compacidad del grupo SO(3,1) genera enormes problemas técnicos desde el punto de vista del álgebra a la hora de entender todo (en física teórica) como el grupo producto SO(3,1)xSU(3)xSU(2)xU(1) (por eso nadie lo escribe de esta forma).
Hemos hablado del álgebra. Pero también hay geometría y eso es harina de otro cantar. Y también hay dinámica cuántica y relativista, teoría especial para el SU(3)xSU(2)xU(1) y teoría general para SO(3,1). Es decir, también hay física. No todo es matemáticas. ¡Qué bonito si todo fuera matemáticas!
Volvamos al álgebra. La unificación de SU(3)xSU(2)xU(1) es un «pegote mal hecho». Es bastante «fea» (cuando se miran los detalles no parece «natural», parece un «truco» para que salga lo que tiene que salir). Así que desde los 1970s se han propuesto muchos grupos (normalmente, compactos) que unifican este producto con un solo grupo. Las llamadas Teorías de Gran Unificación (GUT) como las basadas en SU(5), SU(6), SO(10), E6, E8, etc. Nota que E8 contiene a E6 que contiene a SO(10) que contiene a SU(5). Que yo sepa, la GUT más prometedora es la basada en SO(10), es sencilla y resuelve un problema que tiene SU(5), además «gusta» porque lleva fácil a E8 (que se popularizó como E8xE8 en teoría de cuerdas heteróticas en los 1980s). Esta «gran» unificación GUT es sólo para los fermiones y conduce a la aparición de nuevos bosones (aún no descubiertos). La versión espinorial de SO(10) tiene dimensión 16, por lo que puede describir hasta 16 fermiones. Conduce a cosas tan curiosas como que el protón se desintegra (aún no demostrado), que existen muchos monopolos magnéticos (aún por descubrir), que existen nuevos bosones portadores de fuerza (aún por descubrir), que hay varios bosones escalares de Higgs (aún por descubrir), etc. Hoy en día, SO(10) es solamente una idea «bonita» ya que los físicos teóricos prefieren a otras «misses».
Diagrama de raíces de E8.
La belleza de las matemáticas, tan aclamada por Paul A. Dirac y sus seguidores, nos lleva a preguntarnos ¿cuál de estos grupos para GUT es el más bello? Todos estos grupos son bonitos, pues son muy simétricos. Pero la belleza siempre conlleva misterio. A muchos matemáticos les parece que el más grande de todos E8, el menos comprendido de todos, el más misterioso, es el más bonito. Bueno, sobre gustos no hay nada escrito.
¿Pero qué pasa con la gravedad? Su grupo, el de Poincaré, SO(1,3) es un poco «jodido» y es difícil de pegar con los demás. Hay un teorema (Coleman-Mandula) que afirma que no se puede «pegar» SO(3,1) con cualquier otro grupo y obtener una «buena» teoría cuántica de campos. Por ello, no se habla de teorías GUT que incluyan la gravedad. ¿Lisi? ¿Dónde está Lisi? Lisi propone una teoría GUT basada en E8 que incluye como subgrupo a SO(4,1) pero no a SO(3,1) y le da un «retrueque» al teorema de Coleman-Mandula. ¡Bien hecho! Pero entonces Lisi no recupera la gravedad de Einstein. Bueno, más o menos, SO(4,1) es el grupo de simetría del espaciotiempo tipo de Sitter (lo que no está nada mal) y viéndolo «bien» nos ofrece algo parecido a lo que nos ofrece SO(3,1). «Se acepta pulpo como animal de compañía.»
Estamos hablando de Álgebra, sólo de álgebra. No lo olvidemos (una teoría cuántica de campos que modele la realidad requiere más cosas). Volvamos a E8. Pero E8 es demasiado grande. Como variedad real tiene dimensión 496 y como variedad compleja «sólo» dimensión 248. Su representación adjunta tiene dimensión 248, y aunque depende de cómo lo hagamos, E8 puede albergar hasta 248 partículas. Pero no conocemos tantas partículas elementales. El truco es «conocido» y sencillo. Lo que técnicamente se llaman las raíces del grupo las podemos «agrupar» haciendo que varias representen la misma partícula. Como E8 tiene muchos subgrupos, podemos mirar E8 desde el punto de vista de uno de esos subgrupos, y agrupar para que parezca que hay menos de las que en realidad hay. Eso son los bonitos diagramas (grafos con colorines) que se ven en los dos videos que acompañan a esta entrada. Podemos «rotar» el grafo del diagrama de raíces de E8 y observar otros grafos más sencillos, con menos «raíces» (son grupitos de raíces). Haciéndolo correctamente (Lisi parte E8 básicamente en F4 y G2, ver figura más arriba, los «rota» y los «superpone») podemos explicar las 24 partículas elementales conocidas (fermiones y bosones), así como el Higgs y el gravitón. Lo que pasa es que los números no cuadran perfectamente y hay más grupitos de raíces que partículas. Pero esto no es un problema, todo lo contrario, es una predicción. La teoría de Lisi predice 22 nuevos bosones (18 de los cuales son coloreados, como los gluones). Esto es álgebra, no hay física. Lisi cree que el LHC, faltaría más, encontrará pruebas de algunas de estas partículas.
Este descripción algebraica de todo (TOE) es maravillosa, ¿cuál es el problema? En las teorías GUT normalmente se modelan con álgebra los fermiones, pero no los bosones. Para modelar ambos es necesario una simetría que los conecte, la supersimetría. Pero la teoría E8 de Lisi ¿es supersimétrica? No, no lo es (todavía). Entonces cómo lo hace. ¡A huevo! ¿Y por qué no? ¡Con dos cojones! ¡Es sólo álgebra! La objeción de John Baez a la teoría de Lisi, que muchos otros han repetido, va en esta línea. No sabemos seguir trabajando por este camino. Hasta ahora nadie sabe cómo usar un grupo que vea por igual fermiones y bosones (por la cara digo que esto es un bosón y aquello un fermión) para construir un teoría cuántica de campos consistente. ¿Sabrá hacerlo Lisi? Lo dudo. ¿Sabrá hacerlo alguien? Ahora muchos genios estarán dándole vuelta a la cabeza (aprovechando que la teoría de cuerdas está de capa caída y que el LHC no empezará a dar resultados hasta dentro de unos 8 meses, con suerte). Quizás algún nuevo Einstein sea capaz de descubrir cómo hacerlo, pero ahora mismo, nadie lo sabe (que yo sepa).
La teoría de Lisi es una GUT «extraña». ¿Qué pasa con la gravedad en la teoría de Lisi? ¿Se puede construir una teoría cuántica de la gravedad para la parte de E8 que Lisi asocia al gravitón? Lisi propone el uso de una técnica desarrollada por MacDowell-Mansouri para construir una teoría tipo GUT para la gravedad, que orginalmente se propuso para la supergravedad, que requiere supersimetría. No soy capaz de entender los detalles técnicos del trabajo de MacDowell-Mansouri, que investigadores como Smolin han utilizado en Gravedad Cuántica de Bucles (loop quantum theory). Es como un «truco» para obtener la teoría de la gravedad de Einstein con constante cosmológica a partir de un grupo SO(4,1) en lugar del habitual SO(3,1). Por supuesto, el «truco» tiene una fuerte base matemática (geométrica). En lugar de usar una conexión de Levi-Civita (geometría riemanniana), utiliza una conexión de Cartan (geometría «cartaniana»). El trabajo de Derek K. Wise, «MacDowell-Mansouri gravity and Cartan geometry,» ArXiv preprint, 30 Nov 2006, parece interesante, pero no he tenido tiempo de leerlo.
El genial Lee Smolin, cada vez que alguien usa la teoría de MacDowell-Mansouri, que a él le encanta, está al loro y realiza algún progreso en dicha línea. Su artículo «The Plebanski action extended to a unification of gravity and Yang-Mills theory,» ArXiv preprint, 6 Dec 2007 , trata sobre la teoría de Lisi y nos aclara algunas ideas (Lisi siempre presume de que Smolin es su «amigo»). Smolin critica que la acción (física) propuesta por Lisi no es localmente invariante ante el grupo E8, sale ante un subgrupo; además, su incorporación de los fermiones en pie de igualdad con los bosones, tipo BRST (algo técnico) es muy discutible. Smolin considera que la «unificación» ideas de gravedad cuántica de bucles y las ideas algebraicas sobre E8 de Lisi podría dotar a estas ideas de una teoría cuántica consistente (algo que por ahora parece bastante difícil). Smolin «pisa el freno de la moto» pero no se baja de ella. Por si acaso.
Ha nacido la Lisimanía. ¡Cómo están las fans!
En resumen, no me he enterado de nada tras leer el artículo de Lisi. Tendré que esperar a que se publiquen artículos que la expliquen mejor. Me parece que la teoría está en «pañales.» Lo que no es poco. Parece que al genial Lee Smolin le ha llamado la atención el trabajo (¿una garantía?). Pero si queréis mi opinión, creo que las ideas de Lisi están muy alejadas de las ideas que todo el mundo espera que tenga una teoría de todo. Todos esperamos que explique el espaciotiempo y sus propiedades (teoría pregeométrica), todos esperamos que explique cuánticamente la gravedad, que resuelva el problema del observador en mecánica cuántica a escala cosmológica, etc. Todos esperamos mucho de una teoría sobre todo (TOE). Me da la sensación que las ideas de Lisi son darle vueltas a la misma tortilla y que no van al grano. Necesitamos nuevas ideas conceptuales, no más garabatos en hojas de papel (y en animaciones en colorines por ordenador).
Kondor, gracias, he disfrutado. Tu recomendación ha sido estupenda. A los demás que sepan inglés, el video que nos ha recomendado Kondor te resultará muy interesante y ameno (aunque está pronunciado por un americano, es un inglés que se entiende fácil). Lo tiene todo, es divertido, gráficamente atractivo y no aburre. Eso sí, ante la pregunta de Ted, al final, ni el tal Ted se explica bien, ni el tal Lisi sabe contestarle. Quiere contestar para que todo el mundo lo entienda, pero acaba repitiendo como un loro lo ya dicho y parece que no llega más allá (casi parece que no sabe de qué habla o qué le han preguntado). Si yo hubiera sido Lisi, hubiera contestado de otra forma. Pero así es el directo («live is live»).
PS: UnNews, fuente de dos de las imágenes y muy divertido.
Termodinámica y Ciencias Sociales, áreas del conocimiento muy alejadas, pero al mismo tiempo muy próximas: todos nosotros somos Motores Térmicos y nuestras relaciones interpersonales se ven influidas por ello, como han estudiado Lawrence E. Williams y John A. Bargh, «Experiencing Physical Warmth Promotes Interpersonal Warmth,» Science, 322: 606-607, 24 October 2008 . La «calidez» humana es uno de los rasgos positivos que más destacamos cuando juzgamos a una persona. Los psicólogos ya habían resaltado la importancia del contacto físico, el sentir el «calor» corporal de nuestros padres, durante la infancia para el futuro desarrollo psicosocial en la edad adulta. La relación entre la temperatura (calor) y la «calidez» interpersonal se ve modulada por la corteza insular de nuestro cerebro, también llamada simplemente ínsula, que se encuentra ubicada en la superfice lateral del cerebro, dentro del surco de Silvio, que separa las cortezas temporal y parietal inferior. ¿Somos conscientes del efecto de la temperatura termodinámica en nuestras relaciones personales? ¿Es algo inconsciente?
Williams y Bargh han experimentado con sujetos con objeto de verificar la hipótesis de que las experiencia de física de calor (o frío) aumenta la sensación de «calor» interpersonal (o «frío»), sin que la persona sea consciente de esta influencia. Su estudio es realmente curioso. Estudiaron el comportamiento social de individuos delante de una taza de café caliente o con hielo. A mucha gente no le gusta el café con hielo, le parece «poco gustoso» (por ejemplo, a la mayoría de los latinoamericanos). En el experimento, los sujetos tenían que juzgar la personalidad de otros (si son «cálidos», generosos) tras un contacto interpersonal (claro, la mano de los que consumían café caliente estaba más caliente que la de los que lo consumían helado). Los resultados confirmaron la hipótesis ,en una escala de 1 («persona fría») al 7 («persona cálida») los sujetos juzgarón con un 4.71 (en media) a los que antes habían tocado brevemente una taza de café caliente y con un 4.25 a los que habían tocado la taza más fría.
En un segundo experimento, se utilizó una almohadilla terapéutica fría o caliente que ciertos participantes tenían que evaluar ante la atención de otros. Estos últimos, podían premiar a los participantes que consideraran merecedores de premio por su actitud, a los que considerarían «más amigos», con un ticket de descuento de un dólar para una heladería cercana. Además, a la mitad de los participantes se les pidió que elegieran entre recompensarse a sí mismos por su trabajo de «jueces» o recompensar a los «buenos» participantes. Los «jueces» ignoraban el hecho de que había dos tipos de almohadillas (frías y calientes).
La hipótesis en estudio se vio confirmada, los participantes a los que le tocó evaluar una almohadilla caliente fueron más premiados que los que tuvieron la «mala suerte» de recibir la fría. Los «jueces» preferían autoregalarse (75%) que regalar a un participante si éste había tocado la almohadilla fría, pero, sin embargo, no les importaba premiar a los otros (54%).
En resumen, el «calor» humano tiene una componente termodinámica más importante de lo que imaginamos.
P. Balaram, «Missing Out on a Nobel Prize,» Current Science, 95: 997-998, 25 october 2008 , nos recuerda que el Premio Nobel de Química de 2008 que reconoce a Osamu Shimomura, Martin Chalfie y Roger Tsien por «el descubrimiento y desarrollo de la proteína fluorescente verde, GFP» ha olvidado a alguien. El «camionero» Douglas C. Prasher (excientífico descubridor del gen de la proteína GFP que abandonó la ciencia en 1997 tras una brillante, pero corta carrera).
GFP es una proteína que absorbe luz a 400 nm. y emite luz fluorescente a unos 505 nm. ¿Por qué «darle» el Nobel a la proteína GFP si hay cientos, miles, de proteínas «importantes» estudiadas en los últimos años? Porque GFP se ha convertido en la herramienta clave a la hora de visualizar la expresión de genes en células (la literatura científica en biología molecular y celular que la usa es inmensa y crece exponencialmente).
La historia de GFP empieza tras su descubrimiento por O. Shimomura et al. , «Extraction, Purification and Properties of Aequorin, a Bioluminescent Protein from the Luminous Hydromedusan, Aequorea,» Journal of Cellular and Comparative Physiology, 59: 223-239, 1962 [citado, hoy, más de 544 veces en el ISI WOS; Shimomura tiene un índice-h superior a 31], quien también caracterizó su cromóforo (la pequeña parte de la molécula que absorbe y emite luz) entre 1962 y 1979. Sin embargo, la proteína se hizo famosa (cual concursante de Gran Hermano) en muy poco tiempo, en sólo tres años, entre 1995 y 1997, pasó de ser una proteína que interesaba a unos pocos biólogos a una herramienta clave de primera magnitud en bioquímica y biología celular. ¿Cómo ocurrió este «reality show» científico?
En 1992, el gen que codifica GFP fue clonado por Douglas C. Prasher et al. «Primary structure of the Aequorea-Victoria green-fluorescent protein,» Gene, 111: 229-233, 1992 (artículo citado, hoy, más de 961 veces en el ISI WOS; Prasher tiene sólo 19 artículos en el ISI WOS con un índice-h superior a 15), lo que permitió determinar su secuencia (primaria) de aminoácidos. Martin Chalfie recuerda que en 1988, en un congreso, coincidió con Prasher y le pidió los detalles del gen, que recibió 4 años más tarde, con objeto de usar la GFP como marcador de la expresión de otros genes. El trabajo de Chalfie con dicho gen se publicó en las más altas esferas, M. Chalfie et al. «Green fluorescent protein as a marker for gene-expression,» Science, 263: 802-805, 1994 [artículo citado, hoy, más de 2854 veces en el ISI WOS; Chalfie tiene un índice-h superior a 41]. En paralelo, Roger Y. Tsien, trabajando con el gen GFP de Prasher, descubrió como ajustar la longitud de onda de la luz fluorescente en mutaciones de la secuencia de la GFP, en R. Heim, D.C. Prasher, R.Y. Tsien, «Wavelength mutations and posttranslational autoxidation of green fluorescent protein,» Proceedings of the National Academy of Sciences, 91: 12501-12504, 1994 [citado, hoy, más de 740 veces en el ISI WOS]. Nótese que Prasher es el segundo coautor. El artículo más famoso de R.Y. Tsien es «The green fluorescent protein,» Annual Review of Biochemistry, 67: 509-544, 1998 [citado más de 1762 veces en el ISI WOS; el índice-h de Tsien es mayor de 77].
Los trabajos de Chalfie y Tsien, hicieron que la «bella durmiente» de GFP, tras el «beso del príncipe» Prasher, se transformara en la «bella princesa» de la biología molecular. El trabajo y la contribución de Prasher fue fundamental. Pero el Premio Nobel sólo puede ser concedido a tres científicos por año y categoría. A Prasher le ha «tocado la china».
¿Quién es Prasher? Sólo tiene 19 artículos en el ISI WOS, el más reciente de noviembre de 1997. ¿Dónde trabaja? Prasher trabaja de conductor de camiones («shuttle cars») en una mina de Huntsville, Alabama, ganando unos 10$ por hora. Recortes de financiación en el Departamento de Agricultura de los EEUU, para el que trabajaba, le hizo perder el puesto de trabajo y a abandonar la ciencia definitivamente. Le han preguntado «¿lamenta no haber recibido el Nobel? No, en absoluto, yo me quedé sin fondos y tuve que abandonar, ellos mostraron cómo podía usarse la proteína de forma práctica, esa es la clave del Nobel y ellos se lo merecen.»
El caso de Prasher nos hace pensar en ¿premiará el Comité Nobel alguna vez a un excientífico que no pertenezca a ninguna institución de investigación? Por supuesto que no, los premios Nobel durante el s. XX han premiado a científicos con una carrera académica fuera de toda duda (índices-h superiores a 30) aunque la mención al premio siempre destaca algún avance conceptual algún logro que ha transformado la disciplina del premiado. Prasher, como otros olvidados por el Comité Nobel, pasará a la historia por derecho propio. Un Premio Nobel a GFP es un Premio Nobel a Prasher (aunque el más «necesitado» no reciba un solo euro). ¿Cómo afectará la crisis financiera en EEUU a Prasher? ¿Peligra su puesto de trabajo?