Premio Nobel de Química 2011: Los cuasicristales

El israelita Daniel Shechtman (Technion – Israel Institute of Technology, Haifa, Israel) ha recibido el Premio Nobel de Química 2011 por el descubrimiento experimental de los cuasicristales. En mi opinión, hubiera estado muy bien que también fuera premiado el famoso físico y matemático Roger Penrose, que teorizó sobre los cuasicristales en los 1970. De hecho el año 2009 yo predecía un posible Premio Nobel de Física para “ROGER PENROSE y DAN SCHECHTMAN por los cuasicristales, quizás la única manera de darle un Nobel a Penrose, [aunque] tampoco lo veo claro;” pues le han dado el de Química y se han olvidado de Roger. En la foto que abre esta entrada he incluido algunos patrones cuasicristalinos que se observan en los mosaicos de la Alhambra, Granada, España (también se observa este tipo de teselado en otros monumentos en Irán, Irak, Turquía o Afganistán). El laureado Shechtman descubrió los cuasicristales en un microscopio electrónico el 8 de abril de 1982; nadie pensaba que fuera posible encontrar en la realidad “cristales” cuasiperiódicos. Por ello, el descubrimiento de Shechtman fue muy polémico y controvertido (la mayoría de los físicos y químicos de materiales pensaba que era imposible que existieran). En la actualidad se fabrican cuasicristales en el laboratorio e incluso han sido observados en formaciones cristalinas naturales. Information for the Public. Scientific Background

Para más información recomiendo el artículo de Enrique Macía, “Los cuasicristales y sus posibles aplicaciones,” Revista Española de Física 12: 20-26, 1998 [ya están disponibles los artículos de la REF en la web].

El cronón – cuanto del tiempo – puede haber sido detectado por primera vez

dibujo20081112geo6001Hay descubrimientos que si se confirman merecen el Premio Nobel. Hay resultados experimentales que nadie sabe explicar. Las explicaciones de estos fenómenos, si se confirman, suelen ser el candidato ideal para el Nobel en Física. Craig J. Hogan, de la Universidad de Chicago y del Fermilab, ha publicado “Indeterminacy of holographic quantum geometry,” Phys. Rev. D 78, 087501, 2008 [ArXiv preprint], artículo de 4 páginas que trata de explicar teóricamente el ruido de fondo que muestran los experimentos que tratan de medir ondas gravitatorias (por ejemplo, el GEO600 del Instituto Max Planck alemán): están midiendo el intervalo de tiempo más pequeño (también llamado cronón o “cuanto de tiempo”). De confirmarse su interpretación teórica de estos experimentos, será claro merecedor del tan apreciado galardón. Nos lo cuenta Eric Hand en “Time to test time,” Nature News, 10 November 2008 .

Los poetas loan el dulce e inexorable pasar del tiempo. Un tiempo clásico o newtoniano, inexorablemente conectado con el espacio gracias a la teoría de la relatividad, conformando un espaciotiempo continuo y suave, pero incompatible con ciertas ideas cuánticas. No tenemos una teoría cuántica de la gravedad, luego no tenemos una teoría cuántica del tiempo. Mucho creen que la mecánica cuántica impone que el tiempo debe ser “cuántico” o discreto.

¿Podemos observar la naturaleza discreta del tiempo cuántico? Craig Hogan afirma que ya lo hemos hecho. El ruido “cuántico” asociado a la naturaleza cuántica del tiempo debería observarse en los detectores de ondas gravitatorias, como el GEO600, en Hannover, Alemania. El interferómetro GEO600 para la detección de ondas gravitatorias presenta un ruido de fondo con una frecuencia entre 300 y 1400 Hz que nadie sabe explicar (que es perfectamente audible). Hogan ha desarrollado una teoría efectiva (que no requiere conocer la teoría de la gravedad cuántica correcta) basada en describir la incertidumbre en la posición en un espaciotiempo holográfico como ondas monocromáticas (algo parecido a la luz de un láser). Sorprendentemente, para posiciones separadas por una distancia macroscópica, la incertidumbre transversal es mucho más grande que la longitud de Planck. Esta incertidumbre su observaría como un “ruido holográfico” en la posición relativa entre las posiciones relativas de puntos. La magnitud de este ruido depende directamente del intervalo mínimo de tiempo, el cronón o cuanto de tiempo.

La idea del espaciotiempo holográfico es que el espaciotiempo tiene 2+1 dimensiones en lugar de las usuales 3+1, igual que un un holograma óptico que es plano y nos parece que muestra imágenes en 3 dimensiones. La ventaja de las teorías matemáticas holográficas es que es mucho más fácil realizar los cálculos en gravedad cuántica en 2+1 dimensiones que en 3+1 (donde nadie sabe hacerlos bien). Recuerda que la solución de una ecuación elíptica (ecuación de Laplace, por ejemplo) viene unívocamente determinada por las condiciones de contorno (de Dirichlet). Toda la información de la solución está contenida en el contorno (un tercio del libro de Roger Penrose “El camino a la realidad,” está dedicada a la teoría de variable compleja, en gran parte, para demostrar esto). Las ecuaciones de Einstein se pueden interpretar como ecuaciones elípticas no lineales por lo que podemos utilizar, en variable compleja, fácilmente la idea de que el borde determina el contenido. Las ideas holográficas tienen la ventaja de que su descripción natural (en óptica) está basada en ondas y la mecánica cuántica es una mecánica ondulatoria. La conexión gravedad-cuántica gracias a la holografía del espaciotiempo ha sido explotada por muchos investigadores. Por ejemplo, muchos especialistas en teoría de cuerdas, como Gary Horowitz.

Karsten Danzmann, del Instituto Max Planck para Física Gravitacional, investigador principal del GEO600, afirma que “de confirmarse, Hogan merece el premio Nobel.” Por supuesto, Danzmann y los demás científicos del GEO600 son bastante excépticos respecto a estas ideas tan radicales. Danzmann confiesa “para mí, que soy un físico experimental, el resultado de Hogan es como “magia negra,” parece un resultado artificial, forzado.”

¿Se confirmará la idea de Hogan el año que viene? Para finales de 2009 se espera doblar la sensibilidad de la instalación GEO600. Si el rudio de fondo disminuye, Hogan perderá el Nobel. Su trabajo se reducirá a pura numerología, una mera casualidad. Si el ruido de fondo persiste… su nombre resonará por los pasillos de la Academia de Suecia.

dibujo20081112fotorobnueva1

http://www.smashingmagazine.com/2008/11/09/60-beautiful-examples-of-night-photography-2/

Premio Nobel de Química 2008: El olvidado por los suecos que abandonó la ciencia

P. Balaram, “Missing Out on a Nobel Prize,” Current Science, 95: 997-998, 25 october 2008 , nos recuerda que el Premio Nobel de Química de 2008 que reconoce a Osamu Shimomura, Martin Chalfie y Roger Tsien por “el descubrimiento y desarrollo de la proteína fluorescente verde, GFP” ha olvidado a alguien. El “camionero” Douglas C. Prasher (excientífico descubridor del gen de la proteína GFP que abandonó la ciencia en 1997 tras una brillante, pero corta carrera).

GFP es una proteína que absorbe luz a 400 nm. y emite luz fluorescente a unos 505 nm. ¿Por qué “darle” el Nobel a la proteína GFP si hay cientos, miles, de proteínas “importantes” estudiadas en los últimos años? Porque GFP se ha convertido en la herramienta clave a la hora de visualizar la expresión de genes en células (la literatura científica en biología molecular y celular que la usa es inmensa y crece exponencialmente).

La historia de GFP empieza tras su descubrimiento por O. Shimomura et al. , “Extraction, Purification and Properties of Aequorin, a Bioluminescent Protein from the Luminous Hydromedusan, Aequorea,” Journal of Cellular and Comparative Physiology, 59: 223-239, 1962 [citado, hoy, más de 544 veces en el ISI WOS; Shimomura tiene un índice-h superior a 31], quien también caracterizó su cromóforo (la pequeña parte de la molécula que absorbe y emite luz) entre 1962 y 1979. Sin embargo, la proteína se hizo famosa (cual concursante de Gran Hermano) en muy poco tiempo, en sólo tres años, entre 1995 y 1997, pasó de ser una proteína que interesaba a unos pocos biólogos a una herramienta clave de primera magnitud en bioquímica y biología celular. ¿Cómo ocurrió este “reality show” científico?

En 1992, el gen que codifica GFP fue clonado por Douglas C. Prasher et al. “Primary structure of the Aequorea-Victoria green-fluorescent protein,” Gene, 111: 229-233, 1992 (artículo citado, hoy, más de 961 veces en el ISI WOS; Prasher tiene sólo 19 artículos en el ISI WOS con un índice-h superior a 15), lo que permitió determinar su secuencia (primaria) de aminoácidos. Martin Chalfie recuerda que en 1988, en un congreso, coincidió con Prasher y le pidió los detalles del gen, que recibió 4 años más tarde, con objeto de usar la GFP como marcador de la expresión de otros genes. El trabajo de Chalfie con dicho gen se publicó en las más altas esferas, M. Chalfie et al. “Green fluorescent protein as a marker for gene-expression,” Science, 263: 802-805, 1994 [artículo citado, hoy, más de 2854 veces en el ISI WOS; Chalfie tiene un índice-h superior a 41]. En paralelo, Roger Y. Tsien, trabajando con el gen GFP de Prasher, descubrió como ajustar la longitud de onda de la luz fluorescente en mutaciones de la secuencia de la GFP, en R. Heim, D.C. Prasher, R.Y. Tsien, “Wavelength mutations and posttranslational autoxidation of green fluorescent protein,” Proceedings of the National Academy of Sciences, 91: 12501-12504, 1994 [citado, hoy, más de 740 veces en el ISI WOS]. Nótese que Prasher es el segundo coautor. El artículo más famoso de R.Y. Tsien es “The green fluorescent protein,” Annual Review of Biochemistry, 67: 509-544, 1998 [citado más de 1762 veces en el ISI WOS; el índice-h de Tsien es mayor de 77].

Los trabajos de Chalfie y Tsien, hicieron que la “bella durmiente” de GFP, tras el “beso del príncipe” Prasher, se transformara en la “bella princesa” de la biología molecular. El trabajo y la contribución de Prasher fue fundamental. Pero el Premio Nobel sólo puede ser concedido a tres científicos por año y categoría. A Prasher le ha “tocado la china”.

¿Quién es Prasher? Sólo tiene 19 artículos en el ISI WOS, el más reciente de noviembre de 1997. ¿Dónde trabaja? Prasher trabaja de conductor de camiones (“shuttle cars”) en una mina de Huntsville, Alabama, ganando unos 10$ por hora. Recortes de financiación en el Departamento de Agricultura de los EEUU, para el que trabajaba, le hizo perder el puesto de trabajo y a abandonar la ciencia definitivamente. Le han preguntado “¿lamenta no haber recibido el Nobel? No, en absoluto, yo me quedé sin fondos y tuve que abandonar, ellos mostraron cómo podía usarse la proteína de forma práctica, esa es la clave del Nobel y ellos se lo merecen.”

El caso de Prasher nos hace pensar en ¿premiará el Comité Nobel alguna vez a un excientífico que no pertenezca a ninguna institución de investigación? Por supuesto que no, los premios Nobel durante el s. XX han premiado a científicos con una carrera académica fuera de toda duda (índices-h superiores a 30) aunque la mención al premio siempre destaca algún avance conceptual algún logro que ha transformado la disciplina del premiado. Prasher, como otros olvidados por el Comité Nobel, pasará a la historia por derecho propio. Un Premio Nobel a GFP es un Premio Nobel a Prasher (aunque el más “necesitado” no reciba un solo euro). ¿Cómo afectará la crisis financiera en EEUU a Prasher? ¿Peligra su puesto de trabajo?

Los sinuosos caminos de la ciencia (o sobre la sugerente Nobel Lecture de David Politzer)

¿Conoces al señor de la foto? Es un físico teórico. Se llama David Politzer. ¿Sabes por qué es famoso? Entre otras cosas, si has leído el título de esta entrada, por recibir el Premio Nobel de Física de 2004 (1/3 del premio) junto a David J. Gross y Frank Wilczek (los otros 2/3). Él descubrió lo mismo que los otros dos juntos, la así llamada libertad asintótica de las teorías cuánticas de campos de tipo Yang-Mills. No entraré en los detalles técnicos ni en su historia, que glosa muy bien en su Nobel Lecture David J. Gross, “The discovery of asymptotic freedom and the emergence of QCD,” Reviews of Modern Physics, 77: 837-849, 2005. Si lo vas a leer, te recuerdo que las Nobel Lecture en Reviews of Modern Physics son de acceso gratuito para todo el mundo y que deberías leer primero la Nobel Lecture de Frank Wilczek, “Asymptotic freedom: From paradox to paradigm,” Reviews of Modern Physics, 77: 857-870, 2005, que te situará mejor en el contexto antes y después del descubrimiento de esta importante propiedad. Pero el motivo de esta entrada no es otro que la Nobel Lecture del propio Politzer, “The dilemma of attribution,” 77: 851-856, 2005. Apasionante. Sinceramente, merece la pena. Nos muestra de verdad qué es la ciencia en “estado puro.” En una palabra: “interesantísima”. Os la recomiendo. Debería traducirla entera, pues lo merece, pero sólo os ofreceré algunos botones de muestra.

Hoy en día no podemos entender la teoría cuántica de las partículas elementales, llamada teoría cuántica de campos, sin las ecuaciones matemáticas de Yang-Mills, descubiertas en 1954. Pero Politzer nos recuerda que en 1970, muchos físicos, como él (un estudiante de doctorado) habían oído hablar de estas teorías (también llamadas no abelianas) pero poco más. Eran técnicamente extremadamente complicadas. Prácticamente nadie sabía para qué podían servir y para la mayoría de los investigadores senior (incluidos premios Nobel como Feynman, Glashow, Salam, o el mismo Weinberg) era un tópico extremadamente complejo del que no querían discutir en cursos de doctorado o en conferencias, quizás por no dominarlas con seguridad. Hoy en día, un físico (teórico) no debería obtener su título universitario sin saber lo que son.

Las teorías de Yang-Mills se convirtieron en el “tema de moda” tras la demostración en 1971 del estudiante Gerard ‘t Hooft (Nobel 1999) de Tini Veltman (también Nobel 1999) de su renormalizabilidad (cuando su simetría está espontáneamente rota). Según Politzer: “no conozco a nadie que haya entendido los detalles de la demostración original del artículo de ‘t Hooft. Todos la hemos aprendido del artículo de Ben Lee, que combinaba sus propias ideas sobre renormalización con las de ideas de los rusos Fadde’ev y Popov”. La renormalización dimensional, la técnica usada en la demostración de ‘t Hooft, hoy es parte de cualquier curso de doctorado en física cuántica de campos (y hasta a mí me parece sencilla). El propio Politzer nos confiesa “es sorprendente lo fácil que es resolver un problema cuando se sabe que la solución existe.”

Politzer nos recuerda que en una conferencia internacional en 1970 le sorprendió la charla de T. D. Lee (Nobel 1957) sobre la nueva teoría de la interacción débil desarrollada en 1967 por Steve Weinberg (Nobel 1979). En aquella época, prácticamente nadie había leído el artículo de Weinberg. Cuando le dieron el Nobel en 1979, Coleman (director de tesis de Politzer) explicó que nadie había mostrado atención por el trabajo de Weinberg hasta 1971, tras el trabajo de ‘t Hooft, momento en que el interés por él “explotó”. Un descubrimiento que merece el Nobel, pasó completamente desapercibido durante un lustro.

De hecho, Politzer nos recuerda su propia experiencia. Fue alumno de un curso de doctorado en 1970 de Glashow (Nobel 1979), sobre teoría de las interacciones débiles. En dicho curso, Glashow nunca mencionó su propio trabajo sobre el tema, su tesis doctoral bajo la dirección de Schwinger (Nobel 1965), ni el trabajo de Weinberg y Salam (con quienes compartió el Nobel en 1979 por dichos trabajos sobre la teoría (electro)débil). Politzer nos confiesa que no conoce a nadie que se haya leído los trabajos originales de Salam, salvo quizás, opina, John Ward (el coautor de dichos trabajos, quien no ha recibido el Nobel, aún).

¡Increíble! Un investigador que ha realizado un trabajo que merece el Nobel, una década más tarde, imparte un curso doctorado sobre el tópico de dicho trabajo, ¡y no lo menciona! Tampoco menciona el trabajo de otros investigadores quienes más tarde comparten el Nobel con él. ¡Increíble! ¿Por modestia? Quizás no. En su momento eran solamente ideas teóricas. Ideas que el viento se lleva con gran facilidad. A veces, la Naturaleza nos muestra que son correctas (y los demás las premiamos con el Nobel). Otras, el viento se lleva las ideas que son olvidadas por la eternidad.

Así es la física. Así es la investigación. No es un camino de rosas. Es un camino de espinas. Un físico teórico (sin experimento) nunca sabe si lo ha hecho bien. Quizás la teoría física más importante del s. XXI ya haya sido descubierta (y publicada). Quizás el propio autor ignora su importancia. Hay que esperar a que la Naturaleza “hable” a través de los físicos experimentales.

Si te ha llamado la atención este botón de muestra, el artículo “The dilemma of attribution”  realmente merece la pena. Sinceramente te lo recomiendo, aunque no te interese la física teórica. ¡Aprovecha que es de acceso gratis!

Los que ya nunca recibirán el premio Nobel, aunque lo merezcan

Todos los años, la polémica acompaña a los Premios Nobel. Y este año no iba a ser menos. A los americanos les ha “jodido” que el alemán Harald zur Hausen haya “sustituido” a su estrella Robert Gallo, como nos comentan Jon Cohen y Martin Enserink en “News of the Week. Nobel Prize in Physiology or Medicine: HIV, HPV Researchers Honored, But One Scientist Is Left Out,” Science, 322: 174-175, 10 October 2008 . A los italianos les ha “jodido” que su compatiotra Nicola Cabibbo no acompañe a los japoneses Kobayashi y Maskawa cuando en muchos libros de texto los tres nombres van juntos, en la matriz de Cabibbo-Kobayashi-Maskawa, como nos indica el diario italiano La Republica o la revista New Scientist.

El artículo de Science nos indica que el propio Montagnier (Nobel 2008 de medicina) estaba “sorprendido” de que Gallo no estuviera premiado, “lo siento mucho por Robert Gallo” ha afirmado. Nadie cuestiona que Montagnier y Barré-Sinoussi aislaron por primera vez el virus de inmunodeficiencia humana (VIH) en un paciente francés, detectaron la actividad de la transcriptasa inversa y confirmaron que se trataba de un retrovirus. Pero los americanos nos recuerdan que en su artículo en Science de 20 de mayo de 1983 concluían “el papel del virus en la etiología del SIDA está todavía por determinar.” La evidencia definitiva la obtuvo Gallo un año más tarde (publicada en cuatro artículos en Science). Gallo llevaba trabajando en retrovirus desde los inicios de los 1970s. Desde 1983 ha trabajado mucho más intensamente que los franceses en el SIDA. Quedará siempre en el recuerdo como otro gran olvidado de los Nobel.

En cuanto a Cabibbo hemos de indicar que la idea de mezclar los estados de los quarks de diferente generación (“sabores”) la presentó en un artículo de 1963, pero sólo para las dos primeras generaciones de quarks, una matriz de 2×2. El trabajo de Kobayashi-Maskawa extiende dicha matriz a 3×3 porque no pueden explicar la asimetría materia-antimateria debida a la ruptura de la simetría CP sólo con 2 generaciones, sugiriendo que debe existir una tercera generación (que se descubrió más tarde). Aunque a muchos nos han enseñado que la matriz de mezcla de sabores se llama Cabibbo-Kobayashi-Maskawa, la realidad es que la idea de mezclar sabores en una matriz de 2×2 ya había sido expuesta 3 años antes de Cabibbo en un artículo del premio Nobel Gell-Mann (junto a Levy). Aunque creo que el trabajo de Cabibbo fue independiente de dicho trabajo, no puede ser considerado un pionero. Más aún, lo que han premiado no es la idea de mezclar sabores (generaciones) de quarks sino la idea de que era necesaria una tercera generación, cuando se pensaba que existían sólo 2 debido a consideraciones de simetría. De hecho, cuando el artículo de Kobayashi-Maskawa fue publicado muy poca gente lo entendió y sólo años más tarde, cuando se descubrió la tercera generación de quarks ganó el respeto de toda la comunidad científica. Muchos grandes artículos pasan desapercibidos cuando se publican. En mi opinión, Cabibbo no merece el Nobel.

Todos los grandes premios tienen sus historias detrás. Y no olvidemos que a casi todos los premios Nobel les pilla por sorpresa cuando les llaman por teléfono a horas intempestivas para informarles que han ganado el tan deseado premio. Ninguno lo espera. Pero todos, a los pocos segundos, se sienten el científico más afortunado del mundo.

2008 Nobel Prize in Physics: El Nobel en Física ¿a quién concedérselo que no sea Peter Higgs?

Este año ha sido el año de la finalización del LHC del CERN, el año del inicio de la búsqueda del bosón de Higgs y los premios Nobel (léase “nobél”) de Física no podían estar fuera de esta tormenta mediática. ¿A quién premiar? Obviamente a investigadores relacionados con la ruptura espontánea de la simetría (el bosón de Higgs es resultado de este proceso) y con la generación de masas a las partículas elementales como los quarks (“algún” bosón de Higgs se cree que es responsable de este proceso). ¿Se le puede premiar a Higgs, a Goldstone, o a Englert y Brout? No, porque todavía no se ha descubierto el bosón (tienen que esperar a que el LHC o el Tevatrón lo descubra). ¿A quién premiar entonces? ¿A los que aplicaron la ruptura de simetría por primera vez en el Modelo Estándar? No, ya recibieron el premio Nobel de 1979 Weinberg, Salam y Glashow por sus contribuciones a la fuerza débil. ¿A los que demostraron la renormalizabilidad de esta teoría? No, ya recibieron el premio Nobel de 1999 ‘t Hooft y Veltman. ¿A quienes completaron el modelo estándar con la teoría de los quarks? No, ya recibieron el premio Nobel de 2004 Gross, Politzer y Wilczek. ¿Entonces a quién le podemos dar el premio Nobel? 

Supongamos que se le quiere dar el Nobel a físicos que hayan trabajado en el desarrollo teórico y/o experimental del Modelo Estándar de partículas elementales, en este el año del LHC. ¿A quién premiar este año? La primera decisión es elegir a físicos experimentales o a físicos teóricos. En el primer caso habría que pensar en el descubrimiento del quark top (cima) en el Fermilab (aunque quizás el premio llegaría un poco tarde). El segundo caso es más difícil porque hay muchos científicos a los que se les puede conceder el premio Nobel de física por sus contribuciones teóricas al Modelo Estándar. Haciendo cuentas, tenía que caer un premio a físicos que hayan desarrollado avances importantes en la teoría de los quarks (la cromodinámica cuántica). Hay muchos candidatos. Muchos físicos con grandes posibilidades y cuyas contribuciones están en todos los libros de texto sobre teoría cuántica de campos.

Las teorías matemáticas de simetría que se utilizan en teoría cuántica de campos (teorías de Yang-Mills) que subyacen al Modelo Estándar y a la teoría de quarks en particular requieren que estas partículas no tengan masa. Pero los quarks “aparentan” tener masa. Nadie ha aislado un quark y ha medido su masa en reposo, aunque todos los experimentos actuales parecen indicar que tienen masa en reposo no nula, nadie sabe exactamente cuánta es. El descubrimiento de que el quark top (cima), el más pesado, tiene una masa decididamente diferente de cero (algo hoy en día indiscutible) ratificó que los quarks “deben tener” masa en reposo no nula (aunque no sepamos calcularla). ¿Por qué los quarks tienen masa? El proceso todavía no se entiende (hasta que se encuentre en bosón de Higgs o lo que lo sustituya no se logrará), pero lo que queda claro que las ideas que se barajan para darle masa a los fermiones (electrones y neutrinos) podrían ser también aplicables a los quarks. La idea básica es la ruptura espontánea de la simetría (teorizada a alta energía) que hace que a baja energía, con la simetría rota, observemos estas partículas con masa. Este proceso ya se observó en la teoría de la superconductividad y su aplicación a las teorías cuánticas de campos corrió a cargo de Yoichiro Nambu, motivo por el que ha recibido el premio Nobel en Física de 2008.

Los trabajos de Nambu fueron la base para los trabajos de Goldstone, en los que se basaron tanto Englert y Brout, como Higgs, independientemente (si se descubre el bosón de Higgs, entre estos cuatro investigadores estará otro Nobel). De hecho, fue el propio Nambu el que llamó a la partícula “bosón de Higgs” en lugar de “bosón de Englert-Brout-Higgs”, que hubiera sido un nombre, históricamente, más apropiado (los bosones de Goldstone son algo “ligeramente” distinto). Volviendo a Nambu, he de indicar que es un gran teórico y a estas alturas de su vida (nació en 1921) ha realizado grandes contribuciones a la física teórica (por ejemplo, en la gran “denostada” teoría de cuerdas). 

¿Es el mecanismo de ruptura de simetría (la violación de la simetría CP) la que dota de masa a todos los fermiones (quarks, electrones, neutrinos)? Realmente nadie lo sabe. Pero todos “creemos” saberlo. Si no fuera así la sorpresa sería mayúscula (el LHC del CERN nos dará la respuesta en unos 3 años). Lo dicho, si el mecanismo de ruptura de la simetría es el responsable de dotar de masa a los quarks, eso significa que los “estados cuánticos” de estas partículas a alta energía (soluciones simétricas) pueden combinarse para obtener los “estados masivos” de estas partículas a baja energía (soluciones con simetría rota). La combinación más sencilla sería de uno a uno (pero no es lo que observamos, hay varias generaciones de fermiones, por lo que debe haber algún tipo de mezcla). Lo más sencillo para esta mezcla es suponer que haya una relación lineal entre esos dos tipos de estados, es decir, hay una matriz (unitaria) que relaciona ambos tipos de estados. Esta matriz es la matriz de Kobayashi-Maskawa, es la que instancia dicha relación y por la que estos dos investigadores japoneses, Kobayashi (1944-) y Maskawa (1940-) han compartido la otra mitad del premio Nobel de Fïsica de 2008.

¿Simetría CP? ¿Qué es eso? En las teorías cuánticas de campos relativistas, la invarianza relativista “obliga” a que estas teorías cumplan tres leyes de invarianza básicas: la simetría ante inversiones temporales (T), que la teoría es válida tanto si el tiempo avanza hacia el futuro como hacia el pasado, la simetría ante inversiones especulares (P), que el mundo de Alicia antes y después de cruzar el espejo tiene las mismas leyes físicas, y la simetría entre partículas de materia y antimateria, invarianza de conjugación de carga (C). Todas las teorías cuánticas relativistas “razonables” deben cumplir el “sacrosanto” de la invarianza conjunta CPT. ¿Pero qué pasa con las simetrías “simples” P, T, C, PT, CP, o CT? La fuerza nuclear débil, responsable de las interacciones en las que intervienen neutrinos, viola la paridad (simetría P), por lo que los teóricos Yang y Lee recibieron el premio Nobel de Física en 1957. ¿Qué implicaciones teóricas tendría que se violara, por ejemplo, la simetría combinada CP? En esto estaba trabajando Nambu alrededor de 1960. Y por ello ha recibido el Nobel. ¿Cómo podría desarrollarse ese mecanismo? Gracias a un campo que podría tener “remanentes”, partículas que pudieran ser observadas, como el bosón de Higgs.

El Higgs todavía no ha sido observado ni ningún otro bosón escalar que “medie” en la ruptura de la simetriá. ¿Qué otras consecuencias experimentales puede tener la violación de la simetría CP? Ciertas desintegraciones de partículas (mesones) estarían prohibidas si la simetría CP no se violara. En 1964, Cronin y Val Fitch descubrieron experimentalmente que la desintegración del mesón K violaba la simetría CP (en 2001 se descubrió que los mesones B también la violan, había evidencia desde 1999). Los teóricos de finales de los 1960s empezaron a entender que quizás la causa de que el universo nos muestre sólo materia y no antimateria (por partes iguales se tuvieron que crear tras la Gran Explosión) también podría estar relacionada con la violación de la simetría CP. A principios de los 1970s una nueva teoría de la fuerza nuclear fuerte empezaba a ser considerada, una teoría que se basaba en la existencia de unas hipotéticas partículas llamadas quarks. Si la simetría CP se violaba tenía que haber varias generaciones de quarks (como las había de los electrones, entonces se conocían dos, el electrón y el muón). Esto fue lo que estudiaron en 1972, Kobayashi y Maskawa, quienes desarrollaron la teoría cuántica de campos con simetría rota para estas generaciones de los quarks. En aquella época sólo se conocían dos generaciones (de electrones y de quarks). El trabajo de estos japoneses demostró que la consistencia de la teoría requería que existiera una tercera generación, aún por descubrir. Y no tardó en ser descubierta (primero con el descubrimiento del tercer electrón, alrededor de 1974, y luego con el descubrimiento del quinto quark, bottom, en 1977). Hoy, su trabajo es fundamental para estudiar las tres generaciones de quarks que han sido observadas (no para entender por qué hay sólo tres, ese es otro problema aún no resuelto). La existencia de generaciones de partículas elementales es uno de los pilares fundamentales del Modelo Estándar actual.

No os aburro más. Enhorabuena a los premiados, en especial a Nambu, que con sus casi 88 años ya estaría perdiendo la esperanza de recibir el Nobel, obviamente relacionado con el bosón de “moda”. ¿Por qué lo digo? Porque el año en el que se enciende el LHC no se han podido realizar las primeras colisiones por un problema técnico “menor” con lo que el descubrimiento del Higgs se retrasará por lo menos hasta 2011.

Sitio oficial del Premio Nobel de Física 2008.

Artículos Premiados:

Title: CP-VIOLATION IN RENORMALIZABLE THEORY OF WEAK INTERACTION
Author(s): KOBAYASH.M; MASKAWA, T
Source: PROGRESS OF THEORETICAL PHYSICS   Volume: 49   Pages: 652-657   Published: 1973
Times Cited: 3,232

Title: DYNAMICAL MODEL OF ELEMENTARY PARTICLES BASED ON AN ANALOGY WITH SUPERCONDUCTIVITY .1.
Author(s): NAMBU, Y; JONA-LASINIO, G
Source: PHYSICAL REVIEW   Volume: 122   Pages: 345-358   Published: 1961
Times Cited: 2,869

Title: DYNAMICAL MODEL OF ELEMENTARY PARTICLES BASED ON AN ANALOGY WITH SUPERCONDUCTIVITY .2.
Author(s): NAMBU, Y; JONA-LASINIO, G
Source: PHYSICAL REVIEW   Volume: 122   Pages: 345-358   Published: 1961
Times Cited: 1,292

Nota: Giovanni Jona-Lasinio, coautor del artículo más citado de Nambu, es un físico-matemático italiano. ¿Qué pensará por no haber recibido el Nobel? Nambu es mucho más famoso e importante, pero ¿él no ha pintado nada en dichos artículos? En honor a la verdad, en dichos artículos de Nambu y Jona-Lasinio se menciona que la idea original es de Nambu que ya publicó una versión más limitada en la misma revista Yoichiro Nambu, “Quasi-Particles and Gauge Invariance in the Theory of Superconductivity,” Phys. Rev. 117: 648-663, 1960 , pero que ha citado muchas veces menos (menos de 700 veces).

Quién se acuerda de John Bardeen este año que se cumplen 100 años de su nacimiento

John Bardeen tiene el honor de ser el único científico que ha recibido 2 premios Nobel en Física por el descubrimiento del transistor y por su teoría de la superconductividad. Frederick Sanger ganó el Premio Nobel de Química en dos ocasiones en 1958 y 1980, Marie Curie ganó el de Física en 1903 y el de Química en 1911, y Linus Carl Pauling el de Química en 1954 y el Premio Nobel de la Paz en 1962. Merece la pena recordarlo este año que se cumplen 100 años de su nacimiento. La entrada de la wiki es breve pero efectiva. Su biografía más famosa es “TRUE GENIUS. THE LIFE AND SCIENCE OF JOHN BARDEEN. The Only Winner of Two Nobel Prizes in Physics,” Lillian Hoddeson y Vicki Daitch, Joseph Henry Press, Washington, 2002 . 

John Bardeen bajaba despacio por el corredor del edificio de física, parecía perdido en sus pensamientos, era el 1 de noviembre de 1956, llevaba 5 años siendo catedrático de física en la University of Illinois, trataba de digerir la noticia que había recibido esa misma mañana: él y dos de sus colegas, William Shockley y Walter Brattain, habían ganado el Premio Nobel de Física por la invención del transistor en diciembre de 1947, cuando trabajaba en los Bell Telephone Laboratories.

La compañía telefónica Bell quería reemplazar los amplificadores basados en tubos de válvulas de vacío por algún nuevo dispositivo, más barato y con mayor proyección tecnológica. El líder del grupo de semiconductores, Shockley, tras la llegada de Bardeen a finales de 1945, le encargó que estudiara el porqué cierto diseño de amplificador basado en silicio no funcionaba. Schockley había diseñado dicho dispositivo varios meses antes utilizando las mejores teorías mecánico-cuánticas disponibles y según sus cálculos el dispositivo tenía que amplificar señales, sin embargo, no lo hacía. Bardeen encontró una explicación: los electrones eran confinados en las superficies de los materiales que formaban el dispositivo. Bardeen y Brattain estuvieron 2 años trabajando intensamente en el estudio de estos estados electrónicos superficiales con objeto de obtener su invención, el transistor. Shockely no intervino como tal en este invento. Sin embargo, supo aprovecharse de su situación de líder del grupo. Echó a Bardeen y Brattain de su grupo y se encargó de liderar el desarrollo de los transistores de segunda generación. Desde entonces, muchos creen que Shockley fue inventor del transistor, sin embargo, se limitó a ser “jefe”.

Al modesto Bardeen nunca le importó que Shockley asumiera el papel de “estrella de Hollywood” en el invento del transistor. De hecho, Bardeen nunca pensó que el transistor fuera un invento lo suficientemente importante como para recibir el Premio Nobel de Física. El nunca pensó que su invención fuera un avance científico de primera magnitud. De hecho, en 1956, el transistor todavía no había revolucionado las tecnologías de la información y las comunicaciones.

En 1956, la “cabeza” de Bardeen le daba vuelta a otros asuntos “más importantes”. Junto a un alumno postdoc, Leon Cooper, y a un alumno de doctorado, J. Robert Schrieffer, estaba involucrado en el desarrollo de una teoría para la superconductividad. Según Bardeen, su trabajo en esta teoría sí merecía un Premio Nobel en Física, ya que la superconductividad era el problema de la física del estado sólido más importante desde la década de los 1920. Bardeen llevaba trabajando en este problema desde finales de los 1930s. Unos meses después de que Bardeen regresara desde Estocolmo con su Nobel bajo el brazo, Bardeen, Cooper, y Schrieffer resolvieron el problema de la superconductividad, inventando la teoría llamada BCS en su honor. La teoría de Bardeen-Cooper-Schrieffer (BCS) de la superconductividad ha sido uno de los momentos cumbre de la física del siglo XX. Conceptos tan importantes como la ruptura espontánea de la simetría y la generación de masa asociada a ella (la razón por la que se busca el bosón de Higgs en el LHC del CERN) parten de la teoría BCS de la superconductividad.

La teoría BCS fue todo un triunfo para la física teórica, poder explicar la superconductividad descubierta en 1911, cuando los mejores teóricos del mundo, entre ellos Richard Feynman, Albert Einstein, Niels Bohr, Werner Heisenberg, Wolfgang Pauli, y Lev Landau, habían tratado de lograrlo infructuosamente. Felix Bloch llegó a decir “toda teoría de la superconductividad puede ser refutada,” ilustrando la gran frustación de todos los teóricos que atacaron dicho problema.

Cuando el comité Nobel premió en 1972 a Bardeen, Cooper, and Schrieffer con el Nobel de Física, era la primera vez que un físico recibía un segundo premio Nobel en el mismo campo. Bardeen cambió la física moderna tanto como Einstein, con dos invecciones de primera magnitud, y sin embargo, como tituló el periódico Chicago Tribune: “Para los científicos Bardeen es un Einstein. Para el público en general es un … ¿John qué?”.

¿Por qué el padre de la Era de la Información es un desconocido para el gran público? Quizás la culpa la tiene el propio Bardeen, el ejemplo perfecto del “genio modesto”.