Vicente Muñoz y su Dulcinea del Toboso, la conjetura de Hodge

Me habían hablado muy bien de Vicente Muñoz (Universidad Complutense de Madrid) y pensé que bordaría su presentación sobre “La conjetura de Hodge” en las jornadas sobre los Problemas del Milenio en Barcelona. Sin embargo, como me pasó con Óscar, la charla de Vicente me decepcionó bastante. Como es obvio la conjetura de Hodge es un problema de topología algebraica muy técnico y presentarlo de forma sencilla y atractiva es difícil, pero yo esperaba que un enamorado de esta “Dulcinea” bordara la presentación; pero en mi opinión no lo logró. Vicente acabó su charla recordando a los jóvenes que todos los Problemas del Milenio son como Dulcinea del Toboso y hay que enamorarse de ella antes de emprender la aventura que conducirá a su prueba; como don Quijote, no podemos pretender alcanzar el objetivo, pero durante el camino viviremos muchas aventuras y lograremos muchos pequeños logros (que para la carrera de un matemático significan publicaciones en revistas). Aún así, la comparación no me acabó de convencer porque, como todos los que han leído el Quijote saben bien, Dulcinea del Toboso no existe, don Quijote se la inventa y otros personajes inventan sus propias Dulcineas, como Aldonza Lorenzo, que no aparece como personaje salvo por el testimonio de Sancho Panza, que quizás la inventa como Dulcinea propia.

He de confesar que para alguien que estudió el libro de Czes Kosniowski, “Topología algebraica,” Ed. Reverté, 1992, la charla de Vicente fue más técnica de lo esperado y me costó mucho seguirla. Quizás influyó que era viernes por la tarde, pero perdí bastante el hilo de la misma. Así que poco más puede contar sobre ella.

Por cierto, esta es mi última entrada sobre las charlas de los Problemas del Milenio en Barcelona. Mañana estaré en Granada, asistiendo al Biomat – 11, “Perspectives in Mathematics and Life Sciences,” Granada, june 6-8, 2011. No os preocupéis, nos os daré mucho el coñazo con esta otra conferencia. Como mucho una entradita breve cuando finalice.

Luis Miguel Pardo recorre el zoo de la complejidad en su exposición sobre el problema “P versus NP”

Esta foto de Luis Miguel Pardo (Universidad de Cantabria), más serio que un guardia civil, puede engañar a muchos porque en Barcelona se nos ha desvelado como todo un “cachondo mental” en su presentación del problema “P versus NP,” la conjetura de Cook (o mejor la de Cook-Levin-Karp). Cual zoólogo taxonómico, trató de recorrer los “animales” más destacados del zoo de la complejidad (mantenido por Scott Aaronson), sin intención alguna de mostrarnos lo más interesante, la “etología” de estas clases de complejidad. Un grafo de clases que incluía a ZPP fue el leivmotiv de su charla (sí, has leído bien, ZP+PP). Luis Miguel, primero, nos trató de convencer de que el problema P vs NP está ligado de forma íntima con el problema de los ceros de Hilbert, el famoso Nullstellensatz, gracias a 3SAT (el primer problema que se supo que era NP-completo). Luego nos demostró en primera persona que el que mucho abarca poco aprieta (sus disculpas continuas porque no podía contar en tres horas todo lo que quería contar indican claramente que quizás no se preparó bien la charla). Y finalmente su interés en mostrarnos uno de los aspectos más interesantes de la teoría de la complejidad en la actualidad, la demostración de Irit Dinur del teorema PCP, quedó en eso, en su interés (no le dio tiempo a redondear su charla como al menos a mí me hubiera gustado). Aunque yo soy informático no conocía los sistemas de pruebas interactivos (que Luis Miguel nos ha ilustrado con Arturo y Merlín), ni la equivalencia IP=PSPACE (yo estudié teoría de la complejidad en 1990); esta equivalencia deja con un cierto “regusto a madera” que para redondear el “bouquet” de la charla de Luis Miguel pide a gritos más tiempo en barrica. Por lo que parece, lo único común a todos los seminarios de teoría de la complejidad por doquier es la discusión de la demostración de Irit Dinur, así que me parece que me la tendré que estudiar algún día (espero tener tiempo este verano, aunque no sé si me enteraré de algo).

La verificación interactiva de pruebas es una generalización de las técnicas de verificación de pruebas por certificados. La mayoría de los asistentes nos quedamos boquiabiertos cuando Luis Miguel nos indicó que en las pruebas interactivas entre Arturo y Merlin con k rondas, AM[k], bastaba con dos rondas AM[k]=AM[2]; de hecho, creo que muchos nos quedamos con el gustillo de enterarnos mejor de qué es lo que realmente significa esto. La clase PCP[r(n); q(n)] corresponde a los lenguajes probables con un sistema PCP que usa O(r(n)) bits aleatorios y O(q(n)) búsquedas en la prueba. Saber que NP = PCP(log(n),1) o que basta con leer 3 bits aleatorios de cada prueba para verificar han sido gratificantes sorpresas para mí. Realmente son ideas muy profundas… pero según Luis Miguel todavía estamos muy lejos de poder atacar con éxito el problema P vs NP; todos los intentos de calidad acaban introduciendo nuevas clases de complejidad entre P y NP o ligeramente por encima de NP. ¿Será posible encontrar un contraejemplo a P=NP? Según Luis Miguel dicho contraejemplo debería ser tan sutil que es mucho más difícil encontrarlo que demostrar que P y NP no coinciden por argumentos generales que no se refieran a un problema concreto.

Le pregunté a Luis Miguel una cuestión de “prensa rosa,” ¿será Irit la primera mujer en recibir una medalla Fields? Según Luis Miguel, sabiendo que ya ha sido candidata y no la ha recibido, todo depende de cómo evolucione su próximo trabajo. En su opinión, el premio “natural” para Irit es el Premio Nevanlinna (que tampoco ha recibido aún ninguna mujer). Ya veremos que pasa…

Víctor Rotger haciendo fácil lo difícil y la conjetura de Birch y Swinnerton-Dyer

Víctor Rotger (Universidad Politécnica de Cataluña) nos presentó el jueves pasado por la tarde su charla sobre “La conjetura de Birch y Swinnerton-Dyer” en las jornadas científicas sobre “Los Problemas del Milenio” en Barcelona (foto de grupo en Publico.es y fuente de la foto de la izquierda). La explicación de Víctor ha sido engañosamente fácil, pero quizás eso es lo que se espera de una exposición en unas jornadas científicas como éstas. Su explicación podía ser entendida hasta por un informático con pocos conocimientos de matemáticas. Muy bien ilustrada (aunque casi siempre utilizando la misma curva elíptica en todas las figuras), Víctor acabó su charla permitiéndose el lujo de contarnos una demostración que él mismo había obtenido de una versión restringida de la conjetura. Chapeau por Víctor.

Os recuerdo que el problema de resolver una ecuación diofántica corresponde a calcular los ceros naturales (o enteros o racionales) de un polinomio multivariable cuyos coeficientes también sean números enteros o naturales. La conjetura BSD considera el caso de polinomios en dos variables p(x,y)=0 en los que se sabe que existe al menos una solución. Si dicha solución es conocida, ¿cuántas soluciones adicionales existen? En el caso de un polinomio cuadrático (grado d=2) se sabe que existirán infinitas soluciones adicionales. En el caso de un polinomio cuártico o superior (grado d≥4) se sabe que hay un número finito de soluciones adicionales; si no recuerdo mal, Víctor nos dijo que este resultado era consecuencia de la conjetura de Mordell o teorema de Faltings, porque la demostró Gerd Faltings, lo que le permitió obtener la Medalla Fields en 1986. Pero nadie sabe lo que pasa en el caso cúbico (d=3), puede haber un número finito de soluciones adicionales o puede haber un número infinito de ellas. Como todo polinomio cúbico de dos variables puede transformarse en la curva elíptica y² = x³ + A x + B, donde A y B son números racionales, basta considerar este caso particular para demostrar la conjetura BSD. Lo interesante de la conjetura es que la resolución de este problema equivale al comportamiento en un punto (s=1) de una función analítica en variable compleja (s), en concreto la función zeta o función L de dicha curva elíptica. Toda la estructura algebraica del conjunto de soluciones racionales de la curva elíptica viene caracterizada por una función similar a la función zeta de Riemann. Un resultado de gran belleza y profundidad, que aunque tiene poca evidencia numérica (como nos mostró en varias figuras Víctor) tendrán que demostrar quienes aspiren a ganar el millón de dólares de este Premio Clay del Milenio.

Como anécdota quisiera comentaros que los asistentes a la cena oficial de las jornadas “apostamos” por cuál sería el primer problema del milenio resuelto entre los seis aún abiertos y ganó, por pocos votos, la conjetura BSD. En la página web de las jornadas, en los próximos días, se publicará “la porra” para disfrute y conocimiento de quienes no pudieron asistir a dicha cena.

¿Está Andrew Wiles trabajando en la conjetura BSD? Nadie lo sabe con seguridad, pero es posible… es el problema del milenio más próximo a la línea de trabajo en la que él es experto y que le permitió pasar a la historia por demostrar el último teorema de Fermat.

El bosón de Higgs y el problema del salto de masa para las ecuaciones de Yang-Mills

Al finalizar la charla de Óscar García Prada sobre la “Existencia de Yang-Mills y del salto de masa” uno de los asistentes preguntó cuál era la relación entre el bosón de Higgs y el problema del salto de masa. Óscar es experto, pero no me gustó su respuesta, creo que no estuvo del todo clara. ¿Nos podemos olvidar del bosón de Higgs si se resuelve el problema del milenio? Obviamente, no. Quizás la palabra “masa” en la frase “salto de masa” genera cierta confusión y creo que sería bueno aclarar este asunto. Me quedé con la mosca en la oreja y me siento obligado escbirir una breve entrada al respecto. Resumiendo mucho, el problema del salto de masa (mass bandgap) trata de explicar por qué la interacción fuerte (modelada por la cromodinámica cuántica o QCD) es una interacción de corto alcance, sin embargo, el mecanismo de ruptura espontánea de la simetría mediado por el campo de Higgs trata de explicar por qué los bosones vectoriales débiles tienen una gran masa en reposo (la razón por la cual la interacción débil es de muy corto alcance). El salto de masa también se debería dar en la interacción débil, pero su efecto en el alcance de esta interacción es ridículo comparado con el efecto debido a la masa de los bosones vectoriales W y Z. No sé si me he explicado bien. Permitidme unos párrafos adicionales.

Lo primero, ¿qué es el problema del salto de masa? Las ecuaciones de Yang-Mills para un grupo de simetría G (un grupo de Lie simple) presentan un único parámetro libre, la constante adimensional de acoplamiento (g) que determina la intensidad de la interacción y cuyo valor depende de la energía. Las soluciones de estas ecuaciones son campos gauge clásicos que se pueden interpretar como partículas elementales, los bosones vectoriales gauge. En las ecuaciones de Yang-Mills clásicas estas partículas (bosones gauge) tienen que tener masa en reposo nula, ya que un término de masa viola la simetría gauge del grupo G; exactamente nula si la teoría es correcta. Hay que destacar que un término de masa en las ecuaciones requiere un parámetro adicional, la masa en reposo de la partícula gauge, un parámetro que no es adimensional.

En la electrodinámica cuántica (que no es una teoría de Yang-Mills porque está basada en el grupo de Lie U(1) que es abeliano), el fotón tiene una masa en reposo nula y por ello el electromagnetismo es una fuerza de largo alcance. De hecho, el mejor límite experimental para la masa del fotón indica que es menor de una millonésima de la billonésima de electrónvoltio (eV), un número ridículo (y hay estimaciones muchos órdenes de magnitud más bajas, ver el PDG).

En la cromodinámica cuántica, que sí es una teoría de Yang-Mills, basada en el grupo G=SU(3), los 8 gluones (bosones vectoriales) tienen masa en reposo nula; exactamente nula si la teoría es correcta. La evidencia experimental está de acuerdo con este hecho, aunque las grandes dificultades prácticas para medir la masa de los gluones hace que la incertidumbre en su masa (el límite superior para dicha masa) sea bastante malo y hoy en día se cree que los experimentos son compatibles con una masa para los gluones de hasta unos pocos megaelectrónvoltio (MeV). Aún así, hoy en día todo el mundo cree que la masa de los gluones es exactamente nula. ¿Cómo es posible entonces que la interacción fuerte sea de corto alcance? La explicación será la solución del problema del salto de masa.

Otra interacción de corto alcance es la interacción débil, que es una teoría de Yang-Mills basada en el grupo G=SU(2), pero en ella los 3 bosones vectoriales (W y Z) tienen una gran masa en reposo (los dos bosones W tienen una masa de 80,4 GeV/c² y el bosón Z una masa de 91,2 GeV/c²). Un término de masa, como ya he dicho, viola la simetría gauge de la teoría. Un gran problema cuya solución fue el uso de la ruptura espontánea de la simetría, mediada por el campo de Higgs. Sin entrar en detalles técnicos, a alta energía (por encima de unos 250 GeV, la energía a la que se produce la ruptura espontánea de la simetría) hay un grupo de simetría con 4 partículas gauge sin masa; por debajo de la energía de ruptura espontánea de la simetría, el grupo se rompe en un producto SU(2)xU(1) y los bosones vectoriales W y Z adquieren una masa en reposo no nula, pero el fotón mantiene su masa nula, lo que deja un residuo en el campo de Higgs que se traduce en la predicción de una nueva partícula llamada el bosón de Higgs (aún no descubierto).

Una solución del problema del salto de masa para la interacción débil no es capaz de explicar su corto alcance a baja energía, si pudiera explicarlo la interacción tendría que tener un alcance mucho menos corto del que se ha observado en los experimentos. El problema del salto de masa podría explicar el alcance corto de la interacción débil por encima de la energía de ruptura espontánea de la simetría, pero no por debajo de ella. Estas energías no han sido exploradas (estudiar la física de neutrinos con estas escalas de energía está fuera del alcance de los aceleradores actuales). La hipótesis de facto de la mayoría de los físicos es que la interacción débil a alta energía es una interacción de corto alcance, como la cromodinámica cuántica, pero no hay evidencia experimental al respecto. De hecho, la mayoría de los físicos cree que una teoría de Yang-Mills basada en un grupo de Lie simple siempre es de corto alcance (algo que tendrá que probar o desmentir quien resuelva el problema del milenio).

Lo segundo, ¿por qué una teoría de Yang-Mills con un grupo de Lie G no abeliano presenta el salto de masa? Como aún no se ha resuelto el problema del milenio, la respuesta no se conoce, aunque se intuye. Una teoría de Yang-Mills clásica no permite explicar este fenómeno, pero en la versión cuántica se cree que la interacción no lineal entre los bosones vectoriales (los gluones en el caso de la QCD) provoca la aparición del fenómeno de la libertad asintótica que conduce a una interacción de corto alcance. Los gluones se comportan como si tuvieran una “masa” efectiva que acorta el alcance de la interacción. La aparición “dinámica” de un nuevo parámetro (la masa efectiva de los gluones) en la versión cuántica de una teoría clásica que no presenta dicho parámetro es algo que ha sido observado en teorías modelo de baja dimensión, lo que ofrece certeza al respecto de una solución positiva a este problema del milenio.

Y tercero, ¿por qué el premio del milenio requiere demostrar que existe una teoría de Yang-Mills cuántica? Las técnicas que usan los físicos para cuantizar una teoría clásica (cuantización canónica, cuantización por integrales de camino, etc.) son técnicas “formales” (no rigurosas desde el punto de vista matemático) y  presentan ciertas dificultades (aparición de infinitos, series asintóticas no convergentes, etc.). Dotar de rigor a estas técnicas se cree que será un paso previo obligado a la resolver el problema del salto de masa, sin embargo, por si acaso, la descripción del premio incluye esta demostración de forma explícita. Hoy en día, utilizando teorías de Yang-Mills en retículos (lattice YM), es decir, métodos numéricos en supercomputadores, se pueden calcular los resultados de las interacciones (colisiones) en QCD, pero en ciertos rangos de parámetros (energía de la colisión) aún hay mucha incertidumbre. Muchos físicos creen que una versión rigurosa de la cuantización de la QCD permitirá desarrollar nuevas técnicas de cálculo que ampliarán el rango de problemas en los que podemos obtener respuestas con gran precisión. Por eso, la existencia de una teoría cuántica de Yang-Mills es parte íntegra e indisoluble del problema del milenio.

Para más detalles recomiendo leer las notas de Óscar García Prada, “Existencia de Yang-Mills y del salto de masa.” Yo lo hubiera contado de una forma muy diferente, pero sus notas están muy bien.

Ricardo Pérez Marco, el escéptico transalgebraico y la hipótesis de Riemann

Para los que no trabajamos en problemas tan trascendentes como la hipótesis Riemann, la charla de Ricardo Pérez Marco en las Jornadas Científicas “Los Problemas del Milenio” ha sido todo un placer. Ricardo ha tratado de contarnos cuál era la motivación de Riemann a la hora de proponer que los ceros de la función zeta se encuentran en la línea crítica y lo ha hecho recurriendo a la historia, avanzando hasta Ramanujan, reculando hasta Galois, repasando a Hardy, admirando a Euler y en resumen recorriendo los senderos transalgebraicos entre el análisis en variable compleja y la teoría de números algebraicos. Discurso fluido, sincero y escéptico que le ha llevado a recomendar a los jóvenes lo mismo que se recomendaba John F. Nash a sí mismo: nunca confíes en los surveys sobre la conjetura de Riemann, todos están equivocados, no ha habido progresos hacia la demostración de la conjetura desde hace muchas décadas (tampoco confíes en el survey escéptico del propio Ricardo “La hipótesis de Riemann”). Ni Deligne, ni Bombieri, ni santas pascuas (y no digamos nada de De Branges, Connes y otros “aficionados al bombo”). Según Ricardo debemos ser honestos y confesar que ni tenemos ni idea sobre el camino para demostrar la hipótesis de Riemann ni tenemos ni idea sobre su significado transalgebraico. ¡Me ha gustado el palabro “transalgebraico”! ¡Se nota, eh!

La charla de Ricardo ha estado repleta de conceptos, elementales en apariencia, que yo desconocía y que, por la cara de muchos de los asistentes, también desconocía la mayoría de ellos. Por ejemplo, ¿cuál es la gran diferencia entre π² y π³? O en general, entre una potencia par de π y una potencia impar de este número transcendente. La diferencia ya la conocía Euler y desde entonces, según Ricardo, no se ha avanzado nada al respecto. ¿Cuál será? π² es un número transalgebraico que tiene una función entera minimal \sin(\sqrt{z})/\sqrt{z}. Esta función entera minimal equivale al polinomio mínimo asociado a todo número algebraico. Nadie sabe cuál es la función entera minimal de π, ni de cualquiera de sus potencias impares; además,  según Ricardo, debería ser tan sencilla que si no conoce es porque no existe. Si quieres saber más al respecto, te recomiendo la lectura de sus notas “La hipótesis de Riemann.” Siempre se ha dicho que un director del CNRS tiene que ser así y Ricardo no defrauda.

¿Aproximaciones físicas a la hipótesis de Riemann? Según Ricardo son otro callejón sin salida. La función zeta de Riemann es tan sencilla (transalgebraicamente hablando) que si modela un sistema físico éste tiene que ser tan sencillo que ya habría sido descubierto y la hipótesis de Riemann habría sido probada. Como no se ha dado lo segundo, lo primero no implica ningún tipo de progreso. Aún así, y como yo soy físico, me gustaría recordar que la función zeta de Riemann aparece en muchos problemas de física, desde la mecánica clásica a la física de la materia condensada. A los interesados les recomiendo el interesante artículo (para mí, supongo que para Ricardo no lo será) de Daniel Schumayer, David A. W. Hutchinson, “Physics of the Riemann Hypothesis,” Review of Modern Physics 83: 307-330, 2011 [gratis en ArXiv].

¿Estás interesado en la hipótesis de Riemann? Según Ricardo deberías empezar leyendo a Aleksandar Ivić, “On some reasons for doubting the Riemann hypothesis,” ArXiv, 11 Nov 2003 [“creer o no creer en la validez de la hipótesis de Riemann, that’s the question!”]. Y ni se te ocurra leer a Enrico Bombieri en su descripción del problema del Milenio (“The Riemann hypothesis,” porque dicen que la mejor manera de provocar que toques algo es poner un cartel que diga que no lo toques). ¿Qué deberías leer entonces? Según Ricardo a E. Landau, 2Handbuch der Lehre von der Verteilung der Primzahlen,” 2nd Edition, Chelsea, New York, 1953, y a H. M. Edwards, “Riemann’s Zeta Function,” Dover Publications, New York, 2001.

La hipótesis de Riemann

Los números primos \mathcal{P} son los números naturales \mathcal{N} que no son divisibles salvo por ellos mismos y por la unidad. Hay infinitos primos, pero los detalles de su distribución aún están ocultos. Euler demostró con 1737 que

\sum_{p \in\mathcal{P}}{\frac{1}{p}} = \infty,

lo que indica que los números primos son muy frecuentes entre los números naturales; recuerda que

\sum_{n \in\mathcal{N}}{\frac{1}{n^k}} < \infty, \qquad k>1.

Euler fue más allá y demostró usando el teorema fundamental de la aritmética que

\zeta(k) =\sum_{n \in\mathcal{N}}{\frac{1}{n^{k}} } = \prod_{p\in\mathcal{P}}{\left ( 1- \frac{1}{p^{k}}\right )^{-1}},

expresión matemática bien definida para k>1. La función \zeta(k) no tiene ceros reales para k>1.

Bernhard Riemann aplicó las herramientas del análisis en variable compleja a la función zeta y la extendió a todos los números complejos como

\zeta (s) = \sum_{n\in\mathcal{N}}{\frac{1}{n^{s}}},

función que puede ser continuada analíticamente para todo el plano complejo s excepto para s=1. Esta función de variable compleja s=\sigma+it, donde \sigma y t son números reales, y i=\sqrt{-1}, es la llamada función zeta de Riemann y presenta cierta simetría alrededor de la línea crítica \sigma= 1/2 dada por la ecuación funcional

\pi^{-\frac{s}{2}} \Gamma \!\left ( \frac{s}{2} \right ) \zeta (s) = \pi^{-\frac{1-s}{2}} \Gamma \!\left ( \frac{1-s}{2} \right ) \zeta (1-s),

que permite demostrar que tiene ceros (llamados triviales) en todos los números enteros negativos \sigma =-n y $t=0$. Además, si la función tiene un cero \sigma+it, con 0<\sigma<1/2 también tendrá como cero el número simétrico con 1/2<1/2+\sigma<1 y sus dos simétricos respecto al eje t=0.

Riemann conjeturó como hipótesis razonable que todos los ceros no triviales de la función \zeta(s) son de la forma $s=1/2+it$, es decir, se encuentran en la línea crítica. En 1900, Hilbert consideró la hipótesis de Riemann como el octavo problema de su famosa lista, y de ahí acabó como uno de los problemas del milenio del Instituto Clay de Matemáticas dotado con un millón de dólares. Durante el s. XX ha habido ciertos avances menores en la demostración de la conjetura, como cuando Hardy demostró en 1914 que hay infinitos ceros de la función \zeta(s) en la línea crítica, pero esto no basta para demostrar la hipótesis de Riemann (hoy sabemos gracias a Conrey, 1989, que al menos dos tercios el 40% de los ceros se encuentran en ella). Todos lo ceros deben estar en ella.

Y no digo más al respecto… porque no quiero que leas a J. Brian Conrey, “The Riemann Hypothesis,” Notices of the AMS, March 2003, que si no Ricardo me va a pegar un tirón de orejas.

Me ha defraudado Óscar García Prada en su charla sobre la “Existencia de Yang-Mills y del salto de masa”

Como bien indica el título de esta entrada, me ha defraudado la charla de Óscar García Prada sobre el problema de la existencia de la versión cuántica de las teorías de Yang-Mills y sobre  el salto de masa (mass bandgap) en dichas ecuaciones (segunda charla de las Jornadas Científicas sobre los Problemas del Milenio organizadas por la RSME y la Universidad de Barcelona). Si lees esto Óscar, lo siento, pero así ha sido (en mi opinión personal, claro). Tu charla, ni ha sido para matemáticos, ni ha sido para físicos, le ha faltado algo… Yo lo hubiera contado de una forma muy diferente. Óscar ha dedicado dos horas a contarnos la formulación clásica de una teoría de Yang-Mills, pero como queriendo contarlo sin contarlo, pero como pretendiendo que lo cuenta sin contarlo… No sé si alguno de los asistentes se habrá enterado de algo, … Mi experiencia personal es que la mayoría de la gente no sabe cuál es la diferencia entre una conexión y un campo, entre un fibrado principal y una propiedad medible de forma física… La mayoría de los matemáticos ante el concepto de tranporte paralelo no piensan en un lápiz sobre la calva de un calvo… y no ayuda la imagen gráfica al respecto. La conexión como aceleración tiene  un sentido muy claro desde que Newton introdujo las fuerzas ficticias (no inerciales) y Lagrange introdujo las fuerzas debidas a ligaduras. Me temo, a mi pesar, que la mayoría de los asistentes, si no todos, no se ha enterado de nada. Lo siento, la Mula Francis debe ser mula de vez en cuando: Perder dos horas tratando de explicar lo que no hay que explicar no es la mejor opción para una charla como ésta. Una pena. Que quede claro: Una opinión, mi opinión.

La tercera hora de la charla ha empezado como tendría que haber empezado la primera… pero ya era tarde y la falta de tiempo se echa en falta. Pero ya se sabe, no importa empezar mal, sino acabar bien. La pena es que Óscar tampoco ha acabado bien. Si alguno de los asistentes no sabía lo que era la “g” en la teoría, se siente, Óscar ni se ha molestado en contarlo, para qué, si nadie se enteraría… si alguno de los asistentes no sabía lo que significa “perturbativo” o “renormalización” o … mencionar muchos “palabros” sin definición al final de una charla deja siempre mal sabor de boca. 

Al final de la charla, para más inri, uno de los asistentes preguntó sobre la relación entre la generación de masa mediante ruptura espontánea de la simetría, mediante el famoso bosón de Higgs, y el problema del salto masa. En concreto preguntó si la resolución de este último problema resolvería el primero, si no se encontraba el bosón de Higgs, resolverá el problema del Higgs la obtención del millón de dólares del Problema del Milenio. Una oportunidad de oro para salvar una charla pésima y quedar como un “señor.” La pena es que Óscar no supo qué contestar y contestó como el que no tiene ni idea. Una pena. Óscar es experto en el tema y da pena que los expertos no sean capaces de hacerse comprender. Su respuesta demostró que un matemático experto en la ruptura espontánea de la simetría electrodébil no tenía ni idea del problema del salto de masa de Yang-Mills, pero había sido seleccionado para contar dicho problema por la organización del evento. La Mula Francis es muy mula, pero las mulas somos así, mulas.

Tras haber disfrutado de unas cervezas, de unos vinos y de alguna copa de destilado quizás no es el momento más adecuado para explicar la repercusión de la solución del problema del salto de masa en la teoría electrodébil (más allá de la escala de energías de la ruptura espontánea de dicha simetría). Lo que debería quedar claro es que la ruptura espontánea de la simetría  es un hecho experimental, en igual medida en que el hecho de que un cubito de hielo y un vaso de agua son la misma cosa, pero al tiempo son cosas diferentes. Cómo ocurre el proceso de transformación del agua líquida en hielo a cierta temperatura. No importan los detalles si queremos ilustrar que el hielo y el agua son cosas diferentes por un lado, pero son la misma cosa por otro. El agua es agua. Y qué pasa con el agua a más de de 100 ºC (a presión atmosférica). Cuando estamos hablando de la transición de fase entre agua líquida e hielo sólido, hablar de la posible ebullición del agua no es más que introducir “ruido” indeseado en la conversación. El alcohol en sangre se nota… sobre todo en el discurso, en mi discurso…

Hay que  tener las ideas claras, muy claras, cuando se trata de explicar un problema difícil a un público ávido de respuestas pero con grandes lagunas… mañana cuando amanezca quizás tenga mejor cuerpo para hablar de este tema… me reconcome este asunto… mañana será otro día. Las promesas son deudas…

Gran charla de Diego Córdoba en las jornadas científicas “Los Problemas del Milenio” en Barcelona

Esta mañana Diego Córdoba nos ha deleitado con una gran charla de tres horas sobre el Problema del Milenio relativo a la regularidad de las soluciones de las ecuaciones de Navier-Stokes tridimensionales. Como era de esperar ha derrochado la ilusión y la pasión que se le suponen a cualquier matemático en los mejores momentos de su carrera. Diego sabe que ya no obtendrá la Medalla Fields, por cuestiones de edad (dentro de cuatro años superará los cuarenta) pero su trabajo se encuentra en un momento álgido. La pena es que su fogosidad le ha hecho mantener un ritmo que ha podido defraudar a alguno de los asistentes en la tercera parte de su charla, la más técnica, pero también la más interesante. En ella nos ha desvelado algunos secretos de su próximo trabajo que aparecerá en los ArXiv la semana próxima (aún no sabe a qué revista técnica acabará siendo enviado): un teorema matemático que demuestra la aparición de singularidades en las ecuaciones de Euler bidimensionales en el caso de que la densidad del fluido tenga dos valores constantes separados entre sí por una interfase sin tensión superficial. Miembros del grupo de Diego habían demostrado de forma numérica que en un caso concreto de dicho problema se producían singularidades, una gran sorpresa que había sido puesto en duda por otros investigadores hace sólo unos meses. Pero el arduo trabajo de Diego y sus colaboradores (Ángel Castro, Charles Fefferman, Francisco Gancedo y Javier Gómez-Serrano) ha logrado superar todas las trabas y ha conducido a un artículo que, según el propio Diego, salvo pequeñas cuestiones de escritura, fue acabado de escribir ayer mismo y que tras la confirmación por parte de todos los autores aparecerá en ArXiv la semana que viene. Este trabajo junto con el anterior de Ángel Castro, Diego Córdoba, Charles Fefferman, Francisco Gancedo, María López-Fernández, “Rayleigh-Taylor breakdown for the Muskat problem with applications to water waves,” ArXiv, submitted on 9 Feb 2011, muestran el buen estado de salud de su proyecto de investigación “Contour dynamics and singularities in incompressible flows,” European Research Council, Starting Grants, CSIC, 2008-2013.

En mi opinión, la charla de Diego ha sido estupenda (quizás se nota, como me decía una buena amiga, que “mi problema” del milenio es el de Navier-Stokes), mostrando la importancia de la experimentación numérica a la hora de guiar la intuición analítica (se nota que soy “numerista”). Las Jornadas Científicas “Los Problemas del Milenio” organizadas por la Real Sociedad Matemática Española (RSME) con motivo de su Centenario no me han defraudado.

Por cierto, varios lectores habituales de este blog me han saludado, lo que se agradece. Nadie sabe en qué trabajo a nivel técnico, pero parece que mi labor divulgativa tiene cierto eco. Gracias a todos por leer mis elucubraciones… al fin y al cabo, quien no sabe es quien mejor cuenta lo que no sabe.