La velocidad de la propagación del calor, entre la paradoja y la entropía

Cuando inicié este blog el 1 de enero de 2008, me prometí a mí mismo no insertar fórmulas matemáticas y creo que lo he cumplido “razonablemente”. He de confesar que alguna se me ha colado. Tiendo a ver la realidad con fórmulas matemáticas y, desafortunadamente, la mayoría de la gente no la ve igual.

Las tres fórmulas de la izquierda están sacadas del artículo de los italianos V. Bertola y E. Cafaro, “On the speed of heat,” Physics Letters A, 372: 1-4, 2007. Es un artículo fácil de leer que le da una nueva vuelta de tuerca a la discusión (paradoja) de la velocidad infinita de propagación del calor según la Ley de Fourier. Paradoja desde los tiempos de I. Stefan, 1863, y J.C. Maxwell, 1867. Otro italiano, C. Cattaneo, ya propuso en 1948 una manera de resolver esta paradoja, la Ley (o ecuación) de Cattaneo, una versión “mejorada” de la Ley de Fourier pero con la propagación del calor a velocidad finita. Otros investigadores han desarrollado otras leyes no lineales que también muestran dicha propiedad. Este tópico tiene cierto interés en nanotermología (un campo emergente con un prometedor futuro). Pero no nos vayamos a la bartola, ¿qué han aportado Bertola y Cafaro?

¿Qué significa que según la Ley de Fourier el calor se propaga a velocidad infinita? En una barra que conduzca el calor (metálica) semi-infinita (muy larga) un pulso de calor en el extremo finito produce instantáneamente un valor no nulo (pequeñísimo) en el otro extremo (infinitamente lejano). ¿Físicamente es posible? ¿Viola la teoría de la relatividad de Einstein? El calor es reflejo de la agitación térmica (energía cinética) de los constituyentes del medio (electrones y red cristalina en un metal). Tanto los electrones como los fonones (partículas que “modelan” la vibración cristalina) se propagan a una velocidad finita (inferior a la velocidad de la luz).

¿Cómo es posible que el calor se propague más rápido que la luz? La velocidad de fase de la onda de calor podría ser más rápida que los electrones y fonones. Imaginemos que iluminamos la Luna con un láser (partículas a la velocidad de la luz). Si mueves el láser, el punto iluminado en la Luna se mueve a una velocidad mayor que la velocidad de la luz (su velocidad de fase). Esto no sirve para enviar información más rápido que la luz en la Luna y no viola la relatividad de Einstein. Lo mismo lo tenemos en las olas humanas en un estadio de fútbol. La ola se mueve a unos 12 metros (20 asientos) por segundo, es decir, unos 43 km/hora (estimación de I. Farkas, D. Helbing, T. Vicsek, “Mexican waves in an excitable medium,” Nature, 419: 131-132, 2002). Obviamente, ningún aficionado se levanta y vuelve a sentar en su asiento a una velocidad de 40 km/h. La velocidad de la ola es velocidad de fase. Lo mismo le pasa a los electrones y a los fonones. La “onda” de calor podría propagarse más rápido que ellos. Quizás os interese P. Villaggio, “The apparent propagation velocity of a wave,” Rend. Mat. Acc. Lincei, 12: 191-197, 2001.

Me voy por las ramas, volvamos a Bertola y Cafaro. ¿Qué han hecho? Mira las fórmulas de la figura. La primera es la ecuación del calor (T es la temperatura). La segunda es la misma ecuación, pero escrita como una ecuación de transporte (ecuación de onda) cuya velocidad (finita para temperatura no nula) es la tercera fórmula. Ellos llaman velocidad del calor a esta última fórmula. ¿Qué significa físicamente? Según ellos es proporcional a la tasa de generación de entropía. Es decir, aunque “aparentemente” el calor se propaga a velocidad infinita, la entropía (mejor medida de la agitación térmica que el calor) se propaga a una velocidad finita. Para resolver la paradoja, no hay que cambiar la Ley de Fourier, sólo hay interpretarla “correctamente”.

Los interesados en más información sobre las “ondas de calor” deberían leer el interesante artículo de D. D. Joseph y L. Preziosi, “Heat waves,” Reviews of Modern Physics, 61: 41-73, 1989 [preprint gratis], tan interesante que tiene segunda parte (más detalles históricos) en “Addendum to the paper “Heat waves”,” Rev. Mod. Phys. 62: 375-391, 1990 [preprint gratis].

¿Se porta bien la Ley de Fourier en sistemas nanométricos? Parece ser que sí, M. Michel, M. Hartmann, J. Gemmer, G. Mahler, “Fourier’s Law confirmed for a class of small quantum systems,” The European Physical Journal B, 34: 325-330, 2003.

¿Podemos escribir una ley del calor tipo Fourier pero invariante relativista? No te molestes en refrescar tus conocimientos de teoría de la relatividad, ya ha sido inventada por unos “chinitos” afincados en Australia, Y.M. Ali, L.C. Zhang, “Relativistic heat conduction,” International Journal of Heat and Mass Transfer, 48: 2397-2406, 2005.

La historia oculta detrás del algoritmo PageRank de Google (o Keller, Keener, Page, Brin y Kleinberg)

¿Quién inventó el algoritmo PageRank que utiliza Google? El algoritmo está patentado por los fundadores de Google, Larry Page y Sergey Brin, cuando eran alumnos de doctorado en la Universidad de Stanford. Page fue alumno de doctorado de Terry Winograd, quien parece que le animó en la idea de trabajar en el PageRank, y Brin fue alumno de doctorado de Jeffrey D. Ullman, el famoso autor del libro de compiladores con Aho, aunque pronto se unió a Page para trabajar en temas “más interesantes” que los que le ofrecía su director (que le llevaron a hacerse multimillonario). Todo el mundo “sabe” que Larry Page inventó el PageRank, por eso se llama “Page Rank”. Eso lo sabe todo el mundo, ¿o no?

Acaba de publicarse el artículo del gran matemático aplicado Joseph B. Keller de la Universidad de Stanford, “Evaluation of Authors and Journals,” ArXiv preprint, 5 October 2008 , documento fechado originalmente en octubre de 1985, en el que aparece “calcado” el algoritmo PageRank de Google. En dicho artículo, que recomiendo, Keller “afirma” que lo inventó para clasificar equipos de béisbol (yo siempre lo leo como los cubanos: “beisból”). Un amigo y lector de este blog, JL, me pregunta “¿Sabes algo de esta historia? ¿Es conocida por los que estáis en el mundillo?” Me ha picado la curiosidad, lo confieso. No sé si Page y/o Brin conocieron a Keller, probablemente no. ¿Qué más puedo decir?

Ante todo, empecemos por el principio. Joseph B. Keller es un matemático famosísimo como inventor de la teoría de trazado de rayos difractivos (yo lo conocí hace años por eso). Sí, los rayos de la óptica geométrica (sin difracción ni interferencia) se pueden usar (convenientemente adaptados) para modelar la difracción. Esto es lo que se debería usar cuando se usa trazado de rayos en acústica arquitectónica, aunque muchos que la usan no los conocen. Su artículo “Geometrical theory of Diffraction,” Journal of the Optical Society of America, 52:116-130, 1962, es todo un clásico (citado más de 1000 veces en el ISI Web of Science). Pero Keller ha hecho muchas otras cosas importantes y conocidas, como sus trabajos sobre condiciones de contorno absorbentes con Givoli o sus modelos de la propagación de pulsos eléctricos en los axones de las neuronas. Es uno de los grandes matemáticos de la segunda mitad del s.XX en propagación de ondas y en el uso de métodos asintóticos en dicho contexto.

¿Alguna mención al trabajo de Keller sobre el PageRank antes de que Larry Page lo inventara? He encontrado el artículo “Who’s really #1?,” publicado en Science News, Dec 18, 1993, por Ivars Peterson (famoso escritor de noticias matemáticas por su Math Trek). En él nos hablaba ya de este algoritmo de Keller para clasificar equipos de fútbol (americano). Peterson comenta en dicha noticia el artículo “The Perron-Frobenius Theorem and the Ranking of Football Teams,” SIAM Review, 35: 80-93, 1993, escrito por el matemático James P. Keener de la Universidad de Utah (autor del famosísimo y buenísimo “Mathematical Physiology“, dos volúmenes que hay leer si se quiere trabajar en matemática aplicada a la medicina). Por cierto, este artículo de Keener yo lo leí hace años, cuando leía todas las revistas de SIAM en papel (hace ya algunos años que no las leo con asiduidad porque online me quedo muchas veces sólo con los títulos y ¡¿selecciono más lo que leo?!). En dicho artículo, Keener estudia cuatro métodos para clasificar equipos que compiten dos a dos (como los de fútbol) y cómo estos métodos dependen del teorema de Perron-Frobenius. El artículo no cita a Keller en la bibliografía, pero sí en los Agradecimientos, literalmente “Thanks to Joe Keller for introducing me to this fascinating topic over ten years ago.”

Peterson nos lleva más allá. Volvamos a él. Un equipo es bueno si vence a equipos buenos, que vencen a equipos buenos, … Una pescadilla que se muerde la cola. O en sus palabras, el problema de “quién fue primero, el huevo o la gallina”. Según Peterson, Keener logra resolver este dilema utilizando un algoritmo previamente sugerido por el matemático aplicado Joseph B. Keller de la Universidad de Stanford cuando era “alto cargo” de la organización matemática Society for Industrial and Applied Mathematics (SIAM). Keller quería saber cómo de buenas eran las revistas de SIAM comparadas con el resto de revistas en Matemática Aplicada (ahora mismo, las revistas de SIAM están entre las mejores y de más índice de impacto del campo de la Matemática Aplicada, destacando, como no, SIAM Review con factor de impacto 2.455 en el JCR 2007, la #3 de 165 en Matemática Aplicada).

¿Cómo resolvió Keller el problema de “la pescadilla que se muerde de la cola”? Utilizando el teorema de Perron-Frobenius (idea que Keener nos recupera en su artículo). El algoritmo actualmente conocido como PageRank de Google. Queréis más información en castellano, seguid los enlaces que os ofrecí en una entrada anterior sobre el “granadino” SCImago Journal Rank.

¿Y quién es Jon Kleinberg? ¿Qué pinta en el título de esta entrada? ¡Y tú me lo preguntas! Es uno de los especialistas mundiales en los algoritmo tipo PageRank, inventó al llamado algoritmo HITS, y ganó por ello el Premio Nevannlinna que se le concedió en el Congreso Internacional de Matemáticos de Madrid 2006 (premio al mejor trabajo en informática realizado por un matemático, foto). Los trabajos de Kleinberg han permitido desarrollar algoritmos muy eficientes para poder calcular métricas como el pagerank.

That’s all folks!

Los sinuosos caminos de la ciencia (o sobre la sugerente Nobel Lecture de David Politzer)

¿Conoces al señor de la foto? Es un físico teórico. Se llama David Politzer. ¿Sabes por qué es famoso? Entre otras cosas, si has leído el título de esta entrada, por recibir el Premio Nobel de Física de 2004 (1/3 del premio) junto a David J. Gross y Frank Wilczek (los otros 2/3). Él descubrió lo mismo que los otros dos juntos, la así llamada libertad asintótica de las teorías cuánticas de campos de tipo Yang-Mills. No entraré en los detalles técnicos ni en su historia, que glosa muy bien en su Nobel Lecture David J. Gross, “The discovery of asymptotic freedom and the emergence of QCD,” Reviews of Modern Physics, 77: 837-849, 2005. Si lo vas a leer, te recuerdo que las Nobel Lecture en Reviews of Modern Physics son de acceso gratuito para todo el mundo y que deberías leer primero la Nobel Lecture de Frank Wilczek, “Asymptotic freedom: From paradox to paradigm,” Reviews of Modern Physics, 77: 857-870, 2005, que te situará mejor en el contexto antes y después del descubrimiento de esta importante propiedad. Pero el motivo de esta entrada no es otro que la Nobel Lecture del propio Politzer, “The dilemma of attribution,” 77: 851-856, 2005. Apasionante. Sinceramente, merece la pena. Nos muestra de verdad qué es la ciencia en “estado puro.” En una palabra: “interesantísima”. Os la recomiendo. Debería traducirla entera, pues lo merece, pero sólo os ofreceré algunos botones de muestra.

Hoy en día no podemos entender la teoría cuántica de las partículas elementales, llamada teoría cuántica de campos, sin las ecuaciones matemáticas de Yang-Mills, descubiertas en 1954. Pero Politzer nos recuerda que en 1970, muchos físicos, como él (un estudiante de doctorado) habían oído hablar de estas teorías (también llamadas no abelianas) pero poco más. Eran técnicamente extremadamente complicadas. Prácticamente nadie sabía para qué podían servir y para la mayoría de los investigadores senior (incluidos premios Nobel como Feynman, Glashow, Salam, o el mismo Weinberg) era un tópico extremadamente complejo del que no querían discutir en cursos de doctorado o en conferencias, quizás por no dominarlas con seguridad. Hoy en día, un físico (teórico) no debería obtener su título universitario sin saber lo que son.

Las teorías de Yang-Mills se convirtieron en el “tema de moda” tras la demostración en 1971 del estudiante Gerard ‘t Hooft (Nobel 1999) de Tini Veltman (también Nobel 1999) de su renormalizabilidad (cuando su simetría está espontáneamente rota). Según Politzer: “no conozco a nadie que haya entendido los detalles de la demostración original del artículo de ‘t Hooft. Todos la hemos aprendido del artículo de Ben Lee, que combinaba sus propias ideas sobre renormalización con las de ideas de los rusos Fadde’ev y Popov”. La renormalización dimensional, la técnica usada en la demostración de ‘t Hooft, hoy es parte de cualquier curso de doctorado en física cuántica de campos (y hasta a mí me parece sencilla). El propio Politzer nos confiesa “es sorprendente lo fácil que es resolver un problema cuando se sabe que la solución existe.”

Politzer nos recuerda que en una conferencia internacional en 1970 le sorprendió la charla de T. D. Lee (Nobel 1957) sobre la nueva teoría de la interacción débil desarrollada en 1967 por Steve Weinberg (Nobel 1979). En aquella época, prácticamente nadie había leído el artículo de Weinberg. Cuando le dieron el Nobel en 1979, Coleman (director de tesis de Politzer) explicó que nadie había mostrado atención por el trabajo de Weinberg hasta 1971, tras el trabajo de ‘t Hooft, momento en que el interés por él “explotó”. Un descubrimiento que merece el Nobel, pasó completamente desapercibido durante un lustro.

De hecho, Politzer nos recuerda su propia experiencia. Fue alumno de un curso de doctorado en 1970 de Glashow (Nobel 1979), sobre teoría de las interacciones débiles. En dicho curso, Glashow nunca mencionó su propio trabajo sobre el tema, su tesis doctoral bajo la dirección de Schwinger (Nobel 1965), ni el trabajo de Weinberg y Salam (con quienes compartió el Nobel en 1979 por dichos trabajos sobre la teoría (electro)débil). Politzer nos confiesa que no conoce a nadie que se haya leído los trabajos originales de Salam, salvo quizás, opina, John Ward (el coautor de dichos trabajos, quien no ha recibido el Nobel, aún).

¡Increíble! Un investigador que ha realizado un trabajo que merece el Nobel, una década más tarde, imparte un curso doctorado sobre el tópico de dicho trabajo, ¡y no lo menciona! Tampoco menciona el trabajo de otros investigadores quienes más tarde comparten el Nobel con él. ¡Increíble! ¿Por modestia? Quizás no. En su momento eran solamente ideas teóricas. Ideas que el viento se lleva con gran facilidad. A veces, la Naturaleza nos muestra que son correctas (y los demás las premiamos con el Nobel). Otras, el viento se lleva las ideas que son olvidadas por la eternidad.

Así es la física. Así es la investigación. No es un camino de rosas. Es un camino de espinas. Un físico teórico (sin experimento) nunca sabe si lo ha hecho bien. Quizás la teoría física más importante del s. XXI ya haya sido descubierta (y publicada). Quizás el propio autor ignora su importancia. Hay que esperar a que la Naturaleza “hable” a través de los físicos experimentales.

Si te ha llamado la atención este botón de muestra, el artículo “The dilemma of attribution”  realmente merece la pena. Sinceramente te lo recomiendo, aunque no te interese la física teórica. ¡Aprovecha que es de acceso gratis!

Poesía dominical: Antonio Córdoba y el índice de impacto

INDICE DE IMPACTO

Conviene publicar un disparate,
Tan obsceno que ofenda de ipso facto.
Te darán un gran índice de impacto,
Los ingenuos que miren tu dislate.

No importa si es con cuerdo o botarate,
De citas mutuas sellarás un pacto.
Aunque sean banales y sin tacto,
Juntas harán lucir tu escaparate.

No intentes un problema complicado,
Si el ritmo frena en tus publicaciones.
Pues debes mantenerlo acelerado.

En alza tengas siempre tus opciones
De rozar el poder en el poblado,
Con índices y citas a montones.

Un soneto de un gran matemático español, Antonio Córdoba [vía]

El mito de que los toros embisten al capote de color colorado (rojo)

Manolete, el maestro, en blanco y negro.

Siempre se ha dicho que los toros de lidia no embisten al capote rojo porque sea rojo sino por que el torero y sus artes lo ponen a “danzar” en un provocativo movimiento (para el toro). Esta idea proviene de un artículo muy antiguo de G. M. Stratton, “The Color Red, and the Anger of Cattle,” Psychological Review, 30: 321-325, 1923. En dicho artículo el autor estudia experimentalmente la respuesta de reses, tanto mansas como bravas, en la presencia de trozos de tela de diferentes colores (rojo, verde, negro y blanco). También presenta un estudio de las respuestas a un cuestionario al respecto realizado a 66 ganaderos californianos. En ambos casos se observa que el color rojo no despierta la ira del toro. El autor propone que el brillo y el movimiento del capote son los que causan que el astado embista.

En su estudio, George M. Stratton, de la Universidad de California, pretendía comprobar si la creencia común de que el toro de lidia embiste al capote rojo porque es rojo tiene algún tipo de base científica (psicológica, ya que él es psicólogo). Una tal Miss Morrison y un tal Mister Blodgett le ayudaron en el estudio que utilizó 40 reses, tanto toros bravos, como mansos (toros castrados), vacas y terneros. Algunos acostumbrados al trato “diario” con ganaderos y otros que viven en régimen semisalvaje. Los toros ni se inmutaron ante los capotes de diferente calor, salvo ocasionalmente cuando la brisa (viento) los agitaba. En promedio tanto toros y vacas, como bravos y mansos reaccionaron de forma muy  similar.

La encuesta del Dr. Stratton a los granjeros (66) tuvo respuesta parecida, con 38 que afirmaron no tener constancia de que las reses reaccionaran al color rojo de forma diferente a otros colores, 15 que sólo lo hacían excepcionalmente, y 8 que creían que ocurría siempre.
Fernando Botero, colombiano y "aficionado."

Fernando Botero, colombiano y aficionado.

¿Cómo es posible que un estudio de este tipo lo haya tenido que hacer un americano en lugar de un español? Obviamente, porque a principios de s. XX la ciencia (psicología) española estaba muy retrasada. Hoy en día las cosas han cambiado mucho. El artículo de J. A. Riol, J. M. Sánchez, V. G. Eguren, V. R. Gaudioso, del Departamento de Producción Animal de la Universidad de León, titulado “Colour perception in fighting cattle,” Applied Animal Behaviour Science, 23: 199-206, 1989 , estudia la respuesta de 8 toros bravos de lidida a la hora de diferenciar entre 7 colores (violeta, azul, verde, verde amarillento, amarillo, naranja y rojo) y 7 muestras de color gris con exactamente el mismo brillo que cada color. Concluyen que el toro de lidia ve perfectamente los colores con una longitud de onda entre 550 nm y 700 nm (verde amarillento, amarillo, naranja y rojo), pero tienen dificultades entre 400 nm y 500 nm (violeta y azul). Resultados similares han obtenido los polacos B. Dabrowska, W. Harmata, Z. Lenkiewicz, Z. Schiffer, R. J. Wojtusiak, pero con vacas en “Colour perception in cows,” Behavioural Processes, 6: 1-10, 1981. Los polacos no están interesados en las corridas de toros sino en los colores de los postes e indicativos que usan los ganaderos en sus granjas.

¿Distinguen bien los toros bravos el color rojo, digamos, del verde? Obviamente, sí. Usando ganado como cobayas, si pulsan un palanca de cierto color se le da de comer y si no, no, se logra al séptimo intento (en media) que distingan perfectamente entre dichos colores, como han mostrado B. J. Gilbert Jr., C. W. Arave, “Ability of Cattle to Distinguish Among Different Wavelengths of Light,” Journal of Dairy Science, 69: 825-832, 1986.

PS: mi mujer es aficionada a la tauromaquia, yo no. Esta entrada viene a colación por la reciente noticia de que el viento ha hecho estragos en el Toro Emblemático de Osborne en Torreblanca (Fuengirola, Málaga). Yo pensaba, erróneamente, que su mantenimiento estaba a cargo de Patrimonio. Sin embargo, parece ser que no (la Junta de Andalucía reclama que lo estén). Hace años los indultaron, pero los han dejado a el libre albedrío de los elementos.

Una pregunta sin respuesta, porque es obvia

Brigitte Bardot, 1958, by Yousuf Karsh.

Acabo de ver una chorrada y quisiera compartirla con vosotros (supongo que muchos ya la conoceréis). Es lo que es, una chorrada.

Atención, pregunta. ¿Cuál es el próximo número en la siguiente sucesión?

2, 10, 12, 16, 17, 18, 19, …

No vale hacerse el “listo” y decir que cualquier número es posible (basta usar un polinomio de grado 7 que interpola estos 7 números y que dé para el siguiente un número cualquiera).

La respuesta es…

Me he sorprendido yo mismo pero me ha resultado obvio cuál es. No os la voy a decir. ¿Me estaré haciendo viejo?

PS: por cierto, el número de comentarios en este blog, por primera vez, ha superado, ya definitivamente, el número de entradas escritas por un servidor. Ahora mismo hay 354 comentarios y solamente 344 entradas (sin contar ésta). Ya me es imposible venceros… Enhorabuena a todos.

PS: la foto de Brigitte es para distraeros de vuestra tarea y para que os resulte más difícil que a mí responder a la pregunta.

La ciencia a golpe de “ejércitos” de chinos (o habrá que trabajar más que un chino)

Feria para que estudiantes universitarios chinos encuentren trabajo (provincia de ShangDong).

¿Qué tiene que hacer España para lograr un nuevo premio Nobel en ciencias? ¿Se puede hacer algo desde las políticas de ciencia e innovación? ¿Qué han hecho otros países que habiendo estado durante “siglos” fuera de la ciencia están retornado “fuerte” a ella? Pongamos un ejemplo, China.

FUENTE de la foto.

El gobierno chino de Deng Xiaoping decidió hace 20 años que el papel de China en la Ciencia debía cambiar. China tenía que volver a estar en la élite científica mundial. ¿Cuál fue su primer paso? Reunió en Pekín a importantes científicos miembros de Academias de Ciencias de todo el mundo del 14 al 18 de septiembre de 1987 en un encuentro internacional para decidir qué hacer. Mohamed Hassan, que fue invitado como miembro de la Academia de Ciencias de Trieste, Italia, nos cuenta qué pasó allí en “Beijing 1987: China’s coming-out party,” Nature, 455: 598-599, 2 October 2008 . Hassan es ahora miembro de la Academia de Ciencias del Tercer Mundo (TWAS, Third World Academy of Sciences), creada por Abdus Salam (Nobel de Física en 1979), pakistaní de nacimiento, que también fue invitado (quizás, la “estrella” del evento). 

El gobierno chino así como la mayoría de los científicos que fueron invitados a la reunión lo tenían claro, para que China resurgiera como potencia económica global era necesario que resurgiera en Ciencia y Tecnología. China quería ser, como primer paso, el gran “motor” de la ciencia y técnica en el tercer mundo. Ser como los “EEUU” del tercer mundo. Su segundo paso, será convertirse en el gran “motor” de la ciencia y técnica mundial. ¿Lo logrará? Tiempo al tiempo.

China tiene ciertos paralelismos con España, valgan las distancias. La Academia de Ciencias China fue creada en 1949, dos meses después del Inicio de la Revolución Comunista China (el CSIC español fue creado en 1939 unos 8 meses tras el Fin de la Guerra Civil). En 1949, China tenía unos 550 millones de habitantantes, de los que unos 50 mil se dedicaban a la ciencia y/o tecnología en unos 30 institutos científicos (en 1939 en España había unos 25 millones de habitantes). En 1985, China ya contaba con unos 10 millones de personas trabajando en prácticametne todos los campos de la ciencia y tecnología, unos 2 millones de alumnos universitarios en unas mil universidades, y unos 300 mil investigadores activos (en 1985 en España había unos 791 mil alumnos universitarios en unas 58 universidades).

J. Rogers Hollingsworth, Karl H. Müller, & Ellen Jane Hollingsworth, “China: The end of the science superpowers,” Nature, 454: 412-413, 24 July 2008 , nos recuerdan que la superpotencia que ha dominado la ciencia durante los últimos siglos ha ido cambiando continuamente. De 1735 hasta 1840, Francia lideró la ciencia en el mundo. Alemania la dominó desde los 1840s hasta los 1920s. Luego vino Gran Bretaña, desde los 1920s hasta los 1940s, y finalmente los EEUU, tras la finalización de la Segunda Guerra Mundial, quienes todavía dominan la investigación mundial. Más del 50% del 1% de los artículos más citados, así como casi el 30% de todos los artículos publicados tienen un coautor afiliado en EEUU. La historia muestra que la superpotencia que domina la ciencia es la superpotencia que domina la economía. Cuando el dominio económico declina, también lo hace el científico. EEUU cederá su trono a China en unas décadas.

Ahora mismo, La República Popular China (September 2008) según Essential Science Indicators es el país #12 por número de citas, #5 por número de artículos, y #116 por número de citas por artículo (de un total de 148 países). Por comparación, según la misma fuente, España (February 2008) según Essential Science Indicators es el país #10 por número de citas, #9 por número de artículos y #40 por número de citas por artículo (de un total de 147 países). Por supuesto, EEUU se lleva la “pera”, porque es la “repera”, siendo #1 por citas, #1 por artículos y #5 por citas por artículo (por cierto, hay países con un sólo artículo, citado 5 veces).

Estos datos son de publicaciones con índice de impacto. Muchas revistas científicas chinas todavía no tienen índice de impacto. En el número total de publicaciones en revistas (con o sin índice de impacto) China ostenta el puesto #2, siendo EEUU el #1, más aún, es el #3 en número de tesis doctorales defendidas al año (fuente Editorial “China’s challenges,” Nature, 454: 367-368, 24 July 2008 ).

El futuro de la ciencia parece estar en manos de ejércitos de chinos. Estadísticamente, estar entre los 10 más inteligentes de España es como estar entre los 250 más inteligentes de china. Afortunadamente, todavía, todos no se dedican a la ciencia.

Jugando con esferas pegajosas cual blandiblub o blandi-blood

De niño recuerdo haber jugado con el “Blandi Blub” de Congost. El anuncio de 1978 decía “Puedes exprimirlo, romperlo, pegarlo, alargarlo… Es frío, húmedo… ¡¡Es fabuloso!!” No, no soy un nostálgico de los 80s, como otros.  A mí no me gustaba mucho este fluido viscoelástico que se ensuciaba de polvo con una gran facilidad y que ensuciaba con gran facilidad, para desagrado de nuestras madres. Aunque en aquella época yo no apreciaba la belleza de las colisiones entre fluidos viscoelásticos y superficies sólidas, con el Blandi Blub hice mis primeros “experimentos” con dichos fluidos.

Me ha recordado esto el video que inicia esta entrada, “The bounce-splash of a viscoelastic drop,” de Federico Hernández-Sánchez, René Ledesma, y Roberto Zenit Roberto, ArXiv preprint, 10 Oct 2008 , que tras presentar las diferencias entre el choque entre una pelota sólida y una gota de agua líquida con una superficie, se concentran en los choques entre una gota de fluido viscoelástico (entre líquido y sólido). Los resultados, como podéis apreciar en el video, son curiosísimos.

Fluido newtoniano es un fluido viscoso en el rozamiento tangencial a una superficie es proporcional a la variación espacial de la velocidad. La mayoría de los fluidos que nos rodean son newtonianos, como el aire, el agua, la gasolina y muchos aceites. Sin embargo, no todos los fluidos son newtonianos. Los fluidos no newtonianos son más complicados y el mismo concepto de viscosidad (definido y constante) no está definido. Sus propiedades reológicas (“viscosas”) son mucho más complicadas. Hay muchos fluidos newtonianos en nuestras modernas ciudades, como pinturas, miel, o mermelada, y muchos materiales entre fluidos y sólidos como arcillas, plastilina, o alquitrán. Los fluidos no newtonianos más estudiados son los viscoelásticos. El vídeo objeto de esta entrada ilustra muy bien las propiedades de este tipo de fluidos.

En el video se dejan caer gotas de 2.2 cm de diámetro de un fluido viscoelástico (mezclas acuosas de gelatina) desde diferentes alturas, con objeto de producir colisiones de diferente velocidad en el momento del impacto. En este problema el número adimensional más relevante es el número de Weissemberg (We) el cociente entre el tiempo de relajación del fluido viscoelástico y un tiempo característico del proceso implicado. ratio of the relaxation time of the fluid and a specific process time. En las simulaciones del vídeo We=tau*U/D, donde tau es el tiempo de relajación del fluido, U es la velocidad de la gota en el momento del impacto y D es el diámetro de la gota. Para We muy grande, tenemos comportamiento de líquido. Para We muy pequeño (próximo a cero), tenemos comportamiento de sólido.

El más interesante de todos es el último experimento, para We grande. La gota se “espachurra” formando una fina capa de fluido, para instantes más tarde, debido a su elasticidad, recobrar una forma de gota, aunque deformada y rebotar casi como un sólido. Espectacular. Yo nunca lo había visto. Es el clásico resultado que afirma la teoría, que cuando lo ves en vivo y en directo (o en vídeo) te deja boquiabierto.

Gana 10 mil dólares escribiendo un ensayo sobre “La Naturaleza del Tiempo”

En mi opinión, la naturaleza verdadera del tiempo es el secreto más importante de la Naturaleza que queda aún por desvelar. Parece que no soy el único. El genial John Baez nos recuerda en su blog (“The Nature of Time,” October 13, 2008 ) que el “Foundational Questions Institute” tiene abierto un concurso de ensayos sobre la Naturaleza del Tiempo (fecha tope 1 de diciembre de 2008 ). El premio, unos jugosos 10 mil dólares (para el segundo premio “sólo” 5 mil y algún que otro premio menor). No es mucho, pero tampoco está mal (hay que escribir menos de 10 páginas en inglés). El propio Baez nos confiesa que aunque le fascina el tópico (“it’s a fascinating topic”) no tiene tiempo para escribir un ensayo (“I would write one myself, but I don’t have… time.”). ¿Tienes tiempo? ¿Te atreves?

El Dr. Baez en su entrada nos destaca el ensayo de su amigo Carlo Rovelli, “Forget time” en el que propone que la mecánica fundamental debe estar basada en la relación entre ciertas variables fundamentales, no en la evolución temporal de dichas variables. La descripción fundamental de la física no explicará qué es el tiempo, sencillamente, en dicha descripción el tiempo no existirá, no tendrá cabida. El tiempo será una magnitud derivada (fenomenológica) en dicha teoría fundamental sin tiempo. El ensayo se lee fácil. Su idea proviene de que en la Teoría General de la Relatividad cada curva espacio-temporal tiene su propio tiempo (llamado tiempo propio). Cada observador tiene su propio tiempo y la teoría nos dice cómo debe calcular el de otro observador. Rovelli propone que la Gravedad Cuántica será una teoría sin tiempo global en la línea de la ecuación de Wheeler-De Witt, que carece de tiempo explícito. ¿Cómo surge el tiempo? Es una magnitud estadística, no fundamental. Cuando el número de grados de libertad crece emerge una noción “entrópica” del tiempo. Rovelli le llama “Hipótesis del Tiempo Térmico” (el tiempo es como la temperatura, a nivel microscópico es un concepto sin sentido).

Permitidme destacar algunos ensayos. Ettore Minguzzi, “On the global existence of time,” ataca el problema desde la física clásica relativista general. ¿Se puede definir una “función tiempo” en cada solución de las ecuaciones de Einstein para el campo gravitatorio? No, no es posible (él pone un ejemplo sencillo). Este es un hecho bien conocido, las llamadas “variedades viciosas,” curioso nombre para variedades en los que la noción de causalidad es violada localmente (aunque en las que son “físicas” no es violada globalmente). Usando un teorema de Hawking y Penrose, afirma que bajo condiciones físicas razonables hay dos opciones: no existe una función tiempo luego existe una singularidad, o existe una función tiempo y no existe una singularidad (el universo es geodésicamente completo). El autor no se decanta por ninguna de ellas. En su opinión, al inicio de la Gran Explosión, cuando todas las partículas/campos eran de masa en reposo nula, no existía una noción de tiempo, que surge como “flecha de tiempo cosmológica”.

Claus Kiefer, “Does time exist in quantum gravity?,” sigue la línea de Rovelli y alude a que la gravedad cuántica debe ser descrita por ecuaciones que no involucren el tiempo. Propone que la ecuación de Wheeler-de Witt es una aproximación a la teoría correcta (aún no conocida) y que como en ella no aparece el tiempo de forma explícita, en la teoría correcta tampoco lo hará. Os recuerdo que la Ecuación Ondulatoria de Schrödinger se puede derivar utilizando el formalismo de Hamilton-Jacobi aplicado a la Mecánica Clásica. Similarmente, Asher Peres demostró que la Ecuación de Wheeler-De Witt corresponde a la formulación de Hamilton-Jacobi de las Ecuaciones de Einstein para la gravedad. ¿Cómo surge el tiempo? Igual que la física clásica emerge de la física cuántica, gracias a la decoherencia, la física con tiempo surge de la física sin tiempo. ¿Cómo surge la flecha del tiempo? Tiene origen cosmológico, debido a la expansión del universo.

Carl Brannen, “Density operators and time,” nos indica que como cada observador tiene un tiempo propio durante el proceso de colapso de la función de onda cuántica cuando este observador realiza una medida, la ausencia de tiempo intrínseca en mecánica cuántica colapsa en un tiempo concreto. Todos los observadores ponen de acuerdo sus tiempos propios entre sí (usando la relatividad) resultando en que la mecánica cuántica aparenta tener un tiempo común (universal o global). Sin embargo, intrínsecamente la mecánica cuántica no tiene un tiempo bien definido, para ello propone el uso del formalismo de operadores de densidad de probabilidad. La física fundamental es sin tiempo, que es un mero acuerdo (una simplificación) entre los observadores.

La mayoría de los ensayos son muy filosóficos (algunos pésimamente escritos y formateados, ni me he molestado en leerlos, a vista “echan para atrás”). La mayoría tratan sobre el problema de la percepción subjetiva del tiempo, el famoso problema de la conscienca en mecánica cuántica. El hecho de que las experiencias son observadas en secuencia y no simultáneamente por la consciencia del observador produce un fluir del tiempo hacia adelante y una noción de tiempo. Por destacaros un artículo en esta línea, mencionaré el de Daegene Song, “Time, consciousness, and the subjective universe.”

En resumen, interesante iniciativa. Habrá que revisar de vez en cuando la aparición de nuevos ensayos (aunque supongo, como hace Baez, que hasta el último día no veremos los mejores). ¿Escribiré un ensayo para concursar? Me lo estoy pensando. Ya veremos si puedo sacar tiempo para ello.

La física no es todopoderosa (o la imposibilidad de una Teoría de Todo)

David H. Wolpert. Image courtesy: NASA Ames' Dominic Hart.

Kurt Gödel y Alan Turing, entre otros, demostraron que la matemática no es todopoderosa, tiene límites. Hay verdades indemostrables que han de ser asumidas como nuevos axiomas. En general, un número real no es computable (calculable), no existe ningún algoritmo para calcularlo. ¿Es la física todopoderosa? ¿Existirá alguna vez una Teoría de Todo que permite entenderlo todo? David H. Wolpert, del NASA Ames Research Center, California, ha “demostrado” que el Universo físico en su totalidad no puede ser completamente comprendido por ningún sistema de inferencia (inductivo). Podemos interpretar su nuevo teorema, demostrado mediante un argumento de diagonalización de Cantor, similar al usado por Gödel y Turing en sus propias demostraciones, como que “No existe la Teoría del Todo”, el Santo Grial de la Física, como mucho descubriremos una “Teoría de Casi Todo.”

P.-M. Binder, “Philosophy of science: Theories of almost everything,” en el número de Nature  que ha aparecido hoy nos comenta este interesante trabajo de David H. Wolpert, “Physical limits of inference,” Physica D: Nonlinear Phenomena, 237: 1257-1281, 2008 , en un número especial de Physica D dedicado a los nuevos paradigmas de computación y sus límites “Novel Computing Paradigms: Quo Vadis?.” El artículo de 25 páginas sólo he tenido tiempo de ojearlo, necesita una lectura cuidada (y que yo refresque mis conocimientos sobre metamatemática, ontologías y demostración en lógica formal). Prometo este fin de semana leerlo con atención, ya os contaré. Ahora, sigo los comentarios e ideas ofrecidas por Binder.

Durante el siglo XX la Física ha encontrado gran número de límites a nuestro conocimiento sobre la realidad. Por ejemplo, el principio de incertidumbre de Heisenberg en Mecánica Cuántica, la imposibilidad de transmitir información más rápido que la velocidad de la luz en Teoría de la Relatividad, o la imposibilidad de predecir el comportamiento a largo plazo de sistemas dinámicos no lineales en Teoría del Caos Determinista.

El trabajo de Wolpert, en línea con los trabajos de los grandes lógicos Kurt Gödel y Alan Turing, considera la idea de máquinas de inferencia que pueden medir datos experimentales y realizar cálculos con objeto de comprender y predecir la Naturaleza. Estas máquinas de inferencia no requieren la existencia de humanos que las usen. Son meras descripciones formales en términos de dos funciones: una estipula el estado inicial de la máquina (llamada función de set-up) y la otra describe las observaciones, la teoría y sus predicciones (llamada función de conclusión).

Wolpert utiliza la técnica de demostración llamada diagonalización de Cantor (ya usada tanto por Gödel como por Turing en sus propios teoremas) con objeto de probar que en el espacio de todas las secuencias de eventos (world-lines) consistentes con las leyes de la física no existe ninguna máquina de inferencia que prediga todas las conclusiones de cualquier otra máquina de inferencia para todas las posibles observaciones o preparaciones de experimentos posibles. El resultado de Wolpert es interesante porque es independiente de los detalles de las leyes físicas consideradas y de las características computacionales de la máquina de inferencia utilizada.

Una de las consecuencias más interesantes del trabajo de Wolpert es que todos los sistemas complejos, igual que los sistemas caóticos deterministas, tienen un horizonte predictivo. Podemos predecir ciertos resultados pero no todos los resultados. El trabajo de Wolpert nos indica que incluso las ecuaciones (las leyes) que rigen dichos sistemas complejos pueden ser imposibles de determinar (inferir), podemos conocer algunas (parte) de dichas leyes, pero quizás nunca las conozcamos todas.

El descubrimiento de Wolpert nos indica que quizás las limitaciones en nuestra comprensión de la realidad pueden ser de carácter fundamental y nunca podamos aspirar a lograr una Teoría de Todo, nos tendremos que conformar con una Teoría de Casi Todo.