Nunca digas nunca jamás (cosas del Caltech o cosas de borrachos)

La entrada en este blog sobre tomar o no tomar el autobús, y continuar caminando, trataba sobe un artículo que a mí me pareció curioso (“Walk versus Wait: The Lazy Mathematician Wins”). Aunque la repercusión mediática de este blog, todavía, es insignificante, la repercusión mediática en ciertos «foros» de este tipo de noticias genera, cuando menos, controversia. El artículo de Barbara Ellis, en las Caltech News (noticias del Tecnológico de California, posiblemente una de los 2 universidades tecnológicas más importantes de EEUU), titulada «Mathic Bus Research Puts Techer in Driver’s Seat,» critica la repercusión mediática de dicho artículo. Cuando menos, curioso.

El artículo de enero, del que se hizo eco la revista británica New Scientist, ha tenido una repercusión mediática importante en toda la prensa británica, lo que ha llevado una resultado «terrible»: todo el mundo prefiere andar en lugar de tomar el autobús. Personas de Australia, India, sudeste de Asia, Suráfrica, Emiratos Árabes Unidos y Estonia han decidido caminar en lugar de tomar el autobús. Incluso en Alemania y Suiza ha habido «seguidores» de la idea. Curioso, en países con una gran tradición del uso del autobús como Alemania y Suiza.

Pero ¿cuál es la noticia? ¡Que la gente prefiere caminar a usar el autobús! No. La noticia es que las compañías de autobuses se han empezado a preocupar. ¿Por qué? Quizás, estadísticamente hablando, sin razón. Pero se han empezado a preocupar… y las «chispas» les han saltado a los de Caltech. Quienes rápidamente «se han lavado las manos.»

Según Caltech hay algo importante sobre la noticia que nadie ha dicho hasta ahora. Los autores del preprint en ArXiv son alumnos de grado (sí, alumnos que aún no han acabado sus estudios). Uno de los autores es físico (Justin Chen), acabó la carrera, pero los otros dos Scott Kominers, estudidante de matemáticas, música y etnología, y Robert Sinnott, estudiante de estadística, son estudiantes en Harvard. ¡Pero qué pasa porque sean estudiantes!

Pues que no es lo mismo. Ahora resulta que la versión «oficial» es que el análisis matemático presentado «es muy pobre» y «es superficial». «Una prueba más de que los matemáticos están muy alejados del mundo real.»

Ahora resulta que Chen afirma que «el artículo no pretendía ser tomado en serio,» en una entrevista para la BBC. Sus coautores y él pretendían escribir un libro sobre la «solución» matemática a ciertos problemas de la vida diaria, como sobre qué hacer para elegir la cola en la que esperar en un supermercado o qué hacer cuando conduces en un atasco de tráfico. Todo surgió cuando se pusieron a pensar en el problema de la toma del autobus desde el MIT a Harvard. De hecho, el 1 de enero, cuando enviaron el artículo al ArXiv, dejaron claro que el artículo eran «matemáticas recreativas,» nada más. El artículo fue más tarde enviado a la revista de studiantes «Math Horizons,» fue aceptado y se publicará a final de año.

En resumen, y yo me pregunto: ¿Qué pasa, que los estudiantes no pueden investigar? ¿Sólo los «profesores» y «catedráticos»? ¿Qué pasa, que una buena idea, es «mala» porque no venga amparada por un título? ¿Qué es lo que les molesta a las compañías de autobuses? ¿Realmente les ha hecho daño? No lo creo. Quizás, daño mediático, pero poco más.

¿Por qué me recordará todo esto a Peter Lynds?

¿Qué quién es Lynds? ¡De verdad no lo recuerdas! Hace unos años, en 2003, se publicó en la revista «científica» internacional «Foundations of Physics Letters,» que a veces publica «chor…,» que es mi opinión, que nadie se asuste, que tiene índice de impacto en el ISI’s JCR pero que eso no significa más que lo que significa, … Lo dicho, se publicó un artículo que tuvo una repercusión mediática «terribe,» inesperada, sorprendente, … ¡A mí hubo amigos que me preguntaron por este gran descubrimiento cuando estaba tomando copas! Y no uno, muchos… Recuerdo que no entendieron nada de lo que les expliqué. Ellos pensaban,… no tiene ni idea,… nos cuenta, lo que le han contando,… Un joven neozelandés que no acabó la carrera de física logró «colar» un artículo en dicha revista resolviendo uno de los problemas más antiguos de todos los tiempos, la solución a la paradoja de Zeno de Elea, de más de 2500 años de antigüedad. Un joven que sólo asistió a la universidad durante 6 meses (sí, he escrito bien, un semestre, luego abandonó) era comparado en la prensa internacional con el mismísimo Albert Einstein.

¿De verdad no lo recuerdas? ¿De verdad no le dices a tus amigos «empollones»: eres un Lynds? ¿Por qué será?

El famoso artículo, «Time and Classical and Quantum Mechanics: Indeterminacy vs. Discontinuity», cuya lectura no merece la pérdida de tiempo que requiere (de aquí que no os ponga el DOI, lo siento por los DOI’s fans) aparte de no ofrecer nada nuevo, en mi «modesta» opinión, de arremeter contra la idea de un «cuanto temporal,» con argumentos fácilmente rebatibles, de «criticar» como «doña en el mercado» al «amigo» Stephen Hawking, será que tiene envidia, … Bueno, lo reconozco. Yo caí en la trampa. Después de que varios de me amigos me preguntaran por él y yo tuviera que confesar mi gran ignorancia sobre «el nuevo Einstein del s. XXI,» he de confesarlo, lo leí, y lo leí con atención. Traté de buscar «algo.» Y nada había. ¿Cómo lo coló? Chi lo sa! Pero algunos, no sé cómo, quizás por aparecer con nombre y apellidos en la prensa afirmaron cosas como «Author’s work resembles Einstein’s 1905 special theory of relativity», said a referee of the paper, while Andrei Khrennikov (por cierto, gran experto sueco en espacios topológicos no arquimedianos, quien ha sugerido que tienen «cierta» aplicación en física, hasta ahora nadie más cree que la haya, todos los espacios topológicos utilizados en física son compactos, aunque los hay que claman…).

Se me ha ido la hoya. Perdón. Volvamos al grano.

¿Hay que criticar sistemáticamente el trabajo de unos estudiantes porque sea de unos estudiantes? En mi opinión hay que valorar un trabajo por su «contenido,» por su «insight.» Si un trabajo es bueno, lo es, independientemente de quien lo haya escrito. ¿Los genios escriben «genialidades»? Casi siempre, por eso son genios, pero no siempre. ¿Los «meros» mortales escriben «genialidades»? Excepcionalmente, sí. ¿Y por qué no?

Las niñas son igual de buenas que los niños en matemáticas

Foto de Janet S. Hyde

Siempre se ha dicho que los niños son mejores en matemáticas que las niñas. Estudios pasados así parecían probarlo. De hecho, muchos de ellos concluían que la culpa la tenían los profesores de matemáticas que asumían esta diferencia y «mimaban» más a los niños que a las niñas. Un nuevo estudio, publicado en Science, con más de un millón y medio de alumnos de EEUU entre 2005-2007 demuestra lo contrario: las niñas son igual de buenas en matemáticos que los niños.Aunque el resultado era de esperar y algunos lo calificarían de «obvio», es importante recordar que muchos padres e incluso profesores no lo tienen tan claro, al menos así lo afirma Henry Kepner, presidente del Consejo Nacional de Profesores de Matemáticas en EEUU (National Council of Teachers of Mathematics).

Hace unos 20 años, la psicóloga Janet S. Hyde, de la University of Wisconsin, realizó otro gran estudio similar y encontró lo contrario, había una diferencia «significativa» entre las puntuaciones en los exámenes de matemáticas de los niños y de las niñas (los primeros parecían hacerlo mejor). ¿Por qué? Ella sugirió que los niños llegaban a la escuela con mejores capacidades para resolver problemas abstractos y complejos porque sus padres los habían educado así (antes de llegar a la escuela). Es decir, achacaba a la educación paterna la diferencia entre razonamiento abstracto entre niños y niñas al llegar a la escuela. Más aún, ella también suponía que los profesores, «conscientes» de estas diferencias, en lugar de «limar» estas diferencias de partida, las acentuaban con su labor docente. NOTA: el estudio desarrollado en 1990 encontró una diferencia en resultado de d=0.29 a favor de los niños, cuando se supone que una diferencia de d=0.20 es un efecto pequeño, d=0.50 es un efecto moderado y d=0.80 es un efecto grande.

El nuevo estudio de la misma investigadora parece indicar que padres y profesores han cambiado de actitud en relación a este esteorotipo. Janet S. Hyde et al. «Gender Similarities Characterize Math Performance,» Science, Vol. 321. no. 5888, pp. 494-495, 25 July 2008 , nos recuerda que en 1990 había una gran diferencia en la presencia de mujeres y hombres en altos niveles de educación matemática, en física y en ingeniería. Hoy en día, en matemáticas en EEUU el 48% son mujeres, sin embargo, ciencias físicas y muchas ingenierías se encuentran entre las carreras universitarias en las que el número de alumnas y más aún el número de graduadas (licenciadas) es muy bajo. El nuevo estudio parece indicar que estas diferencias se reducirán conforme pase el tiempo (de aquí a unos 20 años).

123752 artículos en 10 años y la vacuna del SIDA todavía tendrá que esperar

El número de hoy de la revista Science dedica un especial a ¿dónde va el dinero del contribuyente dedicado a la investigación del SIDA? (Jon Cohen, «Where have all the dollars gone?,» Science, July 25 2008 ). En 2007 el presupuesto en investigación en salud norteamericano (gestionado por el NIH, National Institutes of Health, lo que en España es el FIS, Fondo de investigación sanitaria) ascendió a la friolera de 2.900 millones de dólares (y dicen que estamos en «vacas flacas»), de los que 1.600 millones de dólares son para proyectos de investigación.

Se han publicado 123.752 artículos relacionados con el VIH/SIDA entre 1998 y 2007. El número de citas en media por artículo es de 12. Por supuesto, los «grandes citados» son los grandes receptores de dinero. El listado de investigadores que tienen los artículos más citados, muestra que son investigadores con más 100 artículos cada uno, y sus instituciones son las que más dinero reciben.

¡Tanta investigación, tanto dinero, y todavía no tenemos una vacuna contra el SIDA!

El artículo de Fauci et al. «HIV vaccine research: The way forward,» en el mismo número estudia en perspectiva los avances y el futuro cercano del desarrollo de vacunas contra el SIDA. Aunque hay 6.500 nuevos infectados de SIDA diarios en el mundo y el desarrollo de una vacuna contra el SIDA es una de las mayores prioridades de salud pública en el mundo, la comunidad investigadora biomédica ha encontrado obstáculos tan grandes que no es posible predecir para cuándo tendremos una vacuna efectiva. Los investigadores en este campo, de hecho, reclaman más fondos (con el eufemismo de recursos adicionales) por parte del presupuesto del NIH. Uno de los problemas más importantes es la gran dificultad en atraer y retener jóvenes investigadores en este campo.

La extraordinaria diversidad genética del virus VIH (HIV en inglés), el gran número de características de la envoltura glicoprotéica que «protege» al virus de su neutralización por anticuerpos, y la gran velocidad a la que ocurre la replicación del virus y su gran lantencia, son las causas más importantes expuestas en el artículo para justificar que la investigación en una vacuna que bloquee la infección del VIH requerirá un enorme «salto» intelectual mucho mayor de lo que cabe esperar según el conocimiento actual en este campo. Se necesitan «genios». Hay que atraer a «genios» a este campo. «Genios» que desarrollen nuevos caminos, que logren un uso fértil de los descubrimientos actuales en campos tan diversos como genética, biología estructural, biología de sistemas, biología celular, y química de péptidos (entre otros campos donde se están realizando grandes avances). Se necesitan «genios» que ofrezcan nuevas aproximaciones a la resolución de lo grandes obstáculos que se observan en el desarrollo de una vacuna contra el SIDA y que generen un conocimiento «útil» que permita el diseño y la evaluación de una vacuna contra esta pandemia de finales del siglo pasado que tiene visos de continuar durante gran parte del presente siglo.

¿Por qué para los grandes medios los científicos siempre parece que están «llorando» por dinero?

El final del mundo aún tendrá que esperar… nueva ratificación de que el LHC es «seguro»

El artículo «Exclusion of black hole disaster scenarios at the LHC,» ArXiv preprint, 22 July 2008 , escrito  por Benjamin Koch, Marcus Bleicher, y Horst Stoecker, analiza de forma independiente la dinámica de los posibles mini agujeros negros que se puedan generar cuando el Gran Colisionador de Hadrones (LHC del CERN) sea puesto en funcionamiento. El informe final escrito por el comité científico encargado de estudiar la seguridad del LHC (LHC Safety Study Group) , versión «mejorada» de un informe previo de principios de los 2000s, fue publicado recientemente en un extenso artículo. Mucha gente opina que dicho informe «parece un comunicado para tranquilizar a la población y seguir adelante con el experimento.» El nuevo artículo es complementario a dicho informe, completamente independiente, presenta un nuevo análisis (bastante simplificado por cierto) de la seguridad del LHC.

Obviamente, el nuevo estudio, igual que el anterior, se basa en nuestro conocimiento sobre la física de los agujeros negros desarrollado durante el siglo XX. Si la física a la escala de energía de 1 TeV es una «locura» completamente diferente a todo lo conocido en física por debajo de 1 TeV, entonces «apaga y vamonos», habrá que apretarse «los machos», ya que nadie puede hacer predicciones sobre ella. Sin embargo, científicamente es completamente irracional pensar que a escalas de 0.5 TeV la física la entendemos muy bien y sin embargo a escalas de 1 TeV no entendemos absolutamente nada. El nuevo estudio supone que la «nueva» física a 1 TeV es tan «novedosa» como para permitir la generación de mini agujeros negros a dicha escala (la teoría de cuerdas es correcta, existen más de 3 dimensiones espaciales y la escala a la que se observa la gravedad cuántica, sea lo que sea, es del orden de 1 TeV), pero lo suficientemente conocido como para que Newton, Boltzmann, Einstein, Hawking, etc. sean aplicables.

Supongamos que lo que «sabemos» (o creemos saber) sobre los agujeros negros es verdad (nadie ha «estudiado» un agujero negro en un laboratorio y lo que sabemos sobre ellos es más teoría que experimento) y además supongamos que las teorías de cuerdas con más de 3 dimensiones espaciales son «correctas» (posiblemente no lo son) y estas dimensiones están «compactificadas» a una escalad de micrómetros (hay algunas hipótesis técnicas adicionales en las que no entraré). ¿Compactificadas? Cuando miras una manguera de regar desde lejos te parece unidimensional, pero cuando te acercas es tridimensional, es decir, de lejos, parece que hay 2 dimensiones «compactificadas».  Si todo esto es verdad, y en lugar de 3 dimensiones espaciales (arriba-abajo, dentro-fuera, derecha-izquierda) hay una cuarta (la «cuarta dimensión»), algunos cálculos simplificados, indican que se podrían formar miniagujeros capaces de «tragarse» la Tierra en unos 27 años. Si hay 5 dimensiones espaciales, se tragarían la Tierra en 10 mil billones de años (algo menos de la edad actual de la Tierra. Si hay más de 6 dimensiones, el tiempo es mucho mayor. Recuerda que la mayoría de las teorías de cuerdas suponen que hay más de 9 dimensiones espaciales. Por supuesto, una de ellas podría estar compactificada en los micrométros y el resto en escalas de longitud mucho más pequeños. Por ahora, nadie lo sabe.

Lo dicho, supongamos que se pueden generar mini agujeros negros a la escala de energías alcanzables en el LHC, ¿cómo serán dichos agujeros negros? Si una teoría de la gravedad a escala cuántica, todavía no la conocemos, es imposible saberlo. Así que tenemos que tener en cuenta todas las posibilidades:

1) Los mini agujeros negros radian (por radiación de Hawking) fuertemente (mucho). En ese caso, también radiarán energía muy rápidamente, más rápidamente de lo que pueden «tragar» materia (acreeción). Desaparecerán antes de que puedan hacer daño alguno. Esto es lo más «razonable» si todo lo que sabemos sobre la física de los agujeros negros es verdad y lo que predicen los modelos de teorías de cuerdas que permiten la producción de agujeros negros en el LHC. Pero podemos estar equivocados ya que desconocemos qué pasa a la escala de más de 1 TeV (aunque sabemos lo que pasa a unos 0.5 TeV, oiga, que tan ignorantes no somos). Lo dicho, en este caso, desaparecerán unos 30 órdenes de magnitud más rápido de lo necesario para «tragarnos a todos». Lo siento por los apocalípticos.

2) Los mini agujeros no radian nada (Hawking está completamente equivocado, nunca recibirá el premio Nobel, ni nunca se lo merecerá). En ese caso, habría mini agujeros negros en los rayos cósmicos (recibimos rayos cósmicos de muchos TeV constantemente) y no existiría el Sol, ni la Tierra, ni nosotros… ya habríamos sido «tragados» por mini agujeros negros que se habrían generado en el Big Bang en algún momento de los últimos 13 mil millones de años). La existencia del Sistema Solar es prueba más que suficiente de lo benigno de estos mini agujeros negros.

3) Los mini agujeros radian, pero débilmente. Bueno esta la parte más interesante del estudio. Hay dos posibilidades que radien en todas direcciones (radiación «tipo» Hawking) o que lo hagan en «ciertas» direcciones solamente. En el primer caso, los miini agujeros negros radian débilmente pero lo hacen de tal forma que la radiación se para cuando tienen una masa de alrededor de un 1 TeV. A partir de las estimaciones de la energía en los rayos cósmicos, en la «vida» de la Tierra se habrán producido unos 30 mil millones de miniagujeros negros de este tipo. Si todavía la Tierra está aquí, muy «tragones» no tienen que ser. En el segundo caso, hay tres posibilidades.3a) Miniagujeros negros que radian débilmente con una «rapidez» tal que es menor que el tiempo necesario para que el agujero negro recorra el diámetro de (pongamos) un protón (tiempo necesario para que se encuentre con uno y se lo «trague»). Esta escenario es imposible, si las partículas que emite el mini agujero negro son menos pesadas que un electrón (lo normal es que radie fotones, que tienen masa en reposo nula) y lo que se puede «tragar» es más pesado que un protón (en otro caso nada que nos «afecte» podría tragar). Cualquier otra opción está fuera de lo concebible.

3b) Miniagujeros negros que radian débilmente pero con gran «rapidez». Este caso es exactamente el mismo que el caso 1, ya presentado.

3c) Miniagujeros negros que radian débilmente, con la «rapidez» justa para que se puedan tragar un protón (que la probabilidad que se encuentren uno por el camino sea significativa). Sorprendentemente, esta posiblidad es la más interesante ya que obliga a limitar mucho las propiedades de estos posibles mini agujeros negros. Todo depende de la «fracción» de protón que son capaces de «tragar» cuando lo atraviesan. Recordad que un protón es un «saco» de quarks y gluones (3 quarks de valencia rodeados de «infinidad» de quarks virtuales y gluones virtuales). Si la fracción de protón que el mini agujero negro es capaz de tragar es mayor de 40 millonésimas, este tipo de miniagujeros negros no permitirían la existencia de estrellas densas, como las enanas blancas de más de 1000 millones de años de antiguedad (pero hoy estamos «seguros» de que existen). Si la fracción de protón que pudieran tragar mientras lo atraviesan fuera menor de 40 millonésimas, estos min agujeros negros podrían «tragarse» la Tierra. Uno sólo necesitaría solamente un billón de billones de billones de billones de años. No es infinito, pero antes, el Sol habrá explotado como supernova y nos habrá destruido.

En resumen, todas las posibilidades «razonables» si el LHC es capaz de generar mini agujeros negros (algo poco «razonable», por cierto), indican que dichos mini agujeros negros serían completamente «benignos» para la humanidad y el futuro de nuestro planeta. Lo siento por los apocalípticos. Tendrán que buscar otra excusa, los físicos, por ahora, no quieren dársela.

China no es responsable de la subida del precio del petróleo

La tremenda escalada de precios del petróleo en los últimos años tiene toda la pinta de ser una burbuja especulativa (ver la entrada en este blog). Sin embargo, muchos aún piensan que son los mercados emergentes, el incremento del consumo interno en países como China e India, los responsables reales de la subida de precios y que los «buenos especuladores» no tienen nada que ver. ¿Ha crecido más que exponencialmente el consumo de crudo en China, India o en el mundo? ¿Cómo ha evoluciado el consumo interno de petróleo en China? Los datos son difíciles de obtener debido al obstracismo de su gobierno.

Se acaba de publicar hace unos meses un artículo del ex-presidente chino Jiang Zemin «Reflections on Energy Issues in China«, en la revista Journal of Shanghai Jiao Tong University, de 15 páginas, desafortunadamente, como es de esperar, está escrito en chino. Sin embargo, para mí, lo más interesante del artículo es que incluye una figura con la evolución de los datos oficiales de consumo de petróleo en China en los últimos años, en concreto de 2001 a 2006. La figura es la siguiente.

Datos oficiales de la evolución del consumo de petróleo en China desde 2001 a 2006.

Datos oficiales de la evolución del consumo de petróleo en China desde 2001 a 2006.

Esta figura nos indica más de que la subida del precio del crudo es claramente especulativa (o al menos que el crecimiento lineal del consumo de crudo en China no es responsable del crecimiento exponencial de los precios). ¿Tendrá entonces la culpa India? ¿Otras economías emergentes?

Que dice la EIA (Energy Information Administration, USA) sobre el tema. La demanda de petróleo por parte de los países de la OCDE (incluye a EEUU y Europa), de China y del mundo en total (en Millones de barriles día) es la siguiente:

Como se ve en la tabla entre 2004 y 2007 la demanda diaria de barriles de petróleo en todo el mundo no ha crecido mucho. Por supuesto los datos de la EIA siempre están acompañados de polémica (muchos opinan que están sesgados por los Bush y pro-Bush de EEUU).

En cualquier caso, datos a tener en cuenta.

Physics: nueva revista de «divulgación técnica» de la American Physical Society

La Sociedad Física Americana (American Physical Society o APS) es la institución más importante en Física en el mundo y publica la serie de revistas Physical Review, entre las que se encuentra la revista de física de mayor prestigio, Physical Review Letters (aunque no la de mayor índice de impacto). La sociedad publica unos 180000 artículos de investigación al año. Entre esta «marabunta» es difícil encontrar artículos especialmente interesantes que puedan tener un impacto mediático significativo, es decir, artículos para «noticia de prensa» o «entrada de blog». Para alertar a los periodistas (científicos) de los medios, la APS ofrece Physical Review Focus, donde se publican todas las semanas artículos escritos por periodistas científicos de la sociedad sobre los artículos/descubrimientos más interesantes publicados en los Physical Review. De ahí salen muchas de las noticias de Ciencia que luego aparecen en periódicos nacionales como El País o El Mundo.

¿Pero dónde pueden «divulgar» científicos expertos lo que ellos consideran interesante entre lo publicado en las Physical Review? Acaba de inaugurarse tal portal, Physics, una revista en la que profesionales de la ciencia (no periodistas) pueden escribir, enviar y publicar artículos cortos destacando ciertos avances científicos publicados en las Physical Review. Los llamados Viewpoints (artículos cortos sobre avances importantes puntuales) y Trends (artículos más largos de revisión de avances en todo un campo). Finalmente, el propio staff de la revista publicará las Synopses que cubrirán artículos seleccionados por los propios editores de las Physical Review. Habrá que estar al tanto de esta nueva revista.

En mi opinión, una gran iniciativa de la APS para favorecer la divulgación científica entre los investigadores. Enhorabuena.

La arbitraridad del Modelo Estándar de las partículas elementales (o sobre el principio antrópico)

¿Por qué el «mundo» es como es? ¿Cómo es el mundo? En Física (teórica) el «mundo» es descrito por el llamado Modelo Estándar. Es un Modelo pues requiere observar la Naturaleza para determinar sus parámetros y constituyentes. Es un Modelo porque se puede adaptar a «otras» realidades, a «otros mundos». Esta arbitrariedad del Modelo Estándar, ¿es el signo de la validez del principio antrópico? Este principio dice, brevemente, que hay infinitos conjuntos de leyes físicas posibles, que se puedan dar, no existe una Única Ley posible, con lo que el conjunto de leyes que «rigen» nuestro mundo es el que es porque nosostros estamos aquí para poder observarlo, porque son las que permiten que en «nuestro» Universo, en este «momento», existamos nosotros para poderlas determinar.

Recapitulemos algo sobre el Modelo Estándar. Brevemente se enuncia este modelo aludiendo a los grupos de simetría que subyacen al mismo, es decir, SU(3)xSU(2)xU(1), aunque una descripción técnica más precisa es un poco más complicada. SU(3)c corresponde a la cromodinámica cuántica, la teoría de los quarks; SU(2)xU(1) corresponde a la teoría electrodébil que unifica electromagnetismo U(1) y fuerza nuclear débil (responsable de los procesos en los que intervienen neutrinos). NO hay ninguna justificación teórica «conocida» para que la realidad de la particulas elementales sea descrita en el marco de esta selección concreta de grupos de simetría. En teoría es una de las infinitas posibles generalizaciones del electromagnetismo, parte U(1) del modelo, que son compatibles con la actual teoría cuántica de campos (un teoría claramente «efectiva»). De hecho, es la generalización de la electrodinámica cuántica que han «seleccionado» los resultados experimentales (o los físicos experimentales, mejor dicho). Sin ellos, hubiera sido imposible elegir este modelo concreto (sólo utilizando consideraciones de carácter teórico, al estilo de los problemas gendanken de Einstein).

Pero el modelo SU(3)xSU(2)xU(1) sólo nos dice qué partículas transmisoras de las fuerzas fundamentales (bosones vectoriales de espín 1) existen (el fotón, los bosones W y Z, y los gluones). Nada afirma respecto a las partículas materiales que «sufren» estas interacciones. Hay que especificar su espín y sus cargas (eléctrica, de color, etc.), es decir, las representaciones «físicas» del modelo SU(3)xSU(2)xU(1) (las representaciones de un grupo de simetría son un concepto matemático, pero las representaciones compatibles con la relatividad especial de Einstein, con el llamado grupo de Poincaré, son la parte física de las representaciones de los matemáticos).  Desde este punto de vista «teórico» (matemático, diría el físico teórico) hay infinitas posibles elecciones para estas representaciones, aunque la observada experimentalmente es la siguiente

donde se representna los acoplamientos de la materia a los grupos SU(3), SU(2) y U(1), y donde la L y la R indican helicidad izquierda y derecha, respectivamente. Por supuesto, no pretendo explicar con detalle esta expresión matemática aquí (los interesados en una «intepretación» divulgativa pueden consultar la wiki). Lo único importante en nuestro discurso es que muchas otras posibilidades son posibles «teóricamente» (si se cumplen ciertas condiciones de consistencia, como la invarianza relativista, en las que no entraré en detalle, los 2 primeros volúmenes de «The Quantum Theory of Fields» de Steven Weinberg, uno de los «creadores» de la parte SU(2)xU(1) del Modelo Estándar, es «precioso» ent este sentido, aunque reservado para físicos «aficionados»). Sin embargo, entre todas esas posibilidades esta concreta es la «seleccionada» por la Naturaleza, la que observamos en los experimentos. Nada en el Modelo Estándar nos «obliga» a realizar esta elección. Además, existen tres generaciones de partículas elementales con exactamente esta misma estructura. Todas estas generaciones consisten en 2 quarks, un tipo de electrón y un neutrino de dicho tipo.

De hecho, al Modelo Estándar le podemos añadir muchas «cosas» manteniendo su validez. Por ejemplo, tantos campos escalares (de espín 0) como queramos con cualesquiera combinación de cargas posibles (siempre y cuando tengan un masa en reposo suficientemente alta) sin alterar los resultados experimentales obtenidos hasta el presente. Por ejemplo, la famosa partícula de Higgs, que como aún no ha sido observada aún, aunque sí predicha por consistencia y simplicidad, no pertence al Modelo Estándar, aún. La importancia del bosón de Higgs (la ruptura de simetría que implica su existencia) en el Modelo Estándar está muy bien explicada en la conferencia de recepción del Nobel de Veltman (aunque el video está en inglés, obviamente). Por supuesto, si vais a escuchar a Veltman, también tenéis que escuchar a ‘t Hooft (siempre que le he enviado un correo electrónico me ha contestado, un premio Nobel, y yo no soy nadie, le tengo mucho «cariño» en este sentido, además de por sus grandes contribuciones a la física que tanto amo), es el «joven» que hizo el trabajo que Veltman le encargó y que a ambos les dió el Nobel en 1999 (video).

Hay muchos más parámetros en el Modelo Estándar que son libres, es decir, cuyo valor hay que medirlo experimentalmente y no es posible predecirlo teóricamente, como las constantes de acoplamiento, o las masas de las partículas. Concretamente, las 3 constantes de acoplamiento entre gluones. Las 12 masas de los 6 quarks, de los 3 electrones y de los 3 neutrinos. Los ángulos de interacción (mezcla) por interacción débil entre los quarks y los de os neutrinos (en el Modelo Estándar estas partículas son estados «observables» obtenidos por combinación de lineal de estados «puros no observables», siendo la combinación observada experimentalmente una de las infinitas posibles desde el punto de vista teórico). El parámetro de violación de la simetría CP en la interacción fuerte. La masa del bosón de Higgs y su parámetro de autointeracción. Y muchos más parámetros libres. Depende de quién los cuente son 23 o al menos más de 20. Y no hemos mencionado la «posible» gravedad cuántica, la posible supersimetría, etc. ¡Camarero! ¡Sírvame un parámetro más, por favor!

En resumen, hoy creemos que el mundo es como es porque así es. No tenemos explicación teórica para ello. Y las ideas de la teoría de cuerdas parece que no pueden aportar nada para mejorar esto (el llamado problema del landscape). Si os interesa este tema, el artículo de A.N. Schellekens, «The Emperor’s Last Clothes?,» ArXiv preprint, 21 July 2008 , os será de lectura recomendada (la figura y algunos comentarios están extraídos de él).

Entre el Amor y la Vida. Reflexiones sobre la abstracción y la negación del objeto [por Fernando Ruiz Villaespesa]

Amor grabado de Fernando Ruiz Villaespesa.

Amor. Obra-grabado de Fernando Ruiz Villaespesa.

Copiado de la página web del artista granadino afincado en Málaga Fernando Ruiz Villaespesa.

“Por suprematismo, se entiende la supremacía de la sensibilidad pura en las artes, entre ellas, las plásticas” Casimir Malevich.

El valor de la obra de arte reside, exclusivamente, en la sensibilidad con que se expresa, reside, igualmente, en la energía creadora que deposita el artista sobre el soporte en el que fija la representación gráfica de su sensibilidad.

La forma de representación de las obras de arte no determina, en absoluto, el valor especifico que contiene cada una de ellas, este valor solo puede ser medido mediante la captación de la sensibilidad y de la energía creadora depositadas por el artista y aquella que el receptor de la obra de arte sea capaz de recibir y aportar; para ello, el espectador de la obra debe estar condicionado, ante ella, solo por su propia sensibilidad y debe dejarse imbuir e influir, exclusivamente, por lo que siente ante la contemplación de la obra, menospreciando aquello que le trasmitan otros sentidos que, sin duda, le confundirán con el aporte de datos falsos como: identidad, realidad, belleza, armonía, utilidad etc.

El objeto real, como tal, confunde la percepción sensible, la respuesta a la emoción está implícita en la obra que miramos, no permite que nuestra sensibilidad integrada en el subconsciente actúe. Cuando solo existe el frío y estrecho pasillo de lo explicito para acceder al conocimiento, cuando solo podemos llegar a él a través de ese camino marcado, no hay más opción que caminar sobre el rastro de los que lo han recorrido previamente. El autor no deja opción a que la sensibilidad del actor interaccione en la obra que observa, con lo cual la posibilidad de aportar algo a la acción artística que debería ser compartida por ambos, es nula.

Por el contrario, cada uno de los que mira una obra de arte con una visión sensible aporta una parte de esa visión en la acción artística e incrementa el valor artístico de la obra con solo esa mirada sensible y, por ende, comprensiva.

La inquietud del artista comienza cuando tras el largo camino andado da el último y definitivo paso que lo transporta a la nueva senda en la que el objeto y la representación, en la que había creído hasta ahora, se quedan muy atrás, este último paso separará el pasado del futuro y no tendrá vuelta atrás ¡ el cambio se ha efectuado! La sustitución de la realidad común por la realidad íntima e individual se ha consumado y, con ella, la percepción que se tenía antes de la acción artística ha cambiado de forma irremediable.

Todas estas reflexiones pueden llevar a la confusión del lector haciéndole pensar que el que escribe niega todo valor a la representación y al objeto, no cometan ese terrible error, baste el ejemplo de una colección de arte en la que todos los objetos artísticos pertenecieran a grandes maestros del renacimiento y que el propietario de ella consiguiera extraer toda la sensibilidad y energía depositada en las obras por sus autores ( Miguel, Leonardo, Rafael, ), tras ello, buena parte de los críticos, estudiosos del arte y observadores, más o menos cualificados, no notarían el gran cambio operado en ellas, el sujeto sensible, tanto autor como receptor, sí lo apreciaría.

El arte contemporáneo, en su sentido más literal, no puede estar al servicio de nada ni de nadie, solo es la manifestación de la sensibilidad del creador que se expresa mediante su energía artística y su obra. Por lo tanto, la obra puede estar cargada de datos, representaciones, objetos, símbolos, o bien, carecer de ellos pero si está imbuida de la sensibilidad y expresada mediante la energía artística se convertirá así en obra arte.

Cuando la sensibilidad del espectador del arte alcanza la altura sufriente, cuando le es posible trascender la falta de datos, está preparado para reconocer el hecho artístico en objetos y materias cotidianos que son abstractos en su esencia: una sombra, el movimiento del agua, el viento, la luz que se proyecta, una grieta, una roca, un destello…, muchas cosas que nos rodean y que siempre han conmovido profundamente al ser humano, son disformes y, sin embargo, han sido reconocidas como bellas y, por tanto, han inspirado hechos artísticos.

Un paso más sería que, mediante esa percepción el espectador lograra comprender que las acciones sin forma ni contorno, aquellas que no informan de nada preciso, en las que no hay datos que lean el significado, aquellas cuya comprensión requieren un esfuerzo propio, en las que la sensibilidad del receptor es tan importante como la del autor, son hechos artísticos absolutos, como aquellos de los que hablábamos antes, los que nos acompañan desde que el ánima dejó atrás la animalidad.

Concluyo, por tanto, acción o hecho artístico no es aquello que se consagra como tal por el beneplácito: político, crítico, mercantil , ni el sitio en el que se muestre o albergue la obra, sino la cantidad de energía y sensibilidad aportadas tanto por el autor como por el observador del evento artístico.

Vida grabado de Fernando Ruiz Villaespesa.

Vida. Obra-grabado de Fernando Ruiz Villaespesa.

Teoría de cuerdas: matemática pura o aplicada

Me vienen a la mente múltiples aplicaciones de la teoría de cuerdas en teoría cuántica de campos, tras releer que la «dependencia mutua entre ciencia pura y aplicada (…) que tiene por efecto que a menudo la teoría cree y construya, movida por un impulso puramente científico, precisamente aquellas formas que la aplicación práctica necesitará muy pronto para dominar un torrente de problemas venido del exterior,» de Felix Kelin, en Lecciones Sobre la Matemática del S. XIX, quien cree poder «medir el valor de una creación intelectual por este rasero, que alcance o no a sufrir efectos más allá del ámbito de asuntos abstractos en que su creador tenía exclusivamente puesta la vista,» pág 198 de la edición de dicho libro por la editorial Crítica.

Por supuesto, el propio Klein se cura en salud, por si acaso, afirmando «el mundo de ideas matemáticas puras es como un árbol floreciente, tampoco se le puede pedir que todas y cada una de sus flores logradas lleguen además a madurar en fruto.»

La teoría de cuerdas respecto a la teoría cuántica de campos es a la física teórica lo que la matemática pura es respecto a la matemática aplicada. Como todos los físicos teóricos que trabajan en teoría de cuerdas, han estudiado teoría cuántica de campos con anterioridad, y por ello saben la fácil o difícil que es calcular ciertas cosas en el marco del Modelo Estándar, no se ha hecho esperar la aplicación de las nuevas técnicas matemáticas de la teoría de cuerdas en teoría cuántica de campos más estándar. Los resultados son espectaculares. Ciertos cálculos extremadamente difíciles con la matemática estándar en este campo se pueden resolver «fácilmente» usando técnicas de cuerdas. El artículo de Christian Schubert, «Perturbative Quantum Field Theory in the String-Inspired Formalism,» Physics Reports, 355 (2001) 73-234, ArXiv preprint, nos revisa el estado de estas técnicas a finales del 2000. Pero desde entonces se han hecho aún más avances. Hoy en día, estudiar electrodinámica cuántica sin tener en cuenta las técnicas «inspiradas» en teoría de cuerdas (string-inspired) no tiene mucho sentido «práctico». Especialmente en relación a la resolución numérica o computacional de problemas complicados. Como el propio Christian Schubert, nos hace ver en «QED in the worldline representation,» ArXiv preprint.

Obviamente, si la teoría de cuerdas «mejora» a las teorías cuánticas de campos es porque las incluye como caso particular (por ejemplo, cuando el parámetro de tensión de la cuerda tiende a infinito). Incluso si se descubre que la teoría de cuerdas no es correcta, la matemática que se ha desarrollado para ella puede ser aplicada en teoría cuántica de campos ofreciendo un nuevo enfoque a problemas ya conocidos. Por ejemplo, en teoría cuántica de campos se utiliza un proceso llamado segunda cuantización para evaluar los diagramas de Feynman que surgen en los desarrollos aproximados (perturbativos) de la teoría, ya que en primera cuantización es muy difícil trabajar. Pero en teoría de cuerdas se puede utilizar la primera cuantización (usando integrales de camino de Polyakov, por ejemplo) sin tales dificultades. Cuando estas técnicas inspiradas en teoría de cuerdas son aplicadas en teoría de campos ordinaria se obtienen resultados sorprendentes, casi diría espectaculares, simplificando en extremo ciertos cálculos (eso sí, tras dar un importante «retrueque» técnico y si se domina la «nuevas» herramientas matemáticas de cuerdas). Muchos de los cálculos en el marco del Modelo Estándar que los teóricos tendrán que realizar para interpretar los resultados experimentales del futuro LHC del CERN serán desarrollados utilizando herramientas matemáticas que sin los avances en teoría de cuerdas nunca habrían sido descubiertas. De hecho el congreso anual de teóricos de cuerdas de este año, Strings 2008, se celebrará en el propio CERN.

En resumen, incluso si la teoría de cuerdas acaba siendo un «fiasco», las técnicas matemáticas desarrolladas bajo su «abrigo» tendrán larga vida en la «caja de herramientas» de todo físico teórico del futuro.

Estrellas de quarks, entre la hipótesis y la realidad (o el caso de la supernova SN2006gy)

La supernova más luminosa observada hasta el momento, SN2006gy (unas 100 veces más luminosa que una supernova típica) es difícil de explicar con las teorías actuales. ¿Podría ser el resultado de una transición entre una estrella de neutrones y una estrella de quarks? Os recuerdo que las supernovas tipo Ia son transiciones de una enana blanca a estrella de neutrones (la enana recibe materia de una compañera, materia que genera luz termonuclearmente, hasta que se acaba y la estrella explota). Si se confirma la interpretación de esta observación, sería la primera observación de una estrella de quarks. Quizás lo mismo ha ocurrido en las supernovas de alta luminosidad SN2005gj y SN2005ap. Así lo sugieren Denis Leahy, Rachid Ouyed, en «Supernova SN2006gy as a first ever Quark Nova?,» Monthly Notices of the Royal Astronomical Society, Volume 387, Issue 3, July 2008 , Pages 1193-1198 , ArXiv preprint, last revised 10 Apr 2008 .

Sobre las estrellas de quarks, en inglés, os interesará leer el artículo de P. Jaikumar, «Quark stars: features and findings,» European Physics Journal C, vol. 49, pp. 199-203, 2007 (artículo de acceso gratuito). En español es muy interesante el artículo de los cubanos A. Pérez Martínez, Daryel Manreza Paret y A. Ulacia Rey, «Estrellas Degeneradas: Enanas Blancas, Estrellas de Neutrones y de Quarks,» Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 3, No. 1, pp. 38-48, Julio 2007 .

La muerte de las estrellas de la llamada secuencia principal va acompañada de una explosión de supernovas, que deja como remanente una estrella degenerada de cierta masa: enanas blancas, estrellas de neutrones y las hipotéticas estrellas de quarks (aparte de agujeros negros). La estabilidad de estas estrellas degeneradas está sujeta a que la presión de un gas degenerado de fermiones (electrones, neutrones o quarks, según sea la estrella) se capaz de equilibrar la fuerza gravitatoria debida a su masa.

Las enanas blancas son ampliamente conocidas, por ejemplo, Sirio B, la compañera la estrella aparentemente más brillante del cielo, Sirio A. Su diámetro (medido en 2005) de 12.000 km es menor que el de la Tierra, aunque su masa es casi la del Sol, 0.98 MSol. Estas estrellas no son grandes reactores termonucleares, como nuestro Sol, sino que se se mantienen estables gracias a un fenómeno cuántico, el principio de exclusión de Pauli, que impide que dos electrones (en general, dos fermiones) ocupen el mismo estado cuántico, lo que genera una presión que mantiene la estrella compensando la gravedad, aunque sólo si la masa de ésta es menor que 1.44 MSol.

Si el remanente tiene una masa entre 1.44 y 3 MSol se puede formar una estrella de neutrones, de una radio de unos 10 km, con una velocidad de escape enorme, próxima a la mitad de la velocidad de la luz. Las estrellas de neutrones son demasiado pequeñas para ser detectadas, sin embargo, la evidencia experimental indica que forman parte de los púlsares. El núcleo de estas estrellas está compuesto por una fluido de nucleones (neutrones y protones) electrones y muones, con un 95% de neutrones (formando un superfluido) y solo un 5% de protones cuya carga está compensada por otros tantos electrones.

¿Pero existen estrellas aún más densas? Quizás sí, las estrellas de quarks. La teoría de los quarks (cromodinámica cuántica) es tan complicada que es muy difícil estudiar las propiedades de estas hipotéticas estrellas. Su existencia require que con una densidad de materia superalta puedan existir quarks «libres» o sin confinar (normalmente los quarks están confinados, ocultos, en parejas quark-antiquark en las partículas llamadas mesones y en tríos en los llamados bariones, como el protón o el neutrón).

En 1971, antes del desarrollo de la cromodinámica cuántica, Bodmer conjeturó que la materia extraña (formada por quarks arriba, abajo y extraño) es absolutamente más estable que la materia “normal” (el núcleo del isótopo 56 del hierro). Si se confirma, la materia “normal” sería metaestable y comprimida a una densidad suficientemente alta espontáneamente se convertiría en materia extraña. A diferencia de las estrellas degeneradas, la estabilidad de las estrellas de quarks no requiere la presencia de la gravedad para ser estables. Más, aún su radio podría ser menor que el de las estrellas de neutrones. Desafortunadamente, no hay evidencia fiable de su existencia.

Los interesados en información más técnica disfrutarán del extenso artículo de 51 páginas de Dany Page y Sanjay Reddy, «Dense Matter in Compact Stars: Theoretical Developments and Observational Constraints,» Ann. Rev. Nucl. Part. Sci. 56 ( 2006 ) 327-374, ArXiv preprint.

PS (9 de enero de 2009): Permitidme añadir unos artículos interesantes (los dos primeros en español) en este tema, a nivel de divulgación:

Ricardo González Felipe, Aurora Pérez Martínez, Milva Orsaria, Ernesto López Fune, «Estabilidad de la Materia Extraña y Posibles Estrellas de Quarks,» Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 4, No. 1, pp. 13-22, Julio 2008 .

Néstor Armesto y Carlos Pajares, «Líquido de quarks y gluones,» Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 4, No. 1, pp. 3-12, Julio 2008 .

Renxin Xu, «Strange Quark stars: Observations & Speculations,» ArXiv preprint, 24 december 2008 .

Un vídeo con una animación de la NASA que reconstruye la explosión de la supernova SN2006gy (fuente Chandra).