El análisis genético del esqueleto de Nicolás Copérnico afirma que tenía los ojos claros

Dibujo20090724_Frontal_(A)_lateral_(B)_views_cranium_no_mandible_and_3-dimensional_view_bones_putative_skeleton_Nicolaus_Copernicus_(C)Todos sabemos que recientemente se indentificó la tumba de Nicolás Copérnico (Nicolaus Copernicus), encontrada en 2005. Han sido necesario varios años para confirmar defnitivamente que los restos son los de Copérnico. Se acaba de publicar en PNAS Early Edition el análisis genético de dichos restos. Nos lo comenta para los profanos Owen Gingerich, “The Copernicus grave mystery,” siendo el artículo técnico Wiesław Bogdanowicz, Marie Allen, Wojciech Branicki, Maria Lembring, Marta Gajewska, Tomasz Kupiec, “Genetic identification of putative remains of the famous astronomer Nicolaus Copernicus,” ambos publicados en PNAS Early Edition, July 21, 2009.

El artículo técnico analiza el ADN mitocondrial y nuclear de los restos del esqueleto que fueron exhumados en 2005 en la Catedral de Frombork en la actual Polonia (en vida de Nicolás (1473–1543) era Prusia). Los restos son de una sola persona por la coincidencia del ADN mitocondrial entre 3 molares y el fémur. ¿Cómo se sabe que es Nicolás? Este ADN mitocondrial coincide con el encontrado en 2 pelos (cabellos) descubiertos en un calendario (copia de Johann Stoeffler del Calendarium Romanum magnum publicado en Oppenheim en 1518) que le perteneció en vida, actualmente exhibición en el Museo Gustavianum, en Uppsala, Suecia. Por cierto, encontraron 9 cabellos, de los que pudieron extraer ADN de 4 y solo 2 coinciden. De hecho, Owen Gingerich nos recuerda que alguno de dichos cabellos puede ser suyo “But I cannot help but wonder whether one of those other hairs was mine!” Los investigadores también han encontrado datos antropológicos que confirman su hipótesis.

El ADN mitocondrial encontrado es curioso, es de un haplotipo que ha sido observado sólo tres veces en Alemania y una en Dinamarca. Os recuerdo que el haplotipo es la combinación de alelos o composición genética de un cromosoma o ADN mitocondrial. El cromosoma Y encontrado no sólo confirma que se trata de un hombre, como todos esperamos, sino que además presenta haplotipos que han sido observados en diferentes países como Austria, Alemania, Polonia y la República Checa.

El análisis genético presentado es técnico y quizás de poco interés, salvo quizás en SNP (polimorfismo de un solo nucleótido) localizado en el gen the HERC2 que es del tipo que aparece en personas con los ojos azules (o con los ojos de color claro). Esto es sorprendente porque todas las representaciones pictóricas de Copérnico le ponen ojos de color oscuro. ¿Por qué? Solo los historiadores podrán contestarlo. Owen Gingerich nos recuerda que la evidencia pictórica no contemporánea sobre Copérnico es muy escasa “But the evidence for Copernicus’ eye color from early portraits (none contemporary) is very sparse, and Copernicus could well have been blue-eyed as far as the historical record is concerned.

Más información en muchos foros de internet, como Andrés Borbón, “Copérnico tenía los ojos azules,” Tecnoculto, 20 julio 2009.

Por qué solo hay una mujer entre los 100 mejores jugadores de ajedrez del mundo

Dibujo20090722_judith_polgar_2006No, no tiene nada que ver con la inteligencia, es una mera cuestión de estadística. Hay muchos más niños aprendiendo a jugar al ajedrez que niñas. Así lo afirman los estudios sociocientíficos. Recapitulemos los hechos. Entre los 100 mejores jugadores de ajedrez del mundo solo hay 1 mujer (la húngara Judit Polgar, puesto 43 en julio de 2009). Judit llegó a número 8 mundial en 2004-2005. La única mujer que ha llegado al top 10 en toda la historia. Comparando el ELO (puntuación numérica estándar en ajedrez) del número 1 mundial, Veselin Topalov, 2813 (julio 2009), y del número 100 mundial, 2641 (julio 2009), así como el ELO de las 3 mejores mujeres a nivel mundial Judit Polgar, 2687, la india Humpy Koneru, 2623, y la jovencita promesa china Yifan Hou, 2584, nos damos cuenta de la gran diferencia en ELO entre hombres y mujeres. ¿Por qué? ¿No es el ajedrez un deporte de inteligencia y la inteligencia de los mejores hombres y de las mejores mujeres es similar? Los estudios dicen que la clave de los grandes maestros no es la inteligencia, sino la práctica. ¿No es el ajedrez un deporte de memoria y entrenamiento y la constancia de hombres y mujeres es similar? Sí, el secreto es la práctica desde la más tierna infancia y resulta que hay muchos menos niñas en los clubes de ajedrez que niños.

La historia de Judit Polgar puede que nos aclare algunos puntos. Igual que le pasó al genial Norbert Wiener (uno de los matemáticos más geniales de la primera mitad del s. XX, creador de la cibernética), su padre quiso convertirla en genio, en niña prodigio del ajedrez (en 1906 Norbert era considerado el niño más extraordinario del mundo). Su padre decidió que podía convertirla en un genio del ajedrez, así como a sus 2 hermanas. Su maestro en casa le aplicó una rígida formación (solo asistió a la escuela para superar los exámenes anuales). Lazslo Polgar y Leo Wiener demostraron que es posible convertir a un/a niño/a en prodigio (en genio) a base de una rígida formación en casa. Con 11 años, Leo inscribió a Norbert en la Universidad donde se graduó con 14 años en matemáticas. Judit Polgar con 13 años batió el récord de ELO más alto alcanzado por una mujer. Los interesados en estas infancias célebres disfrutarán de “El experimento Polgár” y de “Norbert Wiener: La triste vida familiar de un genio.” No sólo la infancia de Michael Jackson fue dura.

¿Son peores jugadoras las mujeres porque juegan torneos contra otras mujeres en lugar de contra hombres? Quizás esto también influya. De hecho, el padre de Judit Polgar creía que “los torneos femeninos hacen que la distancia entre el juego de hombres y mujeres crezca” por lo que trató de que sus tres hijas (las tres grandes jugadoras de ajedrez) no jugaran competiciones exclusivas para mujeres. De hecho, “Judit no ha participado nunca en ningún Torneo femenino, ni siquiera en el Campeonato del Mundo para féminas.”

¿Es la práctica hasta la extenuación el secreto de los mejores jugadores de ajedrez? En China se entrenan a niños y niñas prodigio del ajedrez con una intensidad que aterra pensar pero sin hacer ninguna distinción de sexos. Esta formación de élite ha llevado a que haya 4 chinos entre los 100 mejores jugadores del mundo (julio 2009) y 10 chinas entre las 100 mejores jugadoras del mundo (julio 2009). Por ahora, los chinos son mejores que las chinas, pero no tengo estadísticas de cuántos niños y niñas son sometidos a entrenamiento intensivo en China. Quizás haya muchos más niños que niñas…

¿Qué dicen los artículos técnicos sociocientíficos? Christopher F. Chabris, Mark E. Glickman, Sex Differences in Intellectual Performance: Analysis of a Large Cohort of Competitive Chess Players,” Psychological Science 17: 1040-1046, 13 Dec 2006 (versión gratis), nos recuerdan que sólo el 1% de los grandes maestros son mujeres y afirman que es debido a la discriminación de género. Usando datos de más de 250 mil torneos en 13 años explican fácilmente el dominio masculino en el ajedrez. Dividiendo el 100% de ajedrecistas estudiados por edades, el 26.4%, el 43.5% y el 11.5% tienen edades entre 5 y 15 años, entre 15 y 25 años, y entre 25 y 35 años, respectivamente; el porcentaje de mujeres en estos rangos de edad es sólo del 17%, 11.9%, y 11.5%, respectivamente; a partir de 35 años, el porcentaje de mujeres es de sólo el 2.2%. La estadística no engaña. Si hay pocas mujeres jugadoras de ajedrez, es normal que haya pocos grandes maestros que sean mujeres. En clubes de ajedrez en los que al menos el 50% de los nuevos jugadores son chicas, las estadísticas dicen que su ELO es muy similar que el de los chicos. Los autores concluyen por tanto que el gran número de hombres en los altos niveles del ajedrez tiene una explicación fácil, el gran número de niños que aprenden a jugar al ajedrez respecto al de niñas.

Algunos investigadores han considerado que este tipo de estadísticas no explican completamente la diferencia (un 2% de mujeres respecto a un 1% de mujeres en la élite), encontrando que hay factores fundamentales en la manera de funcionar del cerebro (o el tipo de inteligencia) de hombres y mujeres detrás de estos resultados. El autor más conocido en este sentido es Robert W. Howard, por ejemplo, “Objective evidence of rising population ability: a detailed examination of longitudinal chess data,” Personality and Individual Differences 38: 347-363, 2005. Sin embargo, sus conclusiones así como la validez estadística de su estudio han sido muy criticados por muchos. Por ejemplo, por Merim Bilalic, Peter McLeod, “Participation rates and the difference in performance of women and men in chess,” Journal of Biosocial Science 39: 789-793, 2007. La conclusión es de nuevo que la estadística entre las diferencias de participación en torneos en edades tempranas está perfectamente bien correlacionada con la diferencia en los resultados, ya de adultos, entre hombres y mujeres. De hecho, la inteligencia (medida por test de inteligencia) no está correlacionada con la habilidad para jugar bien al ajedrez (entre jóvenes prodigio) como demostraron también Merim Bilalic, PeterMcLeos, Fernand Gobet, “Does chess need intelligence? — A study with young chess players,” Intelligence 35: 457-470, 2007.

En resumen, si algún día hay tantas niñas como niños aprendiendo a jugar al ajedrez y compitiendo en torneos infantiles, cuando lleguen a adultos como grandes maestros habrá tantos hombres como mujeres.

Dibujo20090721_Judit_Polgar_and_sonPor cierto, el factor maternidad también influye. Sin pecar de machistas hay que recordar que Judit Polgar tras estar entre los 10 mejores del mundo decidió tener descendencia. Durante tres años, debido a los nacimientos de sus dos hijos se tomó un respiro en cuanto al ajedrez de competición. Al nivel de los 100 mejores del mundo, 3 años sin competir al máximo nivel se pagan caro y por eso ahora está en el puesto 43. Los analistas dicen que su nivel de juego está en progresión y que se espera que vuelva a alcanzar el que fue y recupere su sitio en el top 10. Todos deseamos que la “gran dama del ajedrez” vuelva a vencer a los mejores: su juego de ataque es de una agresividad espeluznante.

Descubrirá el satélite Fermi la materia oscura galáctica gracias al efecto Sommerfield

Dibujo20090722_All-sky-map_Mollweide_projection_of_Sommerfeld-enhanced_WIMP_annihilation_surface_brightnessEl satélite Fermi podría detectar la materia oscura en nuestra galaxia si observa ciertos lugares de nuestra galaxia donde un estudio que aparecerá en Science ha encontrado que el efecto de Sommerfield amplifica el flujo de fotones producido por la autodesintegración de la materia oscura (si es una partícula elemental tipo WIMP, es inestable y debe tener una vida media corta). Si Fermi tras mirar a dichas regiones no encontrara un exceso de fotones con el espectro de energías adecuadas, sería una duro golpe para la teoría que afirma que las WIMP (partículas masivas débilmente interactuantes) son las responsables de la materia oscura. La figura de la izquierda muestra los lugares (puntos negros rodeados de rojo) donde deberá ser apuntado Fermi para descubrir la materia oscura y si lo logra quizás obtener un Premio Nobel para sus diseñadores. El artículo técnico ha sido aceptado para publicación en la prestigiosa Science, en concreto, Michael Kuhlen, Piero Madau, Joseph Silk, “Exploring Dark Matter with Milky Way Substructure,” Science Express, Published Online July 16, 2009, y está disponible gratis (ArXiv, Submitted on 30 Jun 2009, last revised 2 Jul 2009).

Un análisis genético explica por qué hay perros con las patas cortas

Dibujo20090723_short_legged_dogUna sola mutación genética explica el porqué de que haya perros que tienen las patas cortas como los perros salchicha o los pequineses. Más aún, esta mutación ocurrió en las primeras etapas de la evolución artificial del perro doméstico. Elaine A. Ostrander del National Human Genome Research Institute (NHGRI) y sus colaboradores han examinado muestras de ADN de 835 perros, incluyendo 95 con patas cortas. Han estudiado más de 40.000 marcadores de variaciones de ADN específicos de los perros con patas cortas y han determinado que una sola mutación en el genoma canino es su responsable, un retrogen. Este estudio puede ayudar a estudiar el enanismo en humanos debido a la hipocondroplasia ya que en un tercio de los casos se desconoce su origen genético. Heidi G. Parker et al. “An Expressed Fgf4 Retrogene Is Associated with Breed-Defining Chondrodysplasia in Domestic Dogs,” Science Express, Published Online July 16, 2009.

Los investigadores han encontrado que los perros con patas cortas tienen una copia extra de un gen que codifica una proteína relacionada con el crecimiento llamada factor de crecimiento de fibroplastos número 4 (fibroblast growth factor 4, FGF4). Este gen copiado carece de ciertos intrones, partes del ADN, que aparecen en las copias normales. Este retrogen se introdujo en el genoma canino al poco de la separación evolutiva entre el lobo y perro doméstico, en alguno de sus primeros ancestros.

¿Qué es un retrogen? Un gen que codifica una proteína es un trozo de ADN que se transcribe en una molécula de ARN mensajero, que sale fuera del núcleo celular hasta alcanzar el citoplasma, donde los ribosomas lo leen y lo utilizan para ensamblar aminoácidos en la forma de la proteína codificada. Los retrogenes son trozos de ARN mensajero que en su camino encuentran algo, normalmente un virus de tipo retrovirus, que los transforman de nuevo en un trozo de ADN gracias a un proceso llamado transcripción inversa (a veces llamada reversa). Este trozo de ADN, que contiene la misma información codificadora de proteínas que el gen original puede insertarse en el genoma de la célula, en una posición muy alejada del lugar original. Dependiendo de donde se inserte, este trozo de ADN puede o no ser capaz de producir proteínas de nuevo. Si es capaz de hacerlo se denomina un retrogen.

En el caso de los perros de patas cortas, este retrogen conlleva una producción en exceso de la proteína FGF4 durante una fase incorrecta del desarrollo del feto del perro, lo que provoca un crecimiento incorrecto de las extremidades. Además, se produce una curvatura de las patas, enfermedad que los veterinarios llaman condrodisplasia o enanismo desproporcionado. 

Los retrogenes siempres han sido consideres como una fuente importante de variabilidad genética en seres vivos, pero este estudio es el primero en encontrar un retrogen en perros que haya conducido a cambios genéticos que se han mantenido evolutivamente durante mucho tiempo en la especie. En humanos hay una enfermedad llamada hipocondroplasia asociada a cierto tipo de enanismo. Se conoce el origen genético de dos tercios de los afectados por esta enfermedad, una mutación en el cromosoma 4p. Sin embargo, se desconoce la razón del tercio restante. Quizás este nuevo estudio pueda dar alguna luz al respecto.

Más información que he encontrado por la web: “Un descubrimiento sobre los perros podría dar pistas sobre el enanismo humano,” Noticias Terra, 16 julio 2009, y en EcuadorCiencia, 22 julio 2009. En inglés es muy interesante “FGF4, The Evolutionary Origin of Dachshunds, And What It May Tell Us About Human Dwarfism,” ScientificBlogging, July 16th 2009, y Laura Sanders, “Old gene, short new trick. Retrogene causes short legs in man’s best friends,” ScienceNews, July 16th 2009.

Mecánica cuántica, contexto y realidad

Dibujo20090721_Visualization_consecutive_measurement_three_observables_using_Mermin–Peres_square

Un objeto real tiene propiedades con valores bien definidos independientemente del orden en que sean medidas. La mecánica cuántica no es una teoría realista. Un sistema cuántico puede presentar propiedades cuyo valor medido depende del orden en el que sean medidas. Lanzas un cubilete con dos dados “cuánticos.” El valor que saldrá en cada dado es diferente si observas ambos dados simultáneamente o uno a uno. Técnicamente, la mecánica cuántica es contextual. El contexto de la medida (cómo se realiza ésta) influye en el resultado obtenido. Así lo han demostrado experimentalmente el sevillano Adán Cabello y sus colaboradores austríacos en el artículo técnico G. Kirchmair et al., “State-independent experimental test of quantum contextuality,” Letter, Nature 460: 494-497, 23 July 2009, como nos cuenta Boris Blinov, “Quantum mechanics: Hidden context,” News and Views, Nature 460: 464-465, 23 July 2009.

Un sevillano publicando en Nature es motivo suficiente para que muchos medios se hayan hecho eco de esta noticia. Por ejemplo, “Mediciones cuánticas: el sentido común no es suficiente,” Servicio de Información y Noticias Científicas, SINC de la FECYT, 22 julio 2009, “Un equipo internacional de físicos ha realizado en Innsbruck (Austria) un experimento con parejas de iones en el que se muestra que, independientemente del estado en que se preparen los iones, es imposible explicar lo que se observa en términos no contextuales, es decir, suponiendo que los resultados no dependan de otras mediciones compatibles que se hagan sobre el sistema.” Kanijo ha “fusilado” la noticia (no ha tenido ni que molestarse en traducirla). Y cómo no, ha sido meneada. Muchos otros se harán eco de esta noticia y la Francis, cual mula, no puede ser menos.

Kirchmair y sus colaboradores utilizan una técnica de medida sin demolición (QND o quantum non-demolition) que a diferencia de las medidas estándares no provoca el colapso completo (demolición) de la función de onda cuando esta representa estados entrelazados superpuestos. Este proceso es clave en el diseño de ordenadores cuánticos, donde las puertas lógicas cuánticas deben ser capaces de leer el estado de un cubit sin afectar a los demás en un registro de varios cubits. Como el gato de Schrödinger que está simultáneamente vivo y muerto (<vivo>+<muerto>), con dos dados “cuánticos” entrelazados tendríamos 36 posibles estados superpuestos (simultáneos) según la pareja de caras que salga al tirarlos <1,1>+<1,2>+…+<6,6>. Con una medida QND podemos medir uno de los dados sin destruir el estado de superposición obteniendo un nuevo estado <1,k>+<2,k>+…+<6,k>, donde <k> es el estado medido en el primer dado.

Kirchmair y sus colaboradores han estudiado experimentalmente una desigualdad de tipo Bell presentada en 1967 por Kochen y Specker para verificar la no contextualidad de la mecánica cuántica. Ya se demostró una desigualdad más sencilla, de Clauser-Horne-Shimony-Holt, que afirma que <A,B>+<C,D>+<A,C>-<B,D> <= 2, para toda teoría de variables ocultas, desigualdad que se viola desde el punto de vista cuántico, pero que aporta poco sobre el problema de la contextualidad. Kirchmair et al. han considerado estados <v1,v2,v3> donde vi es un valor en A,a,a,B,b,b,C,c, y c, y la desigualdad <A,B,C>+<a,b,c>+<a,b,c>+<A,a,a>+<B,b,b>-<C,c,c> <= 4, para toda teoría de variables ocultas, pero que la mecánica cuántica viola, resultando en un valor mucho mayor (las medidas de un valor de 5.46 +/- 0.03). [Para los que no entiendan la fórmula, donde <,> es la correlación]. Este tipo de estados permiten estudiar la contextualidad ya que se puede realizar hasta 3 medidas QND en 6 modos diferentes, que conducen a incumplimientos diferentes de esta desigualdad. Experimentos anteriores ya habían verificado la desigualdad (teorema) de Bell-Kochen-Specker. ¿Qué es lo nuevo? Los investigadores han demostrado que el resultado cuántico es independiente de cómo se preparen inicialmente los estados en superposición (y lo han demostrado con una certeza del 99% utilizando 10 formas diferentes de prepararlos).

Bohr vuelve a vencer a Einstein. Otra demostración más de que no hay ninguna teoría de variables ocultas clásica subyacente a la mecánica cuántica. ¿Qué queda por hacer en el futuro? Habrá que repetir este experimento con un nuevo diseño que permita que los estados en superposición se encuentren separados a una distancia suficientemente grande como para que actúe la no localidad de la mecánica cuántica.

¿Para qué sirve este trabajo de investigación? Su utilidad más directa es en sistemas de cifrado cuántico (basados en el transporte de portadores con tres estados cuánticos) o en las tecnologías de procesamiento de información cuántica que habrá que desarrollar en el camino hacia los futuros ordenadores cuánticos.

La teoría de cuerdas y el secreto de los superconductores de alta temperatura

Dibujo20090722_einstein_witten_ic_comparison_caricature_(C)_wired

Lo dijimos en este blog y ahora se afirma por doquier. Las técnicas matemáticas de la teoría de cuerdas están siendo aplicadas por físicos de la materia condensada que están buscando un nuevo camino teórico para entender la superconductividad. Hace un año y medio había menos de 20 artículos publicados sobre el tema. Ya hay workshops y conferencias internacionales y cada semana aparecen nuevos artículos. ¿Está el secreto de las superconductividad de alta temperatura oculto por el velo de la matemática de la teoría de cuerdas? Muchos han apostado por ello y están “empollando” teoría de cuerdas, hincando los codos en una de las ramas matemáticas más complicadas de la física matemática de finales del s. XX. Nos lo han contando muchos, por ejemplo, Eric Hand, “String theory hints at explanation for superconductivity. Baroque field gets fresh lease of life in condensed-matter physics,” Nature, News, Published online 19 July 2009. Hand se centra en el workshop que acaba de finalizar en el KITP (Instituto Kavli de Física Teórica, en Santa Barbara, California) “Quantum Criticality and the AdS/CFT Correspondence (June 29 – July 24, 2009),” coordinado por Sean Hartnoll, Joe Polchinski, y Subir Sachdev.

¿Eres un físico joven buscando un tema de investigación candente? No puedes permitirte el lujo de no descargarte los vídeos y las transparencias de todas las conferencias de este miniprograma del KITP. Y de estudiarlas. Toda una necesidad para los jóvenes… como tú. 

Tampoco puedes dejar de leer el ArXiv semanalmente, ya que los artículos sobre este tema están empezando a llover a mares. El último de Steven S. Gubser, Christopher P. Herzog, Silviu S. Pufu, Tiberiu Tesileanu, con un título de lo más comercial, apabullante, “Superconductors from Superstrings,” ArXiv, Submitted on 20 Jul 2009. Desafortunadamente, no soy experto, pero a mí me ha decepcionado. O se me escapa algo importante o es bastante flojillo.

Todo el que ha estudiado física ha soñado con descubrir el secreto de la superconductividad de alta temperatura. Yo no lo tengo. Y que yo sepa nadie lo tiene todavía. La teoría de cuerdas podría ser el secreto pero, antes de lanzar las campanas al vuelo, no hay que olvidar una cosa, el secreto podría estar donde menos se espera que esté, en la teoría convencional de la superconductividad. Podrían los pares de electrones (de Cooper) que interactuarían con las vibraciones del material (los fonones) de forma no lineal conduciendo a un comportamiento completamente inesperado en los superconductores de alta temperatura. No lo digo yo, lo claman algunas voces, otras afirman que esto es una tontería. Los fonones son muy importantes en algunos cupratos como nos mostraron D. Reznik, G. Sangiovanni, O. Gunnarsson, T. P. Devereaux, “Photoemission kinks and phonons in cuprates,” Nature 455: E6-E7, 2 October 2008 y en otros cupratos, T. Dahm et al., “Strength of the spin-fluctuation-mediated pairing interaction in a high-temperature superconductor,” Nature Physics 5: 217-221, 18 January 2009. También recomiendo la lectura en este sentido del más antiguo Feliciano Giustino, Marvin L. Cohen, Steven G. Louie, “Small phonon contribution to the photoemission kink in the copper oxide superconductors,” Nature 452: 975-978, 24 April 2008.

Francis, cual mula, no se moja, ni se lava las manos. Hace 22 años que se premió con un Nobel a la superconductividad de alta temperatura (descubierta en 1986). Hoy por hoy, ya se cuenta con un repertorio suficientemente amplio y variado de materiales con esta propiedad como para pensar que el secreto de estos materiales será desvelado en los próximos años. El cerco se está acotando. Lo dicho, ¿eres un físico joven buscando un tema de investigación candente? Adelante, es tu turno. Francis ya es viejo para reempezar desde cero.

Más en este blog sobre el complejo proceso de desvelar los secretos de la superconductividad:

Los “huecos” electrónicos se “desnudan” cuando se aparean en pares de Cooper hueco-hueco (Publicado por emulenews en Febrero 8, 2009).

El secreto de la superconductividad de alta temperatura cada día más próximo (Publicado por emulenews en Febrero 16, 2009).

Superconductividad observada en capas biatómicas de plomo (Publicado por emulenews en Mayo 7, 2009).

Resolución computacional de la paradoja de Fermi por Carlos Cotta de la Universidad de Málaga

Dibujo20090721_Fermi_paradox_hot_zone_explored_by_probes_from_or_to_Earth_in_million_years

Mucho se ha escrito sobre la paradoja de Fermi: No existe evidencia de que exista vida en nuestra galaxia, la Vía Láctea, pero probabilísticamente debería haberla. Carlos Cotta acaba de publicar un trabajo que dirigió como proyecto fin de carrera en la Universidad de Málaga a su ex-alumno Álvaro Morales. En concreto, “A Computational Analysis of Galactic Exploration with Space Probes: Implications for the Fermi Paradox,” Journal of the British Interplanetary Society 62:82-88, 2009 (ArXiv preprint, 2 Jul 2009). 

Imaginan el siguiente escenario: un proyecto SETI que decide lanzar cierto número de sondas espaciales desde la Tierra con objeto de alcanzar civilizaciones extraterrestres en nuestra vecindad galáctica. Las sondas tienen como misión explorar (aleatoriamente) la posibilidad de vida en los planetas de los sistemas estelares que vayan encontrando. Los resultados de sus simulaciones por ordenador son claros. Para sondas “razonables” (velocidad, masa, duración del combustible, etc.) es prácticamente imposible que acaben encontrando vida. Estas sondas deben tener suficiente combustible para permanecer encendidas durante millones de años para tener una probabilidad no despreciable de encontrar vida en nuestra galaxia, aún habiéndola como predice la fórmula (ecuación) de Drake.

Por supuesto, el estudio tiene muchas limitaciones y requiere ciertas hipótesis que podrían ser criticables o criticadas. Pero el resultado más importante de este estudio es darnos cuenta de lo inmensa que es nuestra galaxia. Tan acostumbrados estamos a películas como Star Wars o Star Trek que nos parece fácil recorrer la galaxia de punta a punta durante la vida de un humano. Sin embargo, poner los pies en la tierra nos lleva irremisiblemente a la paradoja de Fermi.

Un muy buen trabajo, Carlos, enhorabuena. Por cierto, os recomiendo también el artículo de Carlos “La paradoja de Fermi y el futuro de la Humanidad,” en su blog “La Singularidad Desnuda,” Agosto 15, 2007.

Por cierto, los interesados en este tema disfrutarán del último artículo de revisión de Milan M. Cirkovic, “Fermi’s Paradox – The Last Challenge for Copernicanism?,” Serbian Astronomical Journal 178: 1-20, 2009 (ArXiv preprint, 39 páginas, 20 Jul. 2009).

PS (04 de agosto de 2009): Muchos se han hecho eco de este gran trabajo, por ejemplo, “Fermi Paradox Points to Fewer Than 10 Extraterrestrial Civilizations,” ArXiv blog, Thursday, July 30, 2009, traducida magníficamente por Kanijo “La paradoja de Fermi apunta a menos de diez civilizaciones ET,” Ciencia Kanija, 30 de julio de 2009, noticia meneada que sorprendentemente para mí no ha llegado a portada (en mi opinión lo merecía).

PS (04 de agosto de 2009): El periódico ABC también se ha hecho eco de la noticia (por cierto, con gran número de faltas ortográficas en la versión publicada online): Judith de Jorge, “Diez visitas extraterrestres,” ABC.es, 4 de agosto de 2009.

No es posible observar la energía oscura utilizando diodos superconductores tipo Josephson

Dibujo20090721_Dark_Energy_measurement_using_Josephson_junction_microphotographied_here

Christian Beck y Michael C. Mackey propusieron en 2004 que la energía oscura podía ser medida en laboratorio. Más aún, había sido medida en laboratorio como fluctuaciones en el punto cero en diodos superconductores tipo Josephson. Publicaron el artículo en Physics Letters B. Muchos han criticado su trabajo como un sinsentido. Sin embargo, también ha tenido sus defensores. El último artículo de Vincenzo Branchina et al. pretende ser la respuesta definitiva al asunto. No es posible medir la energía oscura en laboratorio mediante este tipo de dispositivos. Sus argumentos son claros y rotundos. ¿Serán los definitivos? Sólo el tiempo lo dirá. El artículo técnico es Vincenzo Branchina, Marco Di Liberto, Ivano Lodato, “Dark energy and Josephson junctions,” ArXiv, Submitted on 16 Jul 2009, siendo el artículo original Christian Beck, Michael C. Mackey, “Could dark energy be measured in the lab?,” Phys.Lett. B 605: 295-300, 2005 (ArXiv preprint). Según su interpretación, la energía oscura ya fue observada en el experimento de R.H. Koch, D. van Harlingen and J. Clarke, “Measurements of quantum noise in resistively shunted Josephson junctions,” Phys. Rev. B 26: 74-87, 1982.

El argumento de Branchina et al. es sencillo, los investigadores que se toman en serio el trabajo de Beck-Mackey están interpretando mal el origen de las fluctuaciones de punto cero en el espectro de potencia del ruido en la corriente de diodos tipo Josephson acoplada a una resistencia. Un análisis sencillo permite interpretar este fenómeno sin recurrir a ningún fenómeno exótico (sea la energía oscura o cualquier otro). Su análisis muestra que, no solo nunca ha sido observada la energía oscura en este tipo de experimentos, sino que nunca podrá ser observada por este medio. Muchos ya lo habían afirmado, incluso publicado, como Philippe Jetzer, Norbert Straumann, “Josephson junctions and dark energy,” Phys.Lett. B 639:  57-58, 2006 (ArXiv preprint).

Todo esto me recuerda que muchos editores de revistas internacionales publican artículos polémicos, en el borde de los pseudocientífico, con el objetivo de que sean altamente criticados y altamente citados. ¿Buscando citas e índice de impacto? No sé me ocurre otra explicación.

A los mass media (p.ej. Malén Ruiz de Elvira, “El cosmos en el laboratorio,” El País, 12/03/2008) y a los blogs de divulgación científica nos encantan este tipo de noticias. Amigo lector, incluso Francis cae en este tipo de trampas muchas veces. Una visión crítica por parte del lector, siempre bienvenida, es fundamental.

Por qué los rusos no llegaron a pisar la Luna

Dibujo20090721_soyuz_1_vladimir_komarov_deceasedNingún ruso llegó a pisar la luna. El dinero que invirtió la unión soviética en su programa lunar fue diez veces menor que el invertido por los EEUU en su programa Apolo. La información secreta sobre el programa soviético para poner un pie en la luna se hizo pública oficialmente el 18 de agosto de 1989. La competencia interna (dentro de la URSS) entre diferentes equipos y laboratorios, rivalidades personales, alianzas políticas internas, e ineficiencias burocráticas, así como el bajo presupuesto para el programa, son los responsables últimos de los fallos y retrasos en dicho programa lunar. Una vez el programa Apolo tuvo éxito, el interés en ver a un ruso pisar la cara oculta de la luna, se desvaneció en el aire. Nos lo cuenta magistralmente Marcus Lindroos, “The soviet manned lunar program.” Permitidme abriros boca al respecto.

Los soviéticos empezaron con ventaja. En octubre de 1957 pusieron en órbita al Sputnik 1 y un mes más tarde a la perrita Laika, en el Sputnik 2. En 1959 lanzaron un satélite que colisionó, por error, con la luna (Luna 2) y con otro obtuvieron la primera foto de la cara oculta de la luna (Luna 3). El 12 de abril de 1961, Yuri Gagarin orbitó la tierra en la Vostok, lo que dolió bastante al presidente John F. Kennedy que el 25 de mayo de 1961 dio inicio al programa americano para poner un pie en la luna. Lyndon B. Johnson cogió el testigo y lo consideró prioridad absoluta para la NASA.

Sergei Korolev, máximo responsable de la Vostok (que llevó a Gagarin), le recordó en 1959 a Nikita Khrushchev que el programa espacial soviético estaba muy descentralizado y que no tenía objetivos a largo plazo. El premier soviético desoyó su propuesta de reorganizar todo el programa soviético. Además, le disgustó el comentario y decidió favorecer a su competidor, Vladimir N. Chelomei, especialista en misiles militares pero no en cohetes espaciales, jefe directo del hijo del propio Khrushchev. Chelomei inició un programa espacial paralelo al de Korolev liderado por Mstislav Keldysh y Valentin Glushko (enemigo acérrimo de Korolev). En 1962 Khrushchev asignó al grupo de Chelomei que preparara una misión que llevara a un hombre a orbitar la luna. No había un interés específico en que un ruso pisara la luna. Korolev preparó un programa similar, basado en naves Soyuz, que incluía como parte final, un ruso pisando la luna, pero fue rechazado en 1963. Khrushchev decidió favorecer a Chelomei.

Hasta el 3 de agosto de 1964 no se inició un programa para que un ruso fuera el primer hombre en pisar la luna. El objetivo, lograrlo en 1968, antes que el programa Apolo. Los americanos ya llevaban 3 años de ventaja. Como primer paso se aprobó que Chelomei iniciara un programa para que dos cosmonautas orbitaran la luna en octubre de 1967, 50 aniversario de la revolución bolchevique. En paralelo, Korolev lideraba un programa para que orbitaran la luna tres cosmonautas en una nave Vostok mejorada (el 12 de octubre de 1964 dicha nave orbitó la tierra). El politburó se cargó a Khrushchev y el nuevo premier Leonid Brezhnev estaba menos interesado aún en las misiones espaciales tripuladas. Aún así, Alexei Leonov el 18 de marzo de 1965 dio el primer paseo espacial (la última misión espacial tripulada durante los 2 años siguientes).

El programa lunar soviético tenía 3 cabezas separadas e independientes (los americanos a saco con un único programa, Apolo). Korolev abogaba por poner un hombre en la luna en 1968 (aprobado en mayo de 1965) utilizando cohetes L3 (L por Lenin). Chelomei abogaba por poner un hombre en órbita lunar, pero a Brezhnev no le gustaba porque era cercano “políticamente” al derogado Krushchev y el 27 de abril de 1966 su programa fue cancelado. Finalmente, uno de los segundos de Korolev, Babakin, se centró en llevar vehículos no tripulados a la superficie lunar. Las 3 misiones separadas tenían puesto su objetivo en 1968. Korolev murió en una operación quirúrgica el 14 de enero de 1966, le sustituyó otro de sus segundos Vasili Mishin (cuya confirmación como diseñador jefe del programa de Korolev tuvo que esperar a mayo de 1967).

Muchas tensiones políticas, pero el programa espacial soviético seguía logrando éxitos. En enero de 1967 la nave no tripulada Luna 9 aterrizó en la luna y tomó 8 fotografías de la superficie. Luna 10, el 2 de abril, fue el primer satélite artificial orbitando la luna. En 1967, Leonid Brezhnev decidió concentrar los esfuerzos del programa lunar soviético basado en la Soyuz bajo la dirección de Babakin, como contrapartida al programa Apolo americano. Pero la desgraciada muerte del cosmonauta Vladimir Komarov a bordo de la Soyuz 1, en abril de 1967, fue un duro varapalo tanto para el programa de las Soyuz como para el programa soviético en su conjunto.

Dibujo20090721_soyuz_5_boris_volynov_great_difficulties_after_landingUn programa americano con mucha financiación y un objetivo claro, retransmitir por TV la hazaña y humillar públicamente a los soviéticos, contra un programa soviético iniciado tardíamente, mal definido, y con terribles problemas de última hora. Tres días después de que Luna 15 se dirigiera hacia la luna, Neil Armstrong, Edwin Aldrin y Michael Collins entraban en el Apollo 11 delante de millones de personas del mundo entero. Mientras los americanos trataban de enterarse qué llevaba dentro la Luna 15 (no llevaba a personas, sólo a un robot lunar), esta sonda se estrelló contra la luna, el mismo día, 21 de julio de 1969, en el que Neil Armstrong era el primer hombre en poner un pie en la luna. Los soviéticos habían perdido la carrera.

Americanos triunfadores frente a rusos humillados. Mishin logró que el programa no fuera cancelado. No serían los primeros pero sí los mejores. Luna 16, tras muchos fracasos, el 12 de septiembre de 1970, logró retornar a la tierra muestras recogidas del suelo lunar (Mar de la Fertilidad). En octubre de 1970, Luna 17 logró aterrizar un vehículo robótico Lunokhod 1, que durante 9 mesees recorrió unos 11 km. en suelo lunar realizando análisis científicos y recogiendo muestras. Un gran logro si recordamos que el proyecto soviético de los Luna costó 10 veces menos que el proyecto Apolo-

Entre 1970 y 1972 los soviéticos trataron de poner a un ruso en la luna. Varios fallos reiterados con los cohetes a finales de 1970 y a principios de 1971, llevaron a Mishin a pensar que acabaría siendo imposible lograrlo. Su apoyo político fue decreciendo exponencialmente. Apolo 17, en diciembre de 1972, fue la última misión americana del programa hombre en la luna. El objetivo ahora eran los transbordadores espaciales. En mayo de 1974, Mishin fue destituido y reemplazado por Valentin Glushko (el gran enemigo de Korolev) que suspendió el programa lunar inmediatamente. La última sonda lunar soviética partió en octubre de 1976, pero ya los soviéticos estaban centrados en el desarrollo de su propia competencia contra los transbordadores espaciales americanos. La era lunar había tocado término.

Sobre la teoría MOND, la teoría general de la relatividad y sus tests experimentales

La aceleración es el concepto fundamental en la segunda ley de Newton. Milgrom modificó esta ley en su teoría de la Dinámica Newtoniana MOdificada (MOND) introduciendo un término cuadrático en la aceleración que se activa para aceleraciones muy pequeñas, pequeñísimas. ¿Se puede verificar la teoría MOND? No es fácil. ¿Hasta dónde se ha verificado la Relatividad General de Einstein? Permitidme una entrada dominical al respecto. Empezaremos con Shahen Hacyan “What does it mean to modify or test Newton’s second law?,” American Journal of Physics 77: 607-609, July 2009, y acabaremos con C. Lämmerzahl, “Why gravity experiments are so exciting,” The European Physical Journal 163: 255-270 octubre de 2008.

Un siglo después de que Newton presentara su segunda ley, muchos físicos y filósofos debatieron si el concepto de fuerza es fundamental o no. Llegaron a la conclusión de que la relación F=m*a (fuerza igual a masa por aceleración) es sólo una definición, la única cantidad que se puede medir sin ambigüedad es la aceleración. Si la masa es conocida, gracias a ella podemos calcular la fuerza. Si la fuerza es conocida, gracias a la aceleración podemos medir la masa. Lo que la segunda ley de Newton nos indica es que las leyes de la mecánica requieren sólo segundas derivadas de la posición, que basta la posición y velocidad iniciales para determinar unívocamente el movimiento. De hecho, en la física moderna (tanto en relatividad como en mecánica cuántica) el concepto de fuerza es muy poco utilizado (prácticamente ha desaparecido en dichas teorías, aunque se puede definir sin ninguna ambigüedad). Si la segunda ley de Newton no es fundamental, por qué no modificarla. La modificación más popular fue introducida por Moti Milgrom y se denomina teoría MOND (MOdified Newtonian Dynamics) o dinámica newtoniana modificada, haciendo referencia al hecho de que modifica la segunda ley de Newton. Milgrom la introdujo originalmente para explicar las curvas de rotación estelar en galaxias, normalmente explicadas aludiendo a la existencia de la materia oscura (aún por descubrir y/o confirmar).

Milgrom introdujo una modificación de la segunda ley de Newton para explicar el comportamiento de las estrellas lejos del centro galáctico. ¿Qué observamos? Que su aceleración es del orden de 10-10 m/s2, pero la ley de Newton de la gravedad nos da un valor muchos más pequeño. ¿Qué afirmó Milgrom? Que la relación F=m*a debe ser corregida con un término cuadrático en la aceleración que actúa sólo para aceleraciones muy pequeñas, del orden de a0=10-10 m/s2. En concreto, F=m*a debe ser substituida por F=m*f(a/a0)*a, donde f (a/a0)=1 para a>>a0 y f(a/a0)=a/a0 para a<<a0.

¿Qué significa la teoría MOND en el contexto de la teoría general de la relatividad, la teoría de la gravedad de Einstein? En esta última, el principio de equivalencia postula que la masa (como carga) gravitatoria y la masa inercial (en la fórmula F=m*a) son exactamente iguales. Los objetos masivos siguen geodésicas en la teoría de Einstein por este hecho. En MOND la ley de gravitación de Newton (o de Einstein) ha de ser modificada para aceleraciones pequeñas y el principio de equivalencia deja de ser válido.

¿Cómo verificar experimentalmente la segunda ley de Newton? El experimento que ha verificado dicha ley con mayor precisión es J. H. Gundlach et al. “Laboratory Test of Newton’s Second Law for Small Accelerations,” Phys. Rev. Lett. 98: 150801, 2007 (versión gratis en Purdue). Utilizaron una balanza de torsión para verificar la ley de Newton y observaron que se cumplía con precisión hasta aceleraciones de 10−13 m/s2. ¿Significa esto que MOND es incorrecta? No es tan fácil. El problema es que no podemos medir experimentalmente la fuerza, la masa y la aceleración de forma completamente independiente. Luego el resultado experimental no contradice los resultados de MOND. Bastaría asumir que la ley de Hooke ha de ser modificada para aceleraciones tan pequeñas y todo resuelto. Al fin y al cabo la ley de Hooke es sólo una ley fenomenológica para la fuerza.

MOND supera prácticamente todos los tests gravitatorios que se le aplican si se redefine correctamente la fuerza. ¿Quiere decir esto que MOND no es falsable? Hay algunos experimentos mentales que si se pudieran realizar físicamente podrían verificarla o falsarla, pero nadie lo ha logrado hasta el momento. Milgrom y sus seguidores tienen varios experimentos en mente que podrían falsar su teoría.

Lo maravilloso de MOND es que es extremadamente difícil de falsar. Por eso muchos blogs de divulgación científica “aman” a MOND (una posibilidad de que Einstein estuviera equivocado, el sueño de muchos). Un par de ejemplos. Kanijo es un gran aficionado a MOND: ¿Puede violarse en la Tierra la Segunda Ley de Newton?, Galaxia sin materia oscura desconcierta a los astrónomos¿Las galaxias enanas favorecen la gravedad modificada respecto a la materia oscura?, “Choque de trenes cósmico” confunde a los físicos de materia oscura, y La materia oscura podría surgir de forma natural a partir de la gravedad cuántica. Recientemente MiGUi le dedica ¿Es la segunda ley de newton incorrecta a escala cosmológica?. Y así muchos otros…

¿Si MOND es correcta entonces la Relatividad General (RG) es incorrecta? Sí, en el régimen de aceleraciones pequeñas donde MOND es aplicable. Hasta ahora nadie ha sido capaz  de encontrar una RG-MOND, teoría unificada que comprenda a ambas. Además, la teoría de Einstein ha sido verificada con una precisión increíble. El artículo Slava G. Turyshev (JPL) “Experimental Tests of General Relativity,” Annual Review of Nuclear and Particle Science 58: 207-248, July 3, 2008 (versión gratis en ArXiv). Un resumen lo tenéis en S. G. Turyshev, “Experimental tests of general relativity: recent progress and future directions,” Phys.-Usp. 52: 1-27, 2009 (versión gratis en ArXiv). Turyshev nos recuerda que, por el momento, la relatividad general ha superado todos los tests que se le han aplicado (supuesto que existen la materia oscura y la energía oscura, claro). Además, donde es fácil verificarla se ha verificado con una exactitud extraordinaria.

Dibujo20090719_General_relativity_tests_(C)_annual_review

Por supuesto, verificar la gravedad es extremadamente difícil (es una fuerza extraordinariamente débil). En muchos rangos experimentales verificar la teoría de Einstein es muy difícil, por lo que hay hueco para teorías alternativas.

Dibujo20090719_Not_tested_Well_tested_Poorly_tested_Etc_General_Relativity_(C)_annual_review

¿Por qué es tan excitante verificar la teoría de Einstein de la gravitación? La gravedad es la única fuerza fundamental que se aplica a todo, materia, energía, espacio y tiempo. Es la única teoría cuyos principios fundacionales están perfectamente claros. Es la única teoría en el camino más allá de la mecánica cuántica. Bueno, … tiene una belleza intrínseca de la que carece el Modelo Estándar de las partículas elementales. No sé, ¿qué opinas al respecto?