Juegos de guerra virtuales para analistas militares y seguridad nacional

Han cambiado mucho los juegos de guerra desde que los militares norteamericanos empezaron a usarlos en los 1950. Von Neumann, dios y padre, les convenció. La película «Juegos de Guerra» nos los desveló. Incrédulos nosotros al ver sus ordenadores llenos de lucecitas y pantallas monocromas. Hoy, los analistas militares utilizan entornos virtuales con modelos de agentes estocásticos basados en comportamientos culturales para explorar todas las posibles consecuencias de sus acciones en conflictos militares reales. Simuladores de Afganistán y de su geografía física y sociopolítica, incluyendo individuos de todas sus etnias, incluso a terroristas suicidas. Simuladores que modelan todas las acciones posibles, no sólo las acciones militares, también las redadas policiales, propaganda política, construcción de escuelas, o quema de cultivos. Enemigos virtuales en el sentido más amplio. Second Life para militares. La lucha contra el terrorrismo organizado y sin organizar. Dinero a mansalva para mucha gente. Nos lo cuentan V. S. Subrahmanian, John Dickerson, «What Can Virtual Worlds and Games Do for National Security?,» Science 326: 1201-1202, 27 November 2009. Sí, en la mismísima revista Science. Tan nerviosos se han puesto que anuncian en papel Información Suplementaria que en realidad no existe. «There is no supporting online material for this Education Forum. The mention in print was an error.» No quiero pensar mal, pero cuando se trata de cosas de militares y además son militares norteamericanos, …

SOMA (stochastic opponent modeling agents). Mundos virtuales en los que el general de turno ensaya sus estrategias bélicas. Teoría de juegos. Juegos que modelan la distribución probabilística de «creencias» («belief state«) de cada agente virtual. Superordenadores dedicados a simular árboles de decisión enormes para simular a los diferentes agentes virtuales. Simuladores que retan al analista militar a situaciones extremas, en las que se ve obligado a utilizar sistemas de apoyo a la toma de decisiones, que logran reducir el número de posibilidades a considerar hasta en un 98%. Todo un mundo de informática y tecnología que mueve muchísimo dinero, mucho más del que podemos imaginar, entre lo secreto y lo posible, entre lo irracional y lo razonable.

Los interesados en más detalles pueden ojear en Google Books libros como Mark L. Herman, Mark D. Frost, «Wargaming for Leaders: Strategic Decision Making from the Battlefield to the Boardroom,» McGraw-Hill, New York, 2008, y Alexander W. Kott, William M. McEneaney, «Adversarial reasoning: computational approaches to reading the opponent’s mind,» Chapman and Hall, London, 2007. Juegos de guerra basados en teoría de juegos con información incompleta como la descrita en Robert J. Aumann, Michael Maschler, Richard E. Stearns, «Repeated Games with Incomplete Information,» MIT Press, Cambridge, MA, 1995.

El GPS del genoma: los genes Hox y cómo codifican la posición de una célula en el organismo

Todas nuestras células comparten el mismo genoma, sin embargo, nuestro cuerpo presenta miles de tipos de células diferentes distribuidos en cada uno de nuestros tejidos y órganos. ¿Cómo sabe una célula de un organismo multicelular dónde se encuentra? Gracias a su posición en los ejes de desarrollo del organismo, que vienen determinados por el estado de los 39 genes Hox que residen en la cromatina de nuestras células. Cada uno puede estar en dos estados, activo (ON) o inactivo (OFF), codificando un número binario. El resultando son 2^39 = 0,55 billones de posibles posiciones. ¿Qué combinación de genes Hox determina que un dedo sea índice, corazón o meñique? Las nuevas técnicas de secuenciación genómica están mostrando que la combinación exacta de genes Hox no es la misma para todas las células del dedo, sino que depende del tipo de célula (fibroblastos, células endoteliales, células musculares, células de grasa o de hueso). Las células recuerdan tanto su origen (la ubicación del sitio en el que se desarrollaron) como su posición final en el cuerpo. Estos mecanismos constituyen una especie de GPS para el genoma, como nos propone el artículo de Howard Y. Chang, «Anatomic Demarcation of Cells: Genes to Patterns,» Science, 326: 1206-1207, 27 November 2009. Este artículo es uno de los 6 artículos del número especial de la revista Science de hoy dedicado a este interesante problema que nos presenta Stella Hurtley, «Location, Location, Location,» Science 326: 1205, 27 November 2009.

El principio organizador de la diversidad celular en los organismos multicelulares es su posición anatómica. La posición de una célula dentro de nuestro organismo y la posición de los constituyentes de dicha célula dentro de ella determinan su tipo y las funciones que será capaz de desempeñar. Poco a poco se está empezando a desentrañar el código que almacena la posición de una célula, los genes que codifican las proteínas que las diferencian de otras células, gracias a los avances en genómica funcional. En concreto, el papel regulador de los genes Hox y su interacción con los estados de la cromatina como determinantes de la identidad posicional de cada célula.

El genoma es como un dispositivo GPS que codifica la posición de cada célula en nuestro organismo. Nuestras células están regenerándose continuamente, por lo que el genoma se enfrenta al problema de garantizar el perfecto funcionamiento de esta compleja organización durante toda la vida. Los descubrimientos recientes indican que la posición de la célula se determina en función de los ejes de desarrollo del animal, por ejemplo, los ejes antero-posterior (que va de la cabeza a la cola) y proximal-distal (cerca o lejos del tronco, en dirección a las extremidades y otros apéndices del cuerpo). La posición a lo largo de estos ejes es determinada por los genes Hox (u homeóticos). Estos genes codifican factores de transcripción que controlan la morfogénesis del cuerpo durante el desarrollo embrionario. Todavía no se ha descifrado cuáles son todos estos ejes y qué representa exactamente cada gen Hox. Se esperan grandes avances en su comprensión en los próximos años.

La explicación del «hat-trick» científico de Luis Serrano y la bacteria Mycoplasma pneumoniae

Para los que jugamos a los dardos, un «hat-trick» es cuando un jugador logra tres dianas. Supongo que J. Corbella utiliza su significado futbolístico, un jugador que marca tres goles en un solo partido. En cualquier caso Luis Serrano ha logrado un «´Hat-trick´ científico,» como muy bien nos relata J. Corbella en La Vanguardia, tres, sí, tres artículos en un mismo número de Science [visto en Menéame], que presentan el transcriptoma, metaboloma y proteoma de la bacteria Mycoplasma pneumoniae. Un hecho insólito por partida triple al que yo quise dedicarle una entrada, ayer, pero 24 horas sin Internet, gracias a la «amabilidad» de Orange, no me lo permitieron. Mi idea era contar este gran logro científico desde mi punto de vista, obviamente sesgado por mi formación e inquietudes. Aunque algunos me comparen con Sokal, el que quiera que me lea y el que no, que acuda a otras fuentes.

Por supuesto, en La Vanguardia también lo explican, copiando la noticia de la agencia Europa Press, «Desvelan la complejidad de la vida en la bacteria más pequeña analizada. La ‘Mycoplasma pneumoniae’ podría ayudar a los científicos a determinar la mínima maquinaria celular necesaria para la vida,» 26/11/2009 [también meneada]. A mí me gusta más la versión de El País, algo más europeista, «La vida es más compleja de lo que se esperaba. Investigadores europeos definen los requisitos de funcionamiento de una célula autosuficiente,» 26/11/2009. Faltaría más, mi mujer prefiere la versión de El Mundo, Rosa M. Tristán, «Estudio Español. En busca de una ‘píldora’ con vida. Revelan la complejidad de una célula mínima que podría servir de medicamento,» 26/11/2009. ¿Cuál prefieres tú? Todos los medios se han hecho eco de esta gran noticia… seguro que tú prefieres no seguir leyendo lo que yo pueda contar, en mi ignorancia, al respecto.

Lo que sigue es una traducción libre resumen de la Perspective de Howard Ochman y Rahul Raghavan, «Excavating the Functional Landscape of Bacterial Cells,» Science 326: 1200-1201, 27 November 2009. Obviamente se hacen eco de los tres artículos técnicos de los que uno de los investigadores principales es Luis Serrano: Marc Güell et al., Anne-Claude Gavin, Peer Bork, Luis Serrano, «Transcriptome Complexity in a Genome-Reduced Bacterium,» Science 326: 1268-1271, 27 November 2009; Eva Yus et al., Anne-Claude Gavin, Peer Bork, Luis Serrano, «Impact of Genome Reduction on Bacterial Metabolism and Its Regulation,» Science 326: 1263-1268, 27 November 2009; y Sebastian Kühner et al., Luis Serrano, Peer Bork, Anne-Claude Gavin, «Proteome Organization in a Genome-Reduced Bacterium,» Science 326: 1235-1240, 27 November 2009.

Mycoplasma pneumoniae es una bacteria procariota (sin núcleo) responsable de un 40% de las neumonías, infecciones respiratorias agudas, en niños. Se estima que en el mundo mueren 2 millones de niños al año por esta causa. Para los investigadores en genómica esta bacteria es una de las células más estudiadas ya que su genoma es el más pequeño conocido de una bacteria capaz de autorreplicarse sin ayuda y vivir fuera de un huésped. Ello permite que pueda ser cultivada en laboratorio (in vitro) y que se pueda estudiar la respuesta de su metabolismo ante cambios controlados en su medio de cultivo. Su genoma, de sólo 816.394 nucleóticos (bases), tiene 689 genes codificadores de proteínas (que estén anotados) y sólo 44 moléculas de ARN no codificadoras.

El metabolismo de una bacteria como M. pneumonie se suele comparar con el de la bacteria modelo Escherichia coli. Si un gen particular o una vía metabólica está ausente en el genoma de la bacteria, se suele asumir que esta bacteria no puede desarrollar dicha función metabólica y por tanto que dicha función no es requisito indespensable para la supervivencia de un organismo. Esta asociación uno a uno entre gen y función es más fe que ciencia, como han demostrado los tres artículos de Luis Serrano y colaboradores en Science. La organización de su red de proteínas (proteoma) y de su red de control de la transcripción (transcriptoma) es mucho más sutil y compleja de lo que se pensaba. Pocos podían pensar que se pareciera tanto a los mecanismos propios de las células eucariotas (con núcleo). Un genoma tan simple y a la vez tan capaz de desarrollar un metabolismo tan complejo. Esta es la gran sorpresa que se ha descubierto con el gran trabajo desarrollado por Serrano y sus colaboradores europeos.

El transcriptoma de este Mycoplasma es analizado en el artículo de Marc Güell et al. quienes han descubierto un transcriptoma muy complejo, similar al de las células eucariotas. Han encontrado 117 nuevos genes de ARN no codificantes,  identificado 341 operones, 139 de los cuales son policistrónicos (contienen más de un gen) y, para su sorpresa, observado que estos operones se dividen en 447 unidades de transcripción más pequeñas. El resultado es una maquinaria de control de la transcripción del genoma mucho más complicada de lo que se esperaba, ya que las bacterias con genomas pequeños se pensaba que tenían muy pocos factores de transcripción. 

El nuevo póster que todo biológo querrá tener colgado en su pared.

El metaboloma de M. pneumoniae es analizado en el artículo de Eva Yus et al. quienes han reconstruido la red metabólica de esta bacteria utilizando un «curado» manual basado en toda la información bioquímica, estructural y computacional disponible. Dicha red les ha permitido determinar el medio de cultivo mínimo que permite mantener con vida y cultivar a esta bacteria. La red metabólica descubierta contiene 189 reacciones químicas catalizadas por 129 enzimas que permiten sobrevivir a la bacteria en un medio mínimo que contenga sólo 19 nutrientes esenciales. Comparar las rutas metabólicas de esta bacteria con otras, como las de E. coli, muestra que tiene muchas menos rutas o redundancias, sin embargo, presenta muchas más enzimas que realizan más de una función. Esta multiplicidad funcional está regulada por el complejo transcriptoma encontrado por Marc Güell et al. Sorprende que, aunque siendo mucho más simple, las características generales del metabolismo encontrado son similares a las de otras bacterias, así como su capacidad de adaptarse y responder rápidamente ante cambios en la concentración de metabolitos en su medio.

El proteoma de M. pneumoniae es analizado por Sebastian Kühner et al. y también muestra una complejidad mayor de la esperada. Como ocurre con las células eucariotas, más del 90% de las proteínas solubles de M. pneumoniae son componentes de complejos protéicos, en concreto, 62 homomultiméricos y 116 heteromultiméricos (la mayoría desconocidos hasta ahora). Los investigadores también han estudiado la estructura tridimensional de 484 proteínas, han obtenido imágenes de microscopía electrónica (como la de abajo) y tomogramas celulares que permiten observar la organización y localización de las proteínas dentro de la bacteria. Es sorprendente que la red de interacciones entre proteínas se correlaciona pobremente con la organización del genoma y del transcriptoma. Hay genes adyacentes o que se expresan simultáneamente cuyas proteínas asociadas no interactúan entre sí. Inferir toda esta complejidad sólo a partir del genoma parece completamente imposible, más aún teniendo en cuenta el gran número de proteínas multifuncionales encontradas.

¿Cómo la evolución ha sido capaz de lograr un organismo tan simple regulado de una forma tan compleja? La opinión más obvia es que el genoma de esta bacteria ha evolucionado por reducción del número de genes. La acumulación de mutaciones perjudiciales en el genoma ha llevado a que los genes dañados hayan sido eliminados reduciendo así el tamaño del genoma. Conforme los genes se han ido perdiendo, su papel ha sido tomado por los genes restantes, quizás los que cooperaban con ellos en realizar las mismas funciones. Este proceso de sustitución ha conducido a una complicada red de regulación y al desarrollo de nuevas rutas metabólicas. En este sentido, esta bacteria considerada antes como ejemplo ideal de bacteria «simple» en realidad no lo es. Algo parecido puede ocurrir con las bacterias con los genomas más pequeños que existen, como la bacteria simbiótica Hodgkinia cicadicola, con sólo 144 kb (kilobases o miles de nucleótidos), que codifica sólo 15 ARN de transferencia (ARNt) para lograr especificar los 20 aminoácidos que requiere para sintetizar proteínas. Con toda seguridad muchos de dichos ARNt cumplirán funciones múltiples como las observada en el «hat-trick» de Luis Serrano y colaboradores en Science.

Paul Ginsparg, arXiv y 883.000 dólares de la NSF gracias a los estímulos de Obama

Paul Ginsparg, creador y principal «cerebro» del interfaz del servidor de preprints ArXiv (se lee como «archive» en inglés), sito en la Universidad de Cornell, ha recibido 883.000 dólares para un proyecto de 3 años financiado por la National Science Foundation (NSF) con objeto de mejorar ArXiv, dinero que proviene de los «estímulos» de Obama. Ginsparg es físico e informático y ha solicitado el proyecto para incluir búsquedas conceptuales y contextuales en su servidor, así como mejorar el interfaz de usuario y la gestión de sus bases de datos. ArXiv, creado en 1991 en el Laboratorio Nacional de Los Alamos (LANL), se transfirió en 2001 a la Universidad de Cornell, siendo mantenido por su servicio de biblioteca (Cornell Library). Cuenta con más de 600.000 artículos y con una tasa de envío de más de 5.000 artículos mensuales. Habrá que estar al tanto de los cambios que se incorporen… seguramente todos acabaremos agradeciéndolos. Enhorabuena, Paul. Visto en «Stimulus grant to enhance Cornell University’s science papers’ archive,» ithacajournal.com, November 27, 2009.

El primer año de vida de la teoría de la gravedad de Horava-Lifshitz

Lo primero, no soy experto. Lo segundo, quizás eso me permita ver los avances en la teoría de Horava-Lifshitz con ojos de niño. Los ojos de esperanza de un adolescente requieren una fuente. Una fuente que le ponga los pies sobre la tierra. Una fuente que nos resuma los avances y progresos sobre las ideas de Horava en este intenso primer año de vida. ¿Qué artículo elegir entre los cientos de artículos que se han publicado este año sobre dicha teoría? Uno reciente, ya que ha habido avances recientes. El que más me gusta, repito, no soy experto, es Elias Kiritsis, Georgios Kofinas, «On Horava-Lifshitz «Black Holes»,» ArXiv, Submitted on 28 Oct 2009. Aparentemente sólo sobre agujeros negros, pero incluye una introducción, en mi opinión muy buena y acertada, que es la fuente ideal para esta entrada. Los lectores de Investigación y Ciencia podrán leer un breve artículo de Zeeya Merali en el número de febrero de 2010 (en inglés aparecerá en Diciembre «Splitting Time from Space—New Quantum Theory Topples Einstein’s Spacetime«). Coincido con Lubos Motl, sin que sirva de precedente, en que dicho artículo no me gusta y lleva a equívocos. Supongo que la traducción al español en Investigación y Ciencia no logrará arreglarlos. En este blog ya hablamos de este tema en «Nueva moda entre los físicos teóricos: la teoría cuántica renormalizable para la gravedad de Petr Hořava,» 23 Junio 2009. Ya recomendamos las transparencias de la charla de Petr Horava en Strings 2009, Roma, “Gravity at a Lifshitz point”.

Obtener una teoría cuántica de la gravedad es muy fácil. Sabemos cuantizar la teoría de la relatividad general de Einstein y obtener un teoría cuántica de la gravedad consistente a energías menores que la escala de Planck. El problema es que dicha teoría predice lo mismo que la teoría de Einstein, las correcciones cuánticas son despreciables, luego no tiene ninguna utilidad práctica. ¿Qué pasa a la escala de Planck? A dicha escala, con energías miles de billones de veces más altas que las energías más altas que se alcanzarán en el LHC del CERN, a distancias tan cortas como una billonésima de billonésima de billonésima de metro, la gravedad cuántica se vuelve inconsistente. La curvatura del espaciotiempo es tan grande que la misma idea de espaciotiempo se tambalea. No se sabe cómo calcular nada utilizando la teoría cuántica de la gravedad. Lo único que se obtienen son infinitos. Nadie sabe como interpretar el significado (renormalizar) dichos infinitos para obtener un resultado finito.

Nadie sabe cómo estudiar el límite ultravioleta de una teoría cuántica de la gravedad. El límite ultravioleta corresponde a distancias en la escala de Planck. Ni siquiera la teoría de cuerdas permite calcular en dicho límite; hay que recordar que por ahora es sólo una teoría perturbativa, luego válida cerca pero por debajo de la escala de Planck. Las alternativas teóricas son muchas, pero todavía no sabemos cual acabará resultando correcta. Quizás todas son equivalentes entre sí y sólo muestran facetas diferentes de una misma teoría aún por descubrir. La teoría de cuerdas es una teoría invariante relativista, ¿es el espaciotiempo invariante Lorentz a la escala de Planck?

Como no sabemos nada sobre cómo se comporta la gravedad en la escala de Planck, en dicha escala podemos suponer que pasa casi cualquier cosa. La idea de Horava es que a dicha escala la invarianza de Lorentz de la teoría de la relatividad de Einstein no se cumple. En la escala de Planck el espaciotiempo tiene una invarianza de escala que rompe la invarianza Lorentz y permite que su teoría cuántica de la gravedad sea finita (renormalizable). La velocidad de la luz en dicha escala se vuelve infinita. La idea de Horava es que la invarianza Lorentz es dinámica o efectiva, aparece en el límite de energías más bajas que la energía de Planck, en el que la velocidad de luz se vuelve finita. Parafraseando el título del artículo de Scientific American, el espacio y el tiempo estarían «parcialmente» separados a la escala de Planck y unidos inexorablemente a energías más bajas.

La teoría de Horava-Lifshitz presenta ciertos problemas técnicos (matemáticos y físicos) para los que Horava propuso soluciones ad hoc sin justificación física (como no hay experimentos, la imaginación es la única guía). La teoría de Horava-Lifshitz tiene muchas versiones posibles, dependiendo de la técnica matemática que se use para resolver (al menos parcialmente) dichos problemas técnicos. Básicamente hay dos tipos de versiones en función de cómo varía el tiempo ante la invarianza de escala (el llamado lapso de tiempo). Se puede permitir una variación general (espaciotemporal) o una variación solo temporal del lapso de tiempo, las así llamadas versiones no proyectables y proyectables de la teoría. La versión original de Horava era proyectable. La teoría de Horava predice más cosas de las que a un físico le gustaría que predijera una teoría de la gravedad (por ejemplo, una partícula escalar). Por ello Horava introdujo un principio de equilibrio detallado para cargarse algunas de dichas cosas.

¿Cómo se puede comprobar si la teoría de Horava es correcta o no? Lo más fácil es estudiar sus consecuencias cosmológicas y astrofísicas. Los primeros trabajos mostraron que la teoría con el principio de equilibrio detallado no permite explicar la energía oscura del universo, conduce a una constante cosmológica errónea por muchos órdenes de magnitud. Además, la gravedad alrededor de una estrella (agujero negro) es muy diferente de la observada en relatividad general y el Sistema Solar no podría ser estable. El resultado fue interpretado por muchos como que la teoría de Horava no tenía ningún sentido físico. Sin embargo, pronto se descubrió que la culpa de todo esto la tenía el principio de equilibrio detallado. Una versión de la teoría sin este princpio parecía prometedora. Eso sí, hay que resolver los problemas matemáticos que dicho principio resuelve sin utilizarlo. Hoy en día hay versiones de la teoría de Horava con y sin principio de equilibrio detallado, y con lapso de tiempo proyectable o no. Los teóricos están estudiando actualmente qué propiedades generales de una teoría tipo Horava-Lifshitz garantiza que sea renormalizable (finita en la escala de Planck). Todavía queda mucho trabajo por realizar en este sentido.

La cosmología según la teoría de Horava es bastante curiosa. Como la velocidad de la luz es infinita en la escala de Planck, la teoría de la Gran Explosión (Big Bang) no necesita la inflación cósmica (se resuelven automáticamente los problemas del horizonte y la planitud del espaciotiempo). La gravedad de Horava corrige la gravedad de Einstein con términos en derivadas mayores del segundo orden (hasta sexto orden) que conducen a una asimetría en la polarización del fondo cósmico de microondas. Su existencia podría ser verificada o refutada por el satélite Planck, actualmente en órbita.

El problema más importante de las teorías de Horava-Lifshitz en sus múltiples variantes es su finitud (renormalizabilidad) en el límite ultravioleta (escala de Planck). Aunque Horava mostró que parecía que lo era (por el método de la cuenta de potencias) en realidad hay importantes problemas aún por resolver en el límite de acoplamiento fuerte. Por un lado, podría resolverlos la posibilidad de que la teoría sea asintóticamente libre (como la cromodinámica cuántica o teoría de los quarks). Sin embargo, esta posibilidad no está nada clara. Si la teoría lo fuera se resolvería el problema del acoplamiento fuerte, pero algunos creen que a costa de introducir términos en el límite infrarrojo (distancias grandes, donde la gravedad de Einstein es válida) incompatibles con las observaciones. Por ejemplo, la velocidad de la luz sería diferente para diferentes partículas elementales, algo incompatible con el Modelo Estándar.

Por otro lado, aparece una partícula (campo) escalar cuyo efecto en los cálculos (para acomplamiento fuerte) pone en entredicho la renormalizabilidad de la teoría. La ventaja de la teoría (su finitud) se va al traste. La solución de Horava era su versión proyectable de la teoría, pero dicha versión produce la generación de cáusticas y dominios cosmológicos que son incompatibles con las observaciones del fondo cósmico de microondas del satélite WMAP. Una versión muy reciente de la teoría de Horava proclamó haber resuelto este problema (D.Blas, O.Pujolas, S. Sibiryakov, «A healthy extension of Horava gravity,» ArXiv, 21 Sep 2009), sin embargo, estudios posteriores indican que su solución es sólo parcial y que el problema asociado al campo escalar continúa existiendo (A. Papazoglou, Th.P. Sotiriou, «Strong coupling in extended Horava-Lifshitz gravity,» ArXiv, 6 Nov 2009).

Un año de trabajo, cientos de publicaciones y mucho trabajo todavía por realizar para poder entender lo que darán de sí en los próximos años las teorías tipo Horava-Lifshitz. Una línea prometedora es ver dichas teorías desde el punto de vista de la dualidad. Hay versiones duales de teorías cuánticas de campos relativistas que son no relativistas. Quizás la nueva teoría tiene un dual relativista que resuelve algunos de sus problemas desde un enfoque nuevo. Otra línea prometedora es interpretar la teoría desde el punto de vista holográfico. Hablando de holografía, este es un buen momento, como cualquier otro, para mirar al infinito a través del estereograma que acompaña esta entrada (si no lo has hecho ya).

PS: Oriol Pujolàs, catalán actualmente en la Universidad de New York, nos presenta en «Non-relativistic Quantum Gravity,» una breve revisión del estado actual de la teoría de Horava-Lifshitz en una conferencia de 15 min. en el CERN Theory Group, 6 Nov. 2009.

Nuevos avances en la hipótesis del mundo de ARN como origen de la vida

La hipótesis del Mundo de ARN afirma que en las primeras etapas de la aparición de la vida en la Tierra, moléculas de ARN actuaron tanto como moléculas que almacenan la información genética como enzimas (ribozimas). La hipótesis requiere encontrar moléculas de ARN capaces de catalizar la replicación de otras moléculas de ARN. Shechner et al. han evolucionado in vitro, mediante técnicas de selección artificial, moléculas de ARN cuya estructura tridimensional es homóloga a la de proteínas capaces de replicar el ARN, incluyendo sus sitios acivos. Estas ribozimas que actúan como polimerasas bien podrían haber sido similares a las que dominaron el Mundo de ARN. Las ribozimas que actúan como ligasas y polimerasas son conocidas con anterioridad a este trabajo, pero los nuevos resultados sobre la estructura tridimensional completa de una de las ribozimas más interesantes complementa de forma ideal trabajos anteriores que sólo lograron obtener la estructura 3D del sitio activo de este tipo de ribozimas. Un fuerte impulso a la validez de la hipótesis del origen de la vida en un Mundo de ARN. El artículo técnico es David M. Shechner, Robert A. Grant, Sarah C. Bagby, Yelena Koldobskaya, Joseph A. Piccirilli, David P. Bartel, «Crystal Structure of the Catalytic Core of an RNA-Polymerase Ribozyme,» Science 326: 1271-1275, 27 November 2009, que complementa a la perfección trabajo previos como el de Michael P. Robertson, William G. Scott, «The Structural Basis of Ribozyme-Catalyzed RNA Assembly,» Science 315: 1549-1553, 16 March 2007, del que ya se hicieron eco muchos foros, como Patricia González, «La estructura de los orígenes,» Astroseti, 23-04-2007, cuya lectura desde aquí recomiendo a los interesados en más detalles.

Este nuevo trabajo determina la estructura tridimensional de una ribozima artificial, una ligasa de ARN de clase I, cuya tasa catalítica es de las más rápidas entre todas la ribozimas. Su estructura 3D recuerda a un trípode, con tres «patas» que convergen a una unión común. Esta estructura permite identificar todos sus sitios activos y comprender, de forma preliminar, cómo esta ribozima cataliza la replicación (polimerización) de otras moléculas de ARN. Sin embargo, no está claro si es capaz de autorreplicarse a sí misma, el Santo Grial de la hipótesis del Mundo de ARN, encontrar una ribozima capaz de autorreplicarse.

Fermi LAT detecta por primera vez la emisión de rayos gamma de alta energía en un microcuásar (Cygnus X-3)

Los microcuásares son sistemas binarios en los que una estrella de neutrones o un agujero negro acreta materia de su compañera y que presentan un chorro relativista transversal al disco de acreción. Por primera vez el telescopio espacial Fermi de rayos gamma ha sido capaz de localizar sin ambigüedad uno de estos chorros de alta energía en un microcuásar, Cygnus X-3, una poderosa fuente binaria de rayos-X. Se trata de una emisión variable cuyo análisis detallado permitirá conocer mejor la dinámica y formación de estos chorros relativistas en discos de acreción. El artículo técnico es A. A. Abdo et al. (The Fermi LAT Collaboration), «Modulated High-Energy Gamma-Ray Emission from the Microquasar Cygnus X-3,» Science Express, Published Online November 26, 2009. Este artículo coincide esta semana con otro que proclama prácticamente el mismo descubrimiento pero realizado por el satélite de la Agencia Espacial Italiana AGILE (Astro-rivelatore Gamma ad Immagini Leggero) que estudia con detalle las emisiones de rayos X de la región Cygnus. M. Tavani et al., «Extreme particle acceleration in the microquasar Cygnus X-3,» Nature, Advance online publication 22 November 2009 [disponible gratis en ArXiv].

Cygnus X-3 (Cyg X-3) es una poderosa fuente binaria de rayos X en la que un objeto compacto entre 10 y 20 masas solares orbita una estrella de tipo Wolf–Rayet. El objeto compacto podría ser una estrella de neutrones con un disco de acreción extremadamente masivo o un agujero negro. El espectro de rayos X de Cyg X-3 es inusualmente complejo y muestra hasta 5 estados claramente diferenciados de emisión. Este espectro es mucho más complejo que el del microcuásar más famoso, Cygnus X-1, que no presenta emisión de rayos gamma de alta energía (GeV). El artículo en Nature afirma que la diferencia entre ambos es la existencia de un mecanismo de aceleración de partículas  que periódicamente produce emisiones miles de veces más energéticas que las emisiones que se observan en su estado de reposo.

Los dos estudios publicados esta semana en Nature y Science se complementan mutuamente. El trabajo de la colaboración Fermi demostrando unívocamente que la emisión de rayos X de alta energía tiene a Cyg X-3 como fuente es importante porque está separado sólo por 30 arcmin. de un púlsar muy brillante PSR J2032+4127. Los investigadores han evitado el efecto de dicho púlsar tomando datos de Cyg X-3 sólo cuando su emisión es mínima, lo que reduce a sólo el 20% el tiempo de exposición del Telescopio de Gran Apertura (LAT) de Fermi. Además, se ha requerido de un análisis estadístico de los datos muy cuidadoso pero evitar toda posible ambigüedad.

En resumen, dos trabajos que nos permitirán confrontar mejor los resultados de los modelos de simulación de microcuásares con los resultados experimentales que tanto Fermi como AGILE están obteniendo de Cygnus X-3.

Un modelo matemático explica el origen de las especies por el acoplamiento entre la selección natural y la sexual

Sorprende que en el año 2009 todavía no se tuviera un modelo matemático sencillo en Ecología capaz de explicar el «misterio de los misterios» de Darwin, el origen de las especies. El sueco Pim Edelaar, miembro de la Estación Biológica de Doñana del CSIC en Sevilla, y sus colaboradores lo publican hoy en Science. Un modelo simple que explica cómo la selección natural y la selección sexual trabajan en conjunto para lograr la adaptación local y el aislamiento reproductivo que conduce a una nueva especie, incluso bajo un flujo de mutaciones genéticas importante. Las hembras prefieren los machos cuyos ornamentos sexuales mejor indican lo bien que están adaptados al medio. Un mecanismo de retroalimentación que no había sido descrito con anterioridad de forma tan sencilla y elocuente. El artículo técnico es G. Sander van Doorn, Pim Edelaar, Franz J. Weissing, «On the Origin of Species by Natural and Sexual Selection,» Science Express, Published Online November 26, 2009. El nuevo artículo es la culminación del trabajo que el primer autor, Gerrit Sander van Doorn, postdoc en el Instituto Santa Fe, Nuevo México, EE.UU., y actualmente en la Universidad de Berna, Suiza, desarrolló en su tesis doctoral en 2004, «Sexual selection and sympatric speciation,» PhD Thesis, 2004, PDF 24,30 Mb, bajo la dirección de Franz J. Wessing, y en especial del capítulo 8 de la misma. 

El origen de una especie (especiación) require una interacción entre procesos genéticos (diversificación genética) y procesos ecológicos (aislamiento reproductivo). El nuevo modelo matemático consiste en un sistema de dos ecuaciones diferenciales acopladas, que omitiremos, que describen cómo la selección sexual, las preferencias de las hembras por ciertos caracteres ornamentales de los machos, se acopla con la selección natural, la presencia de genes beneficiosos para la adaptación de la especie al medio, permitiendo resolver satisfactoriamente el problema de la divergencia de las especies. El modelo teórico es lo sencillo y permite un análisis dinámico (cualitativo y cuantitativo) detallado utilizando la técnica del plano de fases. El modelo muestra que las hembras prefieren a los machos cuyos ornamentos sexuales son los que mejor indican lo bien que están adaptados al medio. Esta preferencia sexual refuerza la selección natural por un mecanismo similar a un sistema de control retroalimentado. Sin este mecanismo, modelos anteriores son incapaces de explicar de forma sencilla la divergencia entre especies.

PS: Noticia en Europa Press y comentarios en Menéame.

PS (18 Dic. 2009): Ya ha aparecido el artículo de G. Sander van Doorn et al., «On the Origin of Species by Natural and Sexual Selection,» Science 326: 1704-1707, 18 December 2009, acompañado de una Perspective de Judith E. Mank, «Sexual Selection and Darwin’s Mystery of Mysteries,» Science 326: 1639-1640, 18 December 2009.

Gravedad Cero: Newton, Gauss, Birkhoff, Milgrom y la teoría MOND

Gravedad cero. Imagina, como Newton, que la Tierra fuera hueca y te encontraras en su interior. Estarías flotando, completamente ingrávido, como los astronautas en el espacio, pero por una razón diferente. En el interior hueco de una distribución esférica de masa el campo gravitatorio es nulo. Newton lo demostró geométricamente como muestra este extracto de los Principia. Considera un punto P en el interior y dos conos con el mismo ángulo que atraviesan el cascarón. Como la ley de la gravead decae con la inversa de la distancia al cuadrado y la cantidad de masa en el cascarón contenida en cada cono depende de la distancia al cuadrado, la fuerza ejercida en P por ambos cascarones es idéntica pero de sentido opuesto. Sea cual sea P, la fuerza gravitatoria en P debida al cascarón es exactamente cero. Obviamente cualquier objeto exterior al cascarón que rompa la simetría esférica, como la Luna o el Sol en nuestro ejemplo, introducirá una fuerza gravitatoria muy débil pero matemáticamente no nula.

La demostración de Newton es geométrica e intuitiva. La clave es que la fuerza de la gravedad se proporcional al inverso del cuadrado de la distancia. La masa en el punto P puede ser cualquiera, siempre que sea puntual (su volumen es muy pequeño comparado con el de la esfera hueca). En los primeros cursos de física es habitual presentar una demostración más técnica de este teorema de Newton basada en el teorema de la divergencia de Gauss. Por ende, aplicable a la fuerza de Coulomb dentro de una distribución esférica de carga eléctrica.

En la teoría de la gravedad de Einstein, la relatividad general, el teorema de Newton o el teorema de Gauss también son aplicables aunque con una ligera salvedad. En el punto P la masa ha de ser nula, ya que por muy pequeña que sea deforma el espaciotiempo a su alrededor y la distribución esférica de masa deja de serlo, la simetría esférica se rompe (salvo que P se encuentre justo en el centro). Este resultado de la gravitación de Einstein se llama teorema de Birkhoff y es aplicable incluso al universo entero en su conjunto. Sus aplicaciones son múltiples. Por ejemplo, permite demostrar que la gravedad de la materia puede frenar la expansión del espaciotiempo debida a la Gran Explosión.

El teorema de Newton-Gauss-Birkhoff no se cumple en todas las variantes de la gravedad que han sido propuestas en las últimas décadas. Una de las más famosas es la teoría MOND, una modificación empírica de la gravedad newtoniana propuesta en origen para explicar la curvas de rotación de las galaxias sin necesidad de recurrir a la materia oscura. Para campos gravitatorios muy débiles, la teoría MOND corrige la ley inversa del cuadrado de Newton con un pequeño término de aceleración. La teoría MOND no cumple el teorema de Newton-Gauss-Birkhoff. Todo punto P dentro de una distribución esférica de masa hueca sufre una pequeñísima fuerza en dirección hacia el centro de la distribución de masas. La gravedad cero deja de serlo si la teoría MOND es correcta. Los interesados en los detalles matemáticos de la demostración pueden recurrir a Reijiro Matsuo, su PPT «Does Birkhoff’s law hold in MOND?,» 2008, o su artículo técnico De-Chang Dai, Reijiro Matsuo, Glenn Starkman, «Birkhoff’s theorem fails to save MOND from non-local physics,» ArXiv, 10 Nov 2008, last revised 16 Jun 2009.

Seguramente pensarás que los efectos del incumplimiento del teorema de Birkhoff por parte de la teoría MOND son despreciables a escala galáctica y a escalas mayores, pero no es así, como nos han contado recientemente Reijiro Matsuo, Glenn Starkman, «Screening and Antiscreening of the MOND field in Perturbed Spherical Systems,» ArXiv, 18 Nov 2009. Las dificultades de la teoría MOND a la hora de poder describir el comportamiento de los cúmulos de galaxias y de los supercúmulos de galaxias (donde se requiere la presencia de materia oscura) están relacionados con este problema técnico, como nos cuentan Pedro G. Ferreira, Glenn Starkmann, «Einstein’s Theory of Gravity and the Problem of Missing Mass,» ArXiv, 6 Nov 2009.

Resulta curioso que el problema de una nueva propuesta como teoría de la gravedad sea la Gravedad Cero.

Esta la contribución de la Mula Francis a «El Carnaval de la Física en Gravedad Cero. Hoy 30 de noviembre con motivo de la primera observación por parte de Galileo de un objeto celeste con su telescopio.» He de confesar que me enteré de esta iniciativa gracias a MiGUi, que a su vez se enteró en un tweet de Ciencia Kanija. Menéame y otros foros se han hecho eco de la misma. Enhorabuena, Carlo (Ferri) y Roi (Oliva).

PS (29 Nov. 2009): Los interesados en una introducción breve a la teoría MOND de Milgrom disfrutarán de J.C. Fabris, H.E.S. Velten, «MOND virial theorem applied to a galaxy cluster,» Braz. J. Phys. 39: 592-595, [online]. 2009 [PDF gratis en SciELO].

Hace 5 años falleció Gregorio Millán, impulsor del desarrollo científico y tecnológico español

Hoy, 26 de noviembre, el profesor Gregorio Millán Barbany cumpliría 90 años de edad. Falleció hace un lustro uno de las personalidades que más contribuyó, por sus cualidades polifacéticas, al desarrollo científico y tecnológico español. Gregorio Millán inició su actividad investigadora en combustión (aerotermoquímica) gracias a su colaboración con Theodore von Kármán, padre de las ciencias aeronáuticas americanas y creador del Jet Propulsión Laboratory (JPL) del Caltech (Instituto Tecnológico de California), creando el Grupo de Combustión del INTA (Instituto Nacional de Técnica Aeronáutica). Gregorio Millán mostró con su ejemplo cómo se podía contribuir desde España al desarrollo de las ciencias aeroespaciales y facilitó el acceso a los foros internacionales y a la investigación en temas de gran importancia práctica a muchos ingenieros jóvenes españoles, entre ellos, a Amable Liñán, autor de su obituario en El País.

La figura de Theodore von Kármán, «el hombre capaz de entrar el último en una puerta giratoria y salir el primero,» es fundamental para el desarrollo científico y tecnológico español durante la segunda mitad del s. XX. Fue invitado por el profesor Esteban Terradas, director del INTA, en el verano de 1947, durante una breve visita de pocas horas a España, a impartir un ciclo de cuatro conferencias en otoño de 1948. Desde entonces el INTA y von Kármán iniciaron una relación de «amor» que permitió que muchos ingenieros aeronáuticos españoles se especializaran en prestigiosos centros de investigación de los Estados Unidos, como el CalTech, permitiendo la incorporación del INTA a la corriente aeronáutica mundial, incluyendo la celebración de dos importantes congresos científicos en España en 1955 y 1958. La financiación del grupo de investigación en combustión (aerotermoquímica) del INTA, a cargo del profesor Gregorio Millán (breve biografía), corrió en gran parte a cargo de la Oficina de Investigación Científica de las Fuerzas Aéreas de los Estados Unidos. Más detalles en Gregorio Millán, «Von Kármán y la investigación aeronáutica española,» y en los Paneles de Ingeniería Aeronáutica y Astronáutica. Los interesados en la historia del INTA pueden recurrir a Gregorio Millán, «Los orígenes del INTA

El Grupo de Combustión dirigido por Gregoria Millán ha dado lugar a figuras en este campo tan relevantes como Amable Liñán Martínez, autoridad mundial en el campo donde las haya. Becario de dicho grupo en 1958, Ingenierio Aeronáutico en 1960 por la Universidad Politécnica de Madrid, Aeronautical Engineer en 1963 por el CalTech, doctor en 1966, y catedrático de Mecánica de Fluidos desde 1965. Otras figuras en los Paneles de Combustión. La presentación del profesor Francisco Payri de la Univ. Politécnica de Valencia para la concesión de un Doctorado Honoris Causa a Liñán por dicha universidad, así como su discurso merecen una lectura. Amable parte de Prandtl (1904), von Kármán (1914), Millikan (1928), pasa por su padre científico Gregorio Millán (1948) y acaba glosando al espectacular Airbus A380.

Sirva esta entrada como homenaje de un servidor al padre de la aerotermoquímica (junto a von Kármán, por cierto, uno de los padres de la Matemática Aplicada en los EEUU).