Un sevillano, una cocina y un chorro líquido supersónico

Antonio Barrero Ripoll, investigador principal del grupo de de investigación en Mecánica de Fluidos de la Universidad de Sevilla es uno de los grandes especialistas españoles en física de fluidos, especialmente en micro y nanofluidos. José Manuel Gordillo Arias de Saavedra es uno de los miembros de su grupo de investigación, que lidera el proyecto de investigación “Mecanismos de generación de gotas, burbujas y espumas de tamaño micrométrico con aplicaciónes a procesos industriales,” en el que colaboran Detlef Lohse, de la Universid de Twente, Países Bajos, y su grupo, otro de los grandes investigadores europeos en micro y nanofluidos. José Manuel Gordillo, Detlef Lohse y sus colaboradores han publicado un interesante artículo en Physical Review Letters (PRL) donde demuestran que el impacto de un objeto pesado en la superficie de un líquido produce una cavidad de aire como estela del objeto que se conecta con el exterior a través de un estrecho cuello que colapsa y durante dicho colapso aparece un flujo del aire hacia el exterior que alcanza velocidades supersónicas. Como muestra la figura que abre esta entrada, se alcanzan números de Mach (Ma en la figura) superiores a la unidad (el número de Mach es el cociente entre la velocidad del aire que sale del cuello y la velocidad del sonido). Este experimento ya había sido realizado y estudiado por Worthington en 1897, pero entonces observó un flujo de aire a muy alta velocidad y nunca soñó que pudiera llegar a ser supersónico. Toda una sorpresa, sin lugar a dudas, ya que sorprende que se alcancen velocidades supersónicas en un experimento que puedes repetir fácilmente en tu cocina. Eso sí, para verificar que el flujo realmente es supersónico necesitarás cierto instrumental de laboratorio bastante avanzado.

El artículo técnico es Stephan Gekle, Ivo R. Peters, José Manuel Gordillo, Devaraj van der Meer, Detlef Lohse, “Supersonic Air Flow due to Solid-Liquid Impact,” Phys. Rev. Lett. 104: 024501, Published January 11, 2010 [ahora mismo el artículo es gratis, pero también puedes descargartelo en ArXiv, 29 Sep. 2009, y en la página web de Lohse). Se han hecho eco de este artículo muchísimos medios [hasta menéame]. La figura siguiente está extraída de Daniel P. Lathrop, “Making a supersonic jet in your kitchen,” Physics 3: 4, January 11, 2010 [enlace web], donde podréis disfrutar de un interesante vídeo. Los que de verdad quieran enterarse de qué va todo esto deberían recurrir al artículo Stephan Gekle, J. M. Gordillo, “Generation and Breakup of Worthington Jets After Cavity Collapse,” ArXiv, 29 Jul 2009 (enviado a J. Fluid Mech.), que además de la teoría, presenta resultados de simulaciones numéricas y está profusamente ilustrado con fotografías de este tipo de experimentos.

Como muestra la figura que abre esta entrada, el objeto al penetrar en la superficie del líquido un objeto con una velocidad de 1 m/s (3,6 km/hora) produce un cráter rodeado por una corona líquida con gotas en la superficie. El cráter se alarga conforme el objeto se hunde, formando un tubo que conecta el objeto con el exterior. Este tubo acaba cerrándose (colapsa). Justo en el momento en que este tubo colapsa (se cierra) se produce un chorro de aire supersónico que José Manuel y sus colaboradores han logrado medir con precisión. En la cavidad tras el objeto la presión es prácticamente la atmosférica (1,02 atm.). Tras el colapso completo del cuello se producen dos chorros de líquido, uno interior a la cavidad de aire en la estela del objeto que se hunde y otro hacia el exterior de la superficie del fluido. Estos chorros fueron descubiertos por Worthington a finales del s. XIX y por ello llevan su nombre.

¿Cómo han medido la velocidad del aire y han comprobado que es supersónica? Han utilizado partículas de humo que han iluminado con un láser (Larisis Magnum II, 1500mW) desde la parte de arriba (por donde entra el objeto) y han filmado el movimiento de las partículas de humo mediante una cámara de alta velocidad (Photron SA1.1) con la que han alcanzado 15.000 fotogramas por segundo. Gracias a la comparación entre fotogramas sucesivos han sido capaces de estimar con precisión la velocidad del aire. Las simulaciones numéricas permiten verificar que se han alcanzado velocidades supersónicas y son las que se han sido utilizadas para estimar la presión del aire dentro de la cavidad. Estas simulaciones se han realizado utilizando el método de elementos de contorno (Boundary Element Method). Un gran trabajo experimental, teórico y numérico, sin lugar a dudas.

El colapso del cuello y la geometría de la cavidad tras el objeto dependen fuertemente de la geometría (sección transversal) del objeto que colapsa. La belleza de este tipo de colapsos queda patente en el siguiente vídeo extraído de Oscar R. Enriquez, Ivo R. Peters, Stephan Gekle, Laura Schmidt, Michel Versluis, Devaraj van der Meer, Detlef Lohse, “Collapse of Non-Axisymmetric Cavities,” ArXiv, ArXiv, 14 Oct 2009. ¡Qué lo disfrutéis!

Los 24 problemas de Sean Carroll para los físicos de partículas del s. XXI

Hilbert propuso 23 problemas en 1900 para los matemáticos del s. XX. Se han resuelto 10, han obtenido respuesta parcial 6, tiene una solución asistida por ordenador 1, están sin resolver 2, y hay 4 que están formulados de forma demasiado vaga para que se pueda llegar a proclamar que se hayan resuelto algún día. Sean M. Carroll (no confundirlo con Sean B. Carroll) es físico teórico del CalTech (California Institute of Technology), muy famoso por su blog Cosmic Variance y reciente autor de un libro de divulgación sobre la naturaleza del tiempo “From Eternity to Here : The Quest for the Ultimate Theory of Time,” Dutton Adult, Jan. 2010 (los físicos también lo conocerán por su libro sobre relatividad “Spacetime and Geometry: An Introduction to General Relativity,” Addison Wesley, 2004).

Sean Carroll nos presenta en su blog un listado de los 24 problemas más importantes que los físicos de partículas elementales deberán resolver durante el s. XXI (por supuesto, en su opinión), “24 Questions for Elementary Physics,” 15 Jan. 2010. El powerpoint con las cuestiones lo podéis disfrutar aquí. Leyendo sus cuestiones me ha parecido muy acertada su selección, así que por eso os las recomiendo desde aquí.

Por cierto, buscando en youtube una serie de conferencias de un curso que impartió Sean Carroll sobre materia oscura, que no he encontrado, me he topado con una estupenda conferencia de Michael S. Turner, “The Dark Side of the Universe,” IHMC Florida Institute for Human Machine Cognition 2007 Evening Lecture Series, 01 oct. 2007. No puedo resistirme a colgar aquí el enlace.

PS (18 ene. 2010): Lubos Motl contesta a las 24 preguntas de Sean Carroll “a su manera” en “Answers to 24 questions by Sean Carroll,” The Reference Frame, January 17, 2010. Las preguntas de Cararroll son para reflexionar sobre nuestra ignorancia actual de la realidad física, pero Motl prefiere no reflexionar y contestar “a bote pronto.” El resultado como podéis leer es bastante descepcionante; aún así, pueden ser curiosas para algunos.

Un ordenador cuántico calcula los niveles atómicos de la molécula de hidrógeno con 20 bits de precisión

El cálculo exacto de las propiedades de moléculas en química cuántica requiere el uso de supercomputadores y está limitado a moléculas pequeñas, ya que el coste computacional crece exponencialmente con el número de átomos y el número de estados cuánticos posibles para cada átomo. Los computadores cuánticos analógicos permiten simular sistemas cuánticos generales y pueden ser aplicados a la resolución de problemas en química cuántica. Cada átomo y cada uno de sus estados requiere como mínimo un cubit. La molécula más sencilla es la de hidrógeno y su simulación más sencilla requiere considerar dos átomos y dos estados por átomo, luego requiere al menos cuatro cubits. El mexicano Alán Aspuru-Guzik y sus colaboradores han logrado por primera vez la simulación de los niveles de energía de la molécula de hidrógeno mediante un ordenador cuántico fotónico de cuatro cubits y un conjunto de puertas cuánticas. Mediante un conversor analógico-digital cuántico han logrado obtener los niveles de energía del hidrógeno con 20 bits de precisión (unos seis dígitos decimales de precisión). Por ahora sólo es una prueba de concepto, ya que la figura que abre esta entrada, espectacular donde las haya, ha requerido más de 100 horas de cómputo del ordenador óptico (tu ordenador clásico la obtendría en menos de unos milisegundos). Aún así, se trata de un gran avance en computación cuántica y un artículo que recibirá un gran número de citas en los próximos años. El artículo técnico es Benjamin P. Lanyon, James D. Whitfield, Geoff G. Gillet, Michael E. Goggin, Marcelo P. Almeida, Ivan Kassal, Jacob D. Biamonte, Masoud Mohseni, Ben J. Powell, Marco Barbieri, Alán Aspuru-Guzik, Andrew G. White, “Towards quantum chemistry on a quantum computer,” Nature Chemistry, Published online: 10 January 2010 [ArXiv preprint]. Se han hecho eco de esta noticia muchos foros, entre ellos nextbigfuture.com, sciencedaily.com, internetchemistry.com, y newscientist.com.

Los interesados en saber más sobre el uso de computadoras cuánticas en química cuántica disfrutarán del artículo de Carlos Amador Bedolla y Alán Aspuru Guzik, “Cuántica por Cuántica: química cuántica con computadoras cuánticas,” Educación Química, Julio 2008, que se puede descargar gratuitamente (enlace megaupload.com) gracias a Alejandro Díaz-Caro, “Química Cuántica con Computadoras Cuánticas por Carlos Amador-Bedolla y Alán Aspuru-Guzik,” Computación Cuántica, 5 de octubre de 2009. Los interesados en la computación cuántica en español disfrutarán con este blog de Danny y Alejandro. El artículo de Carlos y Alán utiliza palabras como “intrincamiento” (por entrelazamiento) poco usadas en español, pero está muy bien y se lee bastante fácil (está dirigido a profesores de química de secundaria). El artículo explica muy bien cómo un computador cuántico puede calcular los niveles atómicos de una molécula utilizando el algoritmo cuántico de estimación de fase, que permite digitalizar (en binario, dígito a dígito) el valor analógico de la fase de una función de onda que ha sufrido la evolución unitaria del hamiltoniano que modela la molécula estudiada. En la figura que abre esta entrada, el diagrama de barras corresponde a la cuenta del número de fotones que representa cada valor de cada uno de los 20 cubits. El celeste representa el “0” y el azul marino el “1” (¿por qué crees que el último cubit tiene un valor “o” tan “pobre”?).

Calcular los primeros niveles de energía de la molécula del hidrógeno no parece un gran logro. Todos los que han estudiado química cuántica han realizado el cálculo por el método de Hartree-Fock, seguramente sólo hasta primer orden. Los métodos más modernos se basan en funciones gaussianas correlacionadas y mediante ordenador permiten considerar miles de términos. De esta forma se pueden obtener hasta 30 dígitos exactos para los niveles de energía de la molécula del hidrógeno (o del helio), por supuesto, usando aritmética cuádruple y supercomputadores (estos cálculos tardarían meses en tu ordenador de sobremesa). Los interesados en los detalles de este tipo de cálculos disfrutarán del artículo de Wojciech Cencek, Krzysztof Szalewicz, “Ultra-high accuracy calculations for hydrogen molecule and helium dimer,” International Journal of Quantum Chemistry 108: 2191-2198, 27 May 2008.

La extensión del trabajo de Alán Aspuru-Guzik y colaboradores a moléculas más grandes que el hidrógeno encuentra un gran número de problemas. Han usado sólo 4 cubits, cada uno representa una función base (un posible estado de un átomo). Si hay N átomos y cada uno puede estar en M estados, se necesitarán NM cubits. Además de los cubits se necesitan una serie de puertas lógicas para simular la evolución de la molécula. Sin tener en cuenta ningún tipo de técnica de corrección de errores, se necesitarán del orden de (NM)5 puertas. Un número enorme para una molécula con gran número de átomos. Sin embargo, dicho número se puede reducir si se utiliza una técnica modular iterativa desarrollada por los autores de este trabajo (una especie de bucle). Su simulación con 4 cubits ha requerido un número efectivo de 522 puertas, aunque han implementado físicamente sólo unas pocas. El gran problema obviamente es aumentar el número de cubits (sin que la decoherencia destruya el cálculo antes de acabar). Para haceros una idea, los autores estiman que una simulación precisa de una molécula requerirá considerar unos 30 estados por átomo (o sea 30 cubits por átomo), luego aplicar su algoritmo al fulereno C60 requerirá unos 1800 cubits. Todavía no podemos soñar en lograrlo en las próximas décadas.

Láseres de yoctosegundos gracias a los grandes aceleradores de partículas

Un yoctosegundo es una billonésima de billonésima de segundo (10-24 s.). En la colisión de alta energía de dos iones pesados se producen pulsos de luz ultracortos de alta energía en el régimen de los yoctosegundos gracias a la producción de un plasma de quarks y gluones. Estos pulsos permiten estudiar las propiedades de dicho estado de la materia, que asemeja al estado del universo tras la inflación cósmica, que ocurrió en el primer yoctosegundo desde su origen en la Gran Explosión. Sin embargo, estos pulsos también pueden ser utilizados en aplicaciones prácticas. Un yoctosegundo es el tiempo que tarda la luz en recorrer un núcleo atómico. Los láseres de “yoctopulsos” (todavía sólo una propuesta teórica que tendrá que ser verificada experimentalmente) podrán penetrar en los núcleos atómicos y revelar en tiempo real muchas de sus propiedades. Es pronto para pensar en aplicaciones en mediciona o radiología, como ya se hace con la radiación sincrotón como técnica en radioterapia (en España tenemos la instalación ALBA), ya que en el mundo sólo hay dos fuentes capaces de generar yoctopulsos: el RHIC (Relativistic Heavy Ion Collider) en Brookhaven National Laboratory, EEUU, donde pueden colisionar iones pesados con masa hasta la del oro, y el LHC (Large Hadron Collider) del CERN, donde pueden colisionar iones pesados con masa hasta la del plomo. El artículo técnico que propone las fuentes de yoctopulsos es Andreas Ipp, Christoph H. Keitel, Jörg Evers, “Yoctosecond photon pulses from quark-gluon plasmas,” Phys.Rev.Lett. 103: 152301, 9 oct. 2009 [ArXiv preprint]. La presentación PPT de Andreas Ipp en el Vienna Theory Lunch Club, Nov 10, 2009, “Yoctosecond light flashes from the quarkgluon plasma,” es preciosa y muy bien ilustrada, os gustará. Se han hecho eco de esta propuesta muchos articulistas y blogueros, como physicsworld.com, nextbigfuture.com, y optoiq.com. Yo no quería ser menos, aunque no entraré en más detalles.

 

Publicado en Science: Objetivo domesticar a las avispas parásitas para controlar las plagas de nuestros campos

Los que no somos biólogos ni ingenieros agrícolas ignoramos muchas cosas que cuando nos las cuentan por primera vez nos hacen abrir la boca y exclamar. Yo no sabía que (se estima que) hay más de 600.000 especies de avispas parásitas, muchas más especies que de escarabajos. La mayoría de estas avispas son minúsculas pero tienen un importantísimo papel en el control natural de las plagas de insectos que azotan los ecosistemas naturales y los campos agrícolas. El Departamento de Agricultura de los EEUU estima que las avispas parásitas reducen los costes agrícolas de EEUU en al menos 20 mil millones de dólares anuales gracias a su control de especies invasoras. Los ingenieros agrícolas desearían poder domesticar a las avispas parásitas. Para lograrlo es necesario conocer en detalle su genoma. Pero el genoma de qué avispa si hay cientos de miles diferentes. Un consorcio de 157 investigadores decidió estudiar el genoma de tres especies de avispas parásitas del género Nasonia (Nasonia vitripennis, N. giraulti, y N. longicornis) y han publicado sus resultados en la prestigiosa revista Science. Nos lo cuenta de forma magistral Elizabeth Pennisi, “Entomology: The Little Wasp That Could. The sequencing of the genome of a parasitoid wasp promises to bring wider recognition to these tiny, underappreciated insects that play a crucial role in natural ecosystems and in agriculture,” Science 327: 260-262, 15 January 2010, que se hace eco del artículo técnico The Nasonia Genome Working Group, “Functional and Evolutionary Insights from the Genomes of Three Parasitoid Nasonia Species,” Science 327: 343-348, 15 January 2010. En español podéis leer la noticia en muchas fuentes, por ejemplo, en Miguel G. Corral, “El genoma de la avispa ‘cobaya’ de laboratorio,” El Mundo, Ciencia, 14 ene. 2010, y en “La avispa Nasonia, nuevo modelo de organismo para controlar plagas agrícolas y enfermedades,” SINC, 14 ene. 2010 [visto en Menéame].

Poco más puedo yo decir de lo ya dicho en los dos artículos que cito en español. Aún así no me resisto a indicar que en el año 2008 (publicado en PNAS) se estudió el código de barras de ADN de 2597 avispas parásitas de 171 especies diferentes y se encontró, para sorpresa de los investigadores, que en realidad había 313 especies diferentes. Por ejemplo, entre todos los ejemplares de la especie Apanteles leucostigmus, se descubrieron 36 especies diferentes. Y hay muchos otros ejemplos. La biodiversidad de las avispas parásitas es mucho mayor de lo que nunca se pensó. Actualmente se han descrito entre 50 y 60 mil especies (se estima que debe haber al menos 10 veces más). Además, el nuevo estudio genético ha descubierto varias cosas realmente curiosas. A mí me ha sorprendido que las avispas del género Nasonia presentan 450 genes que se encuentran en el genoma humano y que no se encuentran en el genoma de las moscas (del vinagre). Salvando las distancias es como si las avispas se parecieran más a los humanos que las moscas. Por eso os incluyo una figura con los resultados filogenéticos publicados en Science. Este árbol filogenético muestra las relaciones evolutivas entre todas las especies cuyo genoma ha sido secuenciado hasta el momento (parte A) y las relaciones entre las 3 especies de avispas parásitas secuenciadas (parte B). Lo dicho, poco más puedo y voy a decir.

Adivina adivinanza, cuál podría ser la primera prueba de física más allá del modelo estándar en el LHC del CERN este año

La manera más fácil de encontrar nueva física más allá del modelo estándar de las partículas elementales es buscarla en sucesos raros. Si la nueva física altera el resultado esperado una vez cada 10 millones, su efecto sobre un proceso raro que ocurre una vez cada millón de veces, es incrementarlo en un 10%, pero sobre un proceso común que ocurre una vez cada diez veces, el incremento es sólo de una millonésima. El problema de los procesos raros es que requieren muchos datos y esperar durante muchos años, para poco a poco ir recabando cada vez más datos.

Un mesón B es una partícula formada por un quark fondo (b de bottom) y otro quark más ligero. El Tevatrón del Fermilab y el LHC del CERN son fábricas ingentes de mesones B (en el primero se han producido miles de millones). Un mesón B es inestable y se desintegra rápidamente (en media en 1,6 billonésimas de segundo). Hay muchas maneras en las que puede hacerlo, cada una con una cierta probabilidad (BR o branching ratio). Para haceros una idea podéis consultar la información sobre los mesones B± publicada por el Particle Data Group. Un PDF con 141 páginas de información. Las maneras en las que se pueden desintegrar un mesón B según el modelo estándar aparecen en las páginas de la 2 a la 15. Sí, 13 páginas en las que en cada línea aparece un modo de desintegración y el límite experimental para su BR. Un tipo de desintegración bastante rara son las desintegraciones de un mesón B en un mesón K (formado por un quark extraño (s o strange) y otro quark más ligero) o en un mesón φ (formado por un quark extraño y un antiquark extraño). El BR de ambos procesos es del orden de 1 millonésima, es decir, se observan una vez cada millón de desintegraciones.

La colaboración CDF del Tevatrón ha hecho públicos los resultados de su último análisis de estos modos de desintegración en su página web (aún no está escrito el preprint correspondiente) y Tommaso Dorigo, como no, dedica dos entradas en su blog a analizarlos, “An appetizer: Rare B Decay Asymmetries,” January 12th 2010, y “New Rare B Decays Nailed By CDF: The Door To New Physics?,” January 13th 2010. No, no cantemos victoria, todavía no se ha encontrado nueva física, pero los resultados son un ejemplo ideal de lo difícil que es hacer nuevos descubrimientos experimentales en física de partículas elementales y de lo que podemos esperar del LHC del CERN durante este año.

Los modos de desintegración estudiados son (1) B0 → μ++ μ+ K*0, (2) B+ → μ++ μ+ K+, y (3) Bs0→μ++ μ+ φ. El nuevo resultado para las probabilidades de estas desintegraciones ha utilizado el doble de datos que un estudio anterior (publicado en ArXiv el 24 abr. 2008) y como aquel está en muy buen acuerdo con lo esperado para el modelo estándar (calculado mediante simulaciones de Montecarlo). En concreto, se ha obtenido (1) BR( B0→μ++ K*0) = [1.06±0.14(stat)±0.09(syst)]×10-6 , (2) BR( B+ → μ++ μ+ K+ ) = [0.38±0.05(stat)±0.03(syst)]×10-6 , y (3) BR(Bs0→μ++ μ+ φ ) = [1.44±0.33(stat)±0.46(syst)]×10-6.

Sí, se confirman los resultados del modelo estándar. ¿Entonces dónde está la noticia detrás de esta entrada? Lo más interesante es que los nuevos datos son suficientes para realizar, por primera vez, un estudio cinemático de la distribución angular de las partículas tras estas raras desintegraciones del mesón B. Los resultados aparecen en la figura de abajo (Tommaso en su blog utiliza otras figuras). No entraré en los detalles técnicos de lo que significan los ejes de la figura y las bandas verdes (Tommaso lo explica bien). La predicción del modelo estándar es la línea roja (colocada en el cero). Como podéis ver claramente los datos experimentales muestran dos puntos claramente separados de la línea roja, cuando la energía liberada en la desintegración (q) es baja (de unos 2 GeV). Los intervalos de confianza estadística para estos puntos no cruzan la línea roja. Estos datos (¿espurios?) podrían ser un indicativo de la existencia de nueva física más allá del modelo estándar. Este resultado apunta a que cierto coeficiente predicho por el modelo estándar tiene en realidad el signo opuesto. Parece algo muy sutil, pero esta evidencia de física más allá del modelo estándar es muy interesante porque el LHC del CERN producirá este tipo de eventos raros cientos de veces más a menudo que el Tevatrón, con lo que es posible que a finales de este año, el LHC podrá confirmar o refutar este resultado, que podría ser la primera evidencia de física más allá del modelo estándar obtenida en el LHC del CERN. 

Dedicatoria: esta entrada está dedicada a MiGUi quien comentó el 31 Dic. 2009, “Pero qué aguafiestas xD,” en respuesta a mi entrada “Por qué es difícil que se observe en 2010 un bosón de Higgs de baja masa en el LHC del CERN,” 31 Diciembre 2009.

El mejor algoritmo actual en un ordenador de hace 30 años es más rápido que el mejor algoritmo de hace 30 años en un ordenador actual

El titular es mi versión personal extrapolada de la siguiente cita:

“Over the past three decades, the progress in algorithms for the simulation of the Ising model has outperformed Moore’s law: running modern algorithms on 30 year old computers would be faster than running 30 year old algorithms on the fastest supercomputers of today!” L.D. Landau.

Extraída del artículo de Vinay Ambegaokar, Matthias Troyer, “Estimating errors reliably in Monte Carlo simulations of the Ehrenfest model,” Am. J. Phys. 78: 150-157, Feb. 2010 [gratis en ArXiv]. Por cierto, ya que estamos, me permito extraer también lo siguiente:

“Stanislav Ulam invented the Monte Carlo method in the 1940s when playing Solitaire while lying sick in bed. He wanted to know the probability of winning in Solitaire but was faced with the problem that with 52! ≈ 1068 different ways of arranging the cards he could never exactly calculate the chance of winning. He realized, however, that by just playing 100 games and counting the number of wins he could already get a pretty good estimate.” R. Eckhardt.

Publicado en Nature: Resuelto el misterio de la formación de galaxias enanas y el efecto de la materia oscura fría

Una simulación realmente preciosa, obtenida gracias al método SPH (Smoothed-Particle Hydrodynamics), que además resuelve uno de los grandes problemas del modelo de materia oscura fría (CDM) que se asume en el modelo cosmológico estándar. La materia visible influye mucho menos que la materia oscura en la formación de galaxias, salvo en las galaxias enanas, como han demostrado Governato, de la Universidad de Washington, Seattle, EEUU, y sus colaboradores. En las galaxias enanas la densidad de materia no crece conforme nos acercamos a su centro. Parecía imposible explicar este comportamiento utilizando sólo materia oscura (cuyo momento cinético controla el de la propia galaxia en formación). Ahora sabemos que no se pueden ignorar los efectos  de la materia ordinaria en la formación de las galaxias enanas. Las estrellas gigantes de vida corta que aparecen en las primeras fases de la formación galáctica acaban en espectaculares explosiones como supernovas que producen fuertes vientos que retiran gran cantidad de gas de las regiones de formación estelar. Este efecto tiene una contribución en el momento cinético de la galaxia enana en su conjunto mucho más importante de lo que se pensaba y permite resolver el problema de la incompatibilidad entre el modelo de materia oscura fría y la formación de galaxias enanas sin bulgo central. Nos lo cuenta Marla Geha, “Galaxy formation: Gone with the wind?,” News and Views, Nature 463: 167-168, 14 January 2010, haciéndose eco del artículo técnico de F. Governato et al., “Bulgeless dwarf galaxies and dark matter cores from supernova-driven outflows,” Nature 463: 203-206, 14 January 2010. Muchos medios se han hecho eco de esta interesante noticia como “Resuelven con supercomputadores un problema sobre la formación de las galaxias,” SINC, 13 ene. 2010, que nos aclara que “Un equipo internacional de científicos ha resuelto el problema que planteaba la teoría de la materia oscura fría sobre la formación de las galaxias, según publican esta semana en la revista Nature. Hasta ahora no se sabía porque la mayor parte de las galaxias no tenían tantas estrellas y materia oscura como plantea la teoría, pero simulaciones realizadas con supercomputadores revelan que se podría deber a la expulsión de materia tras las explosiones de las estrellas.”

Como nos cuentan en un editorial de la propia Nature: “Las observaciones muestran que la mayoría de las galaxias enanas no presentan un bulgo central, como el resto de las galaxias. Las galaxias enanas están compuestas de un disco estelar en rotación inmersos en el núcleo de un halo de materia oscura fría de densidad casi constante. Estas observaciones no encajan bien con las predicciones de los modelos teóricos de formación galáctica basados en la hipótesis de que la materia oscura fría domina este proceso, que invariablemente generan las galaxias con un bulgo central, una región esférica en la que la densidad de materia es mucho mayor y está formada por bariones (materia ordinaria) de bajo momento cinético y materia oscura, ambas que acretan hacia el centro galáctico (normalmente ocupado por un superagujero negro). Governato et al. han desarrollado simulaciones hidrodinámicas que resuelven esta paradoja. Las supernovas que se producen durante las primeras etapas de la formación galáctica generan fuertes corrientes de materia que reducen el momento cinético del gas, inhibiendo la formación del bulgo central y reduciendo la densidad de materia oscura en el centro galáctico.”

Los investigadores han utilizado el simulador galáctico Gasoline, basado en el método numérico llamado SPH (Smoothed-Particle Hydrodynamics) y en la simulación de sistemas gravitatorios de N cuerpos. La aplicación de dicho código a esta simulación ha requerido del uso de supercomputadores. La película que abre esta entrada muestra la evolución de la densidad del gas (en azul) en la región en la que se forma una galaxia enana, desde primeros momentos de la Gran Explosión hasta el presente. La región mostrada tiene un radio de 15 kpc y los colores más brillantes corresponden a las densidades de gas más altas. La película muestra gran número de chorros (outflows) debidos a la explosión de supernovas que reducen el momento cinético del gas del centro galáctico.

El cromosoma Y humano, el chimpancé, el lenguaje y la poesía

David C. Page, del Instituto Whitehead del MIT (EE UU), afirma que “el cromosoma Y humano es toda una caja de sorpresas. Tras secuenciar el genoma del chimpancé [que coincide con el humano en un 98,8%], todo el mundo se preguntó cuáles son las raíces genéticas del lenguaje y de la poesía. Ahora nos sorprende que las mayores diferencias estén en la producción de esperma [el cromosoma Y de ambas especies difiere en más de un 30%].” La secuenciación completa del cromosoma Y del chimpancé (Pan troglodytes), el primero logrado con este nivel de detalle, aparte del humano, y su comparación con este último está repleta de sorpresas. La divergencia entre los linajes de los humanos y chimpancés apareció hace sólo 6-7 millones de años (los cromosomas sexuales surgieron hace 200-300 millones de años). ¿Por qué son tan diferentes el cromosoma Y del hombre y del chimpancé? Realmente nadie lo sabe. Nos lo cuentan brevemente en español en Malén Ruíz de Elvira, “El cromosoma Y de humanos y chimpancés difiere en un 30%. La gran diferencia indica que el mecanismo genético masculino ha evolucionado mucho en los últimos seis millones de años,” El País, 13 ene. 2010 [visto en Menéame]. Dicho artículo se basa en Lizzie Buchen, “The fickle Y chromosome. Chimp genome reveals rapid rate of change,” News, Nature 463: 149, 13 January 2010, que se hace eco del artículo técnico Jennifer F. Hughes et al., “Chimpanzee and human Y chromosomes are remarkably divergent in structure and gene content,” Letter, Nature, Advance online publication 13 January 2010.

The Y is full of surprises. When we sequenced the chimp genome people thought we’d understand why we have language and write poetry. But one of the most dramatic differences turns out to be sperm production.” David C. Page.

Publicado en Nature:

Eres investigador y no has recibido un correo de Scientific Research Publishing (SRP) solicitando que envíes un artículo científico a alguna de sus revistas. ¡No me lo creo! El spam de SRP está de moda y en la revista Nature no se les ocurre otra cosa que comerles la … Huai-Bei Zhou, físico de la Universidad de Wuhan en China, quien afirma ser presidente de la editorial SRP, dice que ha sido un error. Que rellenaron la web de sus revistas internacionales con artículos plagiados de otras revistas de prestigio que tenían títulos similares. Que era sólo para probar el sistema informático. Que era temporal. Que no pasa nada. Lo demuestra que copiaron los PDF literalmente, sin ni siquiera cambiarles el nombre de la revista plagiada. ¿Para qué molestarse? Era sólo una prueba de los sistemas informáticos. Ya los han borrado. ¡Tras un año de pruebas! Por ejemplo, el primer número de la nueva revista Journal of Modern Physics (que apareció en 2009) plagiaba artículos publicados en el año 2000 en la revista New Journal of Physics del Institute of Physics (IOP) británico (esta revista es open-access, sus artículos son de descarga gratuita). Obviamente, tras la amenaza del IOP de emprender medidas legales en contra de SRP, dicho número ha sido borrado de la página web. ¿Importa? Nos lo cuenta Katharine Sanderson, “Two new journals copy the old. Volunteer with publisher says duplication was a technical ‘mistake’,” News, Nature 463, 148, 13 January 2010.

Varios miembros de los comités editoriales de las revistas de SRP han solicitado ser eliminados de dichos comités editoriales. Zhou afirma que conserva los e-mail en los que dichos investigadores aceptaron la invitación a formar parte de dichos comités y que se los enseñará a la revista Nature si es necesario (aunque aún no lo ha hecho). Dichos investigadores afirman que no entienden cómo están en dichos comités de revista. Que cuando recibieron un correo invitándoles a formar parte del mismo, confundieron el título de la revista y pensaron que era otra de título similar de gran prestigio. Que no se molestaron en leer nada más. Aceptaron directamente. Por ejemplo, uno de ellos, Kwang-Soo Kim, neurobiólogo de la Escuela de Medicina de Harvard, Belmont, Massachusetts, afirma que aceptó ser miembro del comité de la revista de SRP llamada Journal of Biophysical Chemistry, porque creía que en realidad le estaban invitando a formar parte del comité de la revista Journal of Biological Chemistry. “Estoy tan ocupado que no tuve tiempo de leer el correo electrónico con detenimiento,” dice Kim. Ahora ha solicitado que su nombre sea eliminado. Por cierto, el primer número de la revista Journal of Biophysical Chemistry contenía 4 artículos copiados literalmente de la revista Journal of Bioscience, de Springer, publicados en 2000.

¡Qué no has recibido ningún correo de Scientific Research Publishing (SRP)! Que no, que no me lo creo.