Francis en ¡Eureka!: Robots biomiméticos de Boston Dynamics

Dibujo20130331 boston dynamics

El audio de mi sección ¡Eureka! en La Rosa de los Vientos, Onda Cero, ya está disponible. Si te apetece escucharlo, sigue este enlace. Como siempre, una transcripción libre del audio.

Los militares necesitan robots capaces de moverse en un campo de batalla por un terreno con todo tipo de accidentes (arena, rocas, fango, nieve, etc). Los proyectos DARPA son los mayores impulsores de la robótica móvil¿Cómo se logra desarrollar este tipo de robots todo terreno? Los robots todo terreno son un gran reto para los ingenieros. Para diseñar estos robots se suele imitar el comportamiento de animales, es decir, se usa la  biomimética. La selección natural durante cientos de millones de años ha permitido que muchos animales evolucionen hasta adquirir sistemas de locomoción realmente sorprendentes y muy eficientes en consumo energético. Muchos ingenieros especialistas en robótica se inspiran o tratan de imitar estos sistemas de locomoción en sus proyectos. Siempre, el primer paso es estudiar la biomecánica del movimiento del animal, desvelar sus secretos para poderlos incorporar al diseño del robot. Hoy vamos a hablar de los robots biomiméticos de la compañía Boston Dynamics, fundada por el ingeniero Marc Raibert del Instituto Técnico de Georgia (el Georgia Tech) situado en Atlanta (EEUU), que recientemente ha sido noticia por la publicación en la prestigiosa revista Science de su último robot.

Lograr que un robot camine por la arena del desierto no es fácil. Muchos oyentes recordarán lo que le pasó a Spirit, el rover marciano de la NASA, que quedó atrapado en la arena de Marte en mayo de 2009. Spirit tenía seis ruedas todo terreno pero no pudo escapar. El nuevo robot de la compañía Boston Dynamics hubiera podido escapar de la arena por que no utiliza ruedas sino patas. Se llama RHex y es un hexápodo. Cada una de sus seis patas imita el movimiento de las patas del lagarto de cola de cebra (Callisaurus draconoides), un lagarto que se mueve a gran velocidad sobre la arena del desierto sin hundirse. El movimiento de las patas de este lagarto es parecido a las brazadas de un nadador en el agua de una piscina, casi es como si el lagarto «nadara sobre la arena». Los investigadores han estudiado en detalle las fuerzas que ejercen las patas sobre los granos de arena y las han utilizado para diseñar la forma y el algoritmo de control de cada pata del robot. RHex es un pequeño robot de 13 centímetros y 150 gramos, pero es capaz de moverse a 2,5 kilómetros por hora sobre arena. Si el rover Spirit hubiera tenido un diseño similar hubiera podido escapar de la trampa de arena marciana sin problemas.

Más información en «El ‘sprint’ de los lagartos inspira un robot para conquistar mundos arenosos,» esmateria.com, 22 Mar 2013, que incluye el siguiente vídeo.

Sigue leyendo

Altavoces con diafragma de grafeno para música de alta fidelidad

Dibujo20130330 graphene diaphragm for loudspeakers

Si se pueden utilizar nanotubos de carbono para fabricar una radio, por qué no usar grafeno para fabricar un altavoz; su bajísima densidad asegura una buena respuesta para frecuencias altas y su gran resistencia mecánica es ideal para las bajas. Dos físicos de la Universidad de California en Berkeley, Zhou y Zettl, han logrado fabricar un pequeño altavoz ideal con una respuesta en frecuencia excelente en todo el espectro audible (20 HZ – 20 kHz), mucho mejor que la mayoría de los usados en dispositivos móviles (audífonos, cascos de música, teléfonos móviles, ordenadores portátiles, etc.). La gran ventaja de los altavoces con diafragma de grafeno es que no requieren un dispositivo de amortiguamiento para evitar frecuencias no deseadas, gracias a su extrema delgadez utilizan el propio aire circundante, por lo que se reduce el consumo a sólo unos nanoamperios, mejorando en gran medida la eficiencia respecto a los altavoces convencionales. Quizás no falte mucho para que escuches música usando altavoces de grafeno. El artículo técnico es Qin Zhou, A. Zettl, «Electrostatic Graphene Loudspeaker,» arXiv:1303.2391, 10 Mar 2013. Más información divulgativa en Belle Dumé, «Graphene loudspeaker could rival commercial speakers and earphones,» Physics World, Mar 29, 2013.

Sigue leyendo

Nota dominical: El problema del viajante

Dibujo20130325 travel salesman - 13509 cities with more than 500 people in USA 1998

El problema del viajante consiste en encontrar el camino más corto que permite visitar una serie de ciudades conectadas por carreteras volviendo al punto de partida y visitando cada ciudad una sola vez. No hay ningún algoritmo eficiente para resolver este problema (que es NP-duro [1]). En 1950 los ordenadores permitían resolver un problema con 50 ciudades, en 1980 con unas 2300 ciudades y en 2006 se alcanzó el récord actual, 85900 ciudades (en la figura aparecen 13509 ciudades de EEUU). Los informáticos han tratado de descubrir algoritmos eficientes que aproximen la solución del problema. En 1976, Nicos Christofides (Imperial College, Londres) desarrolló un algoritmo eficiente que produce caminos cuyo coste excede al óptimo en menos del 50% [2]. ¿Se puede mejorar? En 2011, se logró mejorar el algoritmo de Christofides con un nuevo algoritmo eficiente que excede del óptimo en menos del 49,99999999999999999999999999999999999999999999999996 por ciento [3]. ¿Por qué ha costado tanto obtener una ventaja tan pequeña? Nadie lo sabe, pero resulta muy sugerente. Nos lo cuenta Erica Klarreich, «Computer Scientists Take Road Less Traveled. After decades without progress, new shortcuts are discovered in the traveling salesman problem,» Simons Foundation, Jan 29, 2013.

Referencias

[1] Richard M. Karp (Univ. California at Berkeley), «Reducibility among combinatorial problems,» pp 219-241 in «50 Years of Integer Programming 1958-2008,» Springer, 2010 [free pdf].

[2] N. Christofides, «Worst case analysis of a new heuristic for the traveling salesman problem,» Report 388, Graduate School of Industrial Administration, Carnegie-Mellon University, Pittsburgh, PA, 1976.

[3] Shayan Oveis Gharan, Amin Saberiy, Mohit Singh, «A Randomized Rounding Approach to the Traveling Salesman Problem,» IEEE 52nd Annual Symposium on Foundations of Computer Science (FOCS), 2011, pp. 550-559 [free pdf].

Los antiprotones de ATRAP (CERN) y la simetría CPT

Dibujo20130330 atrap result - cpt invariance - new limit

La Trampa de Antihidrógeno (ATRAP) es un pequeño experimento en el CERN cuyo objetivo es comparar la antimateria con la materia, en concreto, átomos de antihidrógeno (formados por un antiprotón y un positrón, o antielectrón) con átomos de hidrógeno (formados por un protón y un electrón). Acaban de publicar la medida más precisa del momento magnético del antiprotón, 2,792847356(23) veces el magnetón nuclear, que coincide con el del protón en al mentos cinco partes por millón (0,0005%), una nueva medida (directa) de la invarianza CPT [wiki]. Bajo condiciones muy generales, toda teoría cuántica de campos cumple el teorema CPT (aunque puede violar por separado las simetrías C, P, T, CP, etc.). La simetría CPT se puede verificar en los experimentos comparando las propiedades de las partículas y de las antipartículas, por ejemplo, la masa y la carga del protón y del antiprotón tienen que ser idénticas (son parámetros asociados al campo (en su conjunto) y no a las «componentes» del campo). La medida más precisa de la invarianza CPT corresponde al cociente de la masa entre la carga para el protón (p) y el antiprotón (pbar); sea κ=m/q, se midió en 1999 que κ(p)/κ(pbar) = (1 ± 9) × 10−11. Ello no quita interés a la nueva medida, pues la simetría CPT ha de ser verificada en cada uno de los posibles parámetros alcanzables por los experimentos. El artículo técnico es ATRAP Collaboration, «One-Particle Measurement of the Antiproton Magnetic Moment,» Phys. Rev. Lett. 110: 130801 (2013) [arXiv:1301.6310]. Se han hecho eco en Eric R. Hudson, David Saltzberg, «Viewpoint: Antiprotons Reflect a Magnetic Symmetry,» Physics 6: 36 (2013); y en Lubos Motl, «Antiprotons obey CPT within 5 ppm,» TRF, Mar 29, 2013. Por cierto, el artículo de 1999 es G. Gabrielse, A. Khabbaz, D. S. Hall, «Precision Mass Spectroscopy of the Antiproton and Proton Using Simultaneously Trapped Particles,» Physical Review Letters 82: 3198-3201, 1999 [pdf gratis].

Sigue leyendo

Cuántos grados calienta tu lata de cerveza la condensación de humedad en su superficie

En un día de verano, caluroso y húmedo, habrás observado que el líquido de tu lata de cerveza (o de refresco) se calienta al mismo tiempo que se cubre de una capa de humedad por condensación. Estimando el espesor de la capa de agua condensada en la superficie de la lata se puede estimar el incremento de temperatura del líquido. ¿Cuántos grados centígrados son debidos al calor latente de condensación? El cálculo (sin pérdidas) es sencillo. El área superficial de la lata es de unos 300 cm², por lo que la capa de condensación delgada, pongamos que con un espesor medio de unos 0,1 mm, contiene unos 3 gramos de agua. El calor latente de condensación del agua cerca de 0 ºC es de 600 cal/g, por lo que si todo el calor latente se transfiere a los 33 cl de líquido (supuesto que todo es agua), la temperatura sube en 3 * 600 / 333 ≈ 5,4 ºC. Por supuesto, este cálculo desprecia otros efectos y sobreestima el efecto de la condensación al no considerar ningún tipo de pérdidas. Un cálculo teórico detallado es más complicado. Lo más fácil es realizar el experimento en laboratorio bajo condiciones controladas. Y más fácil aún es que otros lo hagan por tí, como Dale R. Durran, Dargan M. W. Frierson, «Condensation, atmospheric motion, and cold beer,» Physics Today 66: 74-75, April 2013 [copia gratis]. Los detalles del experimento (realizado por estudiantes de grado) en Dale R. Durran, Dargan M. W. Frierson, «An experiment uses cold beverages to demonstrate the warming power of latent heat,» Physics Today, Supp. Info., March 28, 2013.

Sigue leyendo

Qué ha pasado con la nube de gas G2 que iba a caer en Sagitario A* este verano

Dibujo20130328 cloud g2 - galactic center stars - sgr a-star

Una nube de gas, llamada G2, de tres masas terrestres, se dirige hacia el agujero negro supermasivo del centro de nuestra galaxia, Sagitario A*. Cuando se descubrió en 2011 se estimó que en junio de 2013 alcanzaría el punto más cercano a Sgr A* de su órbita (a unas siete veces la distancia entre el planeta Neptuno y el Sol); a finales de 2012 se retrasó hasta septiembre de 2013. La última estimación, realizada por el equipo de Andrea Ghez (UCLA, Univ. California Los Angeles) este mes, retrasa el encuentro hasta marzo de 2014 (el equipo de Ghez estudia las estrellas que rodean a Sgr A* desde hace 20 años). Hay que destacar que entre octubre y febrero la observación por telescopios terrestres de Sgr A* no es posible, por lo que conviene que se retrase hasta marzo; aún así hay gran incertidumbre sobre cuándo ocurrirá. Las observaciones de G2 son muy difíciles y sin un modelo adecuado no es fácil predecir su trayectoria. Nos lo cuenta Ron Cowen, «Decade of the Monster. An infalling gas cloud and other new probes herald a revealing period for the Milky Way’s supermassive black hole,» Science 339: 1514-1516, 29 Mar 2013.

Sigue leyendo

Bacterias que reducen el óxido de grafeno en grafeno

Dibujo20130328 microbial reduction of graphene oxide

Un método muy utilizado para fabricar grafeno a gran escala es la reducción química del óxido de grafeno obtenido a partir de polvo de grafito. En el año 2011 se propuso el uso de bacterias Shewanella [1], en cuya respiración se transfieren electrones desde el interior de la célula hasta aceptores externos; en este proceso se utilizan las proteínas de membrana Mtr y Omc (en concreto, MtrA, MtrB, MtrC, MtrD, MtrE, MtrF, y OmcA). También se ha propuesto el uso de las bacterias Escherichia coli [2] y Pseudomonas aeruginosa [3], aunque no se conoce aún su mecanismo bioquímico responsable del proceso de reducción del óxido de grafeno en M-rGO (microbially reduced graphene oxide). Los autores de estos artículos consideran la gran ventaja de su propuesta en la «limpieza» medioambiental asociada al uso de bacterias en lugar de productos químicos «contaminantes» (obviamente, no sé si esta ventaja es suficiente para compensar todos los problemas asociados). Esta breve entrada está dedicada a J. J. Gallego @Raven_neo.

Dibujo20130328 survival pmef cells induced by m-rgo - micrographs

Referencias

[1] Gongming Wang et al., «Microbial Reduction of Graphene Oxide by Shewanella,» Nano Res. 4: 563–570, 2011 [copia pdf gratis].

[2] Sangiliyandi Gurunathan et al., «Microbial reduction of graphene oxide by Escherichia coli: A green chemistry approach,» Colloids and Surfaces B: Biointerfaces 102: 772–777, 1 Feb 2013.

[3] Sangiliyandi Gurunathan et al., «Biocompatibility of microbially reduced graphene oxide in primary mouse embryonic fibroblast cells,» Colloids and Surfaces B: Biointerfaces 105: 58–66, 1 May 2013.

¿Corrompe el factor de impacto a los jóvenes científicos?

Dibujo20130328 high impact paper vs low impact paper - cartoon

Hoy en día, un joven científico es evaluado en función del factor impacto de las revistas en las que publica y del número de citas de sus propios artículos. La calidad de su producción científica no se mide de ninguna otra forma. Por ello, muchos jóvenes científicos toman decisiones clave en su carrera académica en función del factor de impacto; decisiones tan importantes como en qué tema trabajar, en qué revista publicar y qué puestos académicos solicitar. La dependencia excesiva en el factor de impacto es perniciosa para los jóvenes, que son corrompidos por algo ajeno a la producción científica de calidad. Nos lo contaron Eve Marder, Helmut Kettenmann, Sten Grillner, «Impacting our young,» PNAS 107: 21233, Dec. 14, 2010.

Todo el mundo sabe, pero muchos olvidan, que el factor de impacto se inventó para ayudar a los bibliotecarios a decidir a qué revistas suscribirse. El factor de impacto da una idea aproximada de la influencia que tiene una revista científica en su campo. Utilizarlo para evaluar un individuo, un departamento, o incluso una institución es un abuso (como está demostrado en múltiples estudios). Como pasa con muchos asuntos pseudocientíficos, todo el mundo recuerda cuando funciona bien, pero se olvida muy fácil cuando falla de forma garrafal (y lo hace más a menudo de lo que a muchos les gustaría). Usarlo para evaluar a los científicos (jóvenes) no tiene ningún sentido, más allá del ahorro en costes (pues la evaluación la puede hacer una máquina en lugar de un par). 

La actividad científica se entronca en la creación y la difusión de nuevos conocimientos. La revisión por pares debe cuestionar si un trabajo se ha realizado con rigor, aplicando los controles apropiados y un análisis estadístico correcto, si los datos y el texto son claros y suficientes para la replicación de los resultados, y si los argumentos expuestos tienen sentido lógico. Más aún, los revisores también ponen hincapié en la importancia potencial y en la novedad de la contribución. Como es de esperar, estos factores son los más relevantes para la aceptación del artículo en las revistas de alto factor de impacto. Pero la novedad es una navaja de doble filo, pues a veces se opone a la importancia; un resultado inesperado suele tener consecuencias difíciles de predecir. Muchas veces es un error premiar a los investigadores jóvenes en función de las novedades que se cruzan (por casualidad) en su carrera científica. Más aún, puede ser un grave error penalizar a los que tienen un proyecto robusto, de mayor importancia y de mayor impacto global, pero carente de novedades a corto plazo. La ciencia de calidad no debería basarse en «burros que han tocado la flauta.»

La hipocresía inherente a la elección del factor de impacto como única herramienta para medir la calidad científica socava los ideales que subyacen al avance científico. Muchos jóvenes brillantes y creativos se desilusionan y abandonan su carrera científica al ver que otros jóvenes, por pura suerte, copan los pocos puestos académicos disponibles. Hacer demasiado énfasis en las publicaciones en revistas de alto factor de impacto puede ser una receta desastrosa para el futuro de muchos jóvenes.

¿Existe alguna solución? Lo ideal sería reemplazar el factor de impacto como único indicador de excelencia y utilizar la evaluación por pares siempre que sea posible. Más aún, a ser posible, que dicha evaluación incluya científicos de prestigio internacional. Se requiere más tiempo y más esfuerzo, pero todos los científicos (senior) en activo deberían estar dispuestos a participar en estas evaluaciones porque esta es la única manera de liberar a los jóvenes científicos de la tiranía del factor de impacto.

El coste real de las publicaciones científicas, ese gran desconocido

Dibujo20130328 open access - news dog

Se estima que la industria de las publicaciones científicas generó 9400 millones de dólares de beneficios en 2011, gracias a la publicación de 1,8 millones de artículos escritos en inglés. Por tanto, el beneficio medio por cada artículo alcanza los 5000 dólares. A esta cantidad hay que restar el coste de su gestión. ¿Cuánto dinero crees que le cuesta a una editorial publicar un artículo revisado por pares? En Nature son muy optimistas y afirman que los márgenes de beneficio son inferiores al 30%, con lo que estiman que el coste medio de producción de un artículo supera los 3500 dólares. La verdad, a mí me parece una cantidad muy grande. Los autores y revisores trabajamos gratis. El negocio de la industria de publicaciones científicas es todo un negocio. Un gran negocio. Cuando no se publican de forma abierta los costes y beneficios de un negocio de casi diez mil millones de dólares, algunos pensamos mal  (se nota que no he estudiado Ciencias Económicas). Nos lo cuenta Richard Van Noorden, «Open access: The true cost of science publishing. Cheap open-access journals raise questions about the value publishers add for their money,» Nature 495: 426-429, 28 Mar 2013.

La mayoría de las editoriales de revistas científicas de acceso abierto (open access) cobra a los autores un precio inferior al ingreso promedio de la industria. Se estima que el coste promedio de un artículo de acceso abierto en el año 2011 fue de 660 dólares (compara este número con los 5000 dólares de beneficio de la industria). Se estima que el coste promedio por artículo para la editorial de acceso abierto es de 300 dólares, con lo que se obtienen 360 dólares de beneficio (los márgenes superan el 50%, todo un negocio redondo).

Por supuesto, las cifras exactas son difíciles de conseguir. Los datos ofrecidos por las grandes editoriales son difíciles de analizar (pues hay que separar la parte correspondiente a publicaciones en revistas científicas, algo que no siempre es fácil). Se estima que Wiley tiene márgenes de beneficios del 40% y que Elsevier se queda en un 37%. Editoriales de acceso abierto como Hindawi afirman alcanzar un 50% de beneficios. El grupo Nature (NPG) se ha negado a publicar sus márgenes, incluso en un artículo en su propia revista. Un estudio del Cambridge Economic Policy Associates, afirma que las editoriales sin ánimo de lucro tienen márgenes del 20%, las universitarias del 25% y las comerciales del 35%. En mi opinión, pero repito que no soy experto, los costes de publicación de artículos científicos son mucho más bajos de lo que las grandes editoriales nos quieren hacer pensar.

La revista más grande del mundo, PLoS ONE, que cobra a los autores 1350 dólares por artículo, acepta el 70% de los artículos que recibe. Muchos congresos han sido criticados por su alta tasa de aceptación. Las revistas prestigiosas suelen tener índices de aceptación mucho más reducidos. Physical Review Letters publica menos del 35% de los artículos que recibe (si los autores quieren que su artículo sea de acceso abierto deben pagar 2700 dólares). Nature y Science publican menos del 8% de los artículos que reciben. ¿Está relacionado el prestigio con la tasa de aceptación? ¿Debe costar más un artículo de acceso abierto en una revista más prestigiosa? La realidad es que es así, las revistas más prestigiosas suelen cobrar más.

Recomiendo leer la entrevista a Jason Priem, investigador postdoctoral en el Centro Nacional para Síntesis Evolutiva (NESCent), en Eva Rodríguez, «El acceso abierto es solo el primer paso hacia un cambio más profundo en la publicación académica,» SINC, 27 Mar 2013. «La publicación en acceso abierto es mucho mejor para el científico, ya que no renuncia a su derecho con varias editoriales y conserva la capacidad de gestionar su propiedad intelectual. ¿Por qué no se estandariza en todos los países este sistema de publicación de acceso abierto a las investigaciones financiadas con fondos públicos? Los contribuyentes subsidian muchas cosas con pagos adicionales para poder usarlas, como por ejemplo el transporte público. En el mundo web, la obligación de publicar en acceso abierto favorece los modelos de negocio accesibles frente a los modelos cerrados.»

Varias noticias de ciencia que te pueden interesar

Dibujo20130328 The lightest solid ever developed - graphene aerogel placed on a cherry flower

El material sólido más ligero del mundo es un aerogel de grafeno con una densidad de 0,16 miligramos por centímetro cúbico (sólo el doble de la densidad del hidrógeno) y menos denso que el helio. Este material esponjoso se fabrica por liofilización (congelación y posterior deshidratación por sublimación en una cámara de vacío) a partir de óxido de grafeno y carbono. El grafeno y sus derivadas son un gran pozo de sorpresas. Nos lo han contado Damien Gayle, «Scientists develop lightest solid material ever which can balance on top of a flower,» Daily Mail, 20 Mar 2013, Michael Rundle, «Graphene Aerogel Is The World’s New Lightest Material,» Huffington Post UK, 26 Mar 2013, y «Solid carbon, springy and light,» Nature 494: 404, 28 Feb 2013.

Dibujo20130328 The lightest solid ever developed - chao gao

Los interesados en los detalles técnicos de su fabricación y caracterización pueden consultar Haiyan Sun, Zhen Xu, Chao Gao, «Multifunctional, Ultra-Flyweight, Synergistically Assembled Carbon Aerogels,» Advanced Materials, AOP 18 Feb 2013, y Han Hu, Zongbin Zhao, Wubo Wan, Yury Gogotsi, Jieshan Qiu, «Ultralight and Highly Compressible Graphene Aerogels,» Advanced Materials, AOP 18 Feb 2013.

Dibujo20130328 honey bee on flower spl

Nueva posible causa del síndrome de despoblamiento de las colmenas. Una exposición simultánea a dos pesticidas de uso común en apicultura para matar el ácaro Varroa, que afecta a las abejas, llamados neonicotinoides y coumaphos, pueden afectar al sistema nervioso de las abejas, dificultando su aprendizaje y provocando que olviden el emplazamiento de sus fuentes de alimento. La magnitud de este efecto de los pesticidas sobre el síndrome de despoblamiento de las colmenas todavía no ha sido estimada, pero parece claro que se trata de un nuevo factor a tener en cuenta en este problema multifactorial. Nos lo han contado «Los pesticidas vuelven tontas a las abejas,» Ciencia, ABC.es, 27 Mar 2013, y Rebecca Morelle, «Neonicotinoid pesticides ‘damage brains of bees’,» BBC Science News, 27 Mar 2013. Los artículos técnicos, para los interesados en los detalles, son Mary J. Palmer et al., «Cholinergic pesticides cause mushroom body neuronal inactivation in honeybees,» Nature Communications 4: 1634, 27 March 2013, y Sally M. Williamson, Geraldine A. Wright, «Exposure to multiple cholinergic pesticides impairs olfactory learning and memory in honeybees,» The Journal of Experimental Biology, AOP Feb 7, 2013.

Dibujo20130328 Principle of a coherent amplifier network

Dibujo20130328 Schematic of an ADR system with fibre front end

Colisionadores de partículas compactos usando láseres. Los láseres de fibra óptica son muy compactos lo que permite integrar miles de ellos para obtener fuentes láser de muy alta potencia (petavatios), suficiente para utilizarlos para diseñar un colisionador de partículas compacto. P0r ahora todo se queda en un diseño teórico con gran número de inconvenientes prácticos (como el ajuste preciso de la fase de todos los láseres). Quizás el futuro de los grandes colisionadores como el LHC pase por estos nuevos diseños basados en láseres. Nos lo ha contado «Scientists propose revolutionary laser system to produce the next LHC,» PhysOrg, Mar 28, 2013, que se hace eco del artículo técnico de Gerard Mourou, Bill Brocklesby, Toshiki Tajima, Jens Limpert, «The future is fibre accelerators,» Nature Photonics 7: 258-261, 27 March 2013.

Dibujo20130328 optical image planet orbiting two stars

La primera imagen óptica de un planeta tipo «Tatooine» (que orbita dos estrellas) gracias a un telescopio del Observatorio Europeo Austral (ESO) en Chile. «Según han explicado los expertos, el objeto, llamado catchily 2MASS0103 (AB) b, tiene «una doble vida.» Es tan grande que también puede ser una estrella fallida con una órbita relativamente apretada alrededor de las estrellas binarias centrales. La imagen se tomó en noviembre del año pasado. El posible planeta tiene una masa entre 12 a 14 veces la masa de Júpiter, lo que lo coloca cerca de la línea divisoria entre planetas y enanas marrones; además, orbita a las dos estrellas una distancia de alrededor de 12,5 millones de kilómetros, por lo que podría haber nacido a partir del disco de polvo que las rodea. Nos lo han contado en «Obtienen la primera imagen directa de un planeta que orbita dos soles,» Europa Press, 27 Mar 2013. El artículo técnico es P. Delorme et al., «Direct imaging discovery of 12-14 Jupiter mass object orbiting a young binary system of very low-mass stars,» arXiv:1303.4525, 19 Mar 2013 (Accepted in A&A Letters).