Los casi-agujeros negros parecen agujeros negros pero que no lo son

dibujo20090320blackholevsquasiblackholeinpenrosecarterdiagrams

Los astrónomos ven agujeros negros por doquier. Objetos pequeños, oscuros y muy pesados. Demasiado pesados para ser otra cosa que no sea un agujero negro. Carlos Barceló, del Instituto Astrofísico de Andalucía, un neozelandés y dos italianos nos proponen otra posibilidad. ¿Podrían existir regiones del espacio que no sean agujeros negros pero que parezcan agujeros negros para un observador lejano? Regiones del espacio sin horizonte de sucesos que para un observador externo le parezca que lo tiene. Su respuesta es sí, pueden existir. Además, sin necesidad de recurrir a teorías esotéricas. Por ahora es sólo un resultado teórico. Pero quien sabe. El artículo técnico es Matt Visser, Carlos Barceló, Stefano Liberati, Sebastiano Sonego, “Small, dark, and heavy: But is it a black hole?,” ArXiv preprint, 9 Feb 2009 (to be published in Proceedings of Science).

Astronomers have certainly observed things that are small, dark, and heavy. But are these objects really black holes in the sense of general relativity? The consensus opinion is simply “yes”, and there is very little “wriggle room”. We discuss an alternative: dark stars and quasi-black holes.

La figura muestra el diagrama de Carter-Penrose estándar para un agujero negro (izquierda) y el correspondiente a un casi-agujero negro (derecha). Se puede observar claramente (derecha) que no hay horizonte de sucesos reduciéndose la singularidad a un sólo punto en el infinito (futuro). La línea continua representa la superficie del objeto que colapsa durante el colapso. La línea punteada representa r = 2M(t), donde M(t) es la masa instantánea del objeto medida desde el infinito futuro (I+). Los detalles matemáticos del artículo no son complicados (para alguien que entienda estas figuras). 

¿Cuándo el colapso de una estrella conduce a un casi-agujero negro? Para ello se requiere que la materia de la superficie de la estrella que colapsa no caiga en caída libre (hipótesis habitual en el colapso) sino que se acelere (y mucho) durante el colapso, especialmente en sus etapas finales. En dicho caso, el resultado final no es un agujero negro, sino una región del espacio que aproxima la geometría del espacio-tiempo alrededor de un agujero negro, incluyendo efectos cuánticos como la radiación de Hawking. De existir, estos casi-agujeros negros serán muy difíciles de distinguir de una agujero negro verdadero. Sin entrar en más detalles os dejo la conclusión final, en inglés, del artículo.

In summary, what our calculation suggests is that it might be possible to have a black hole without having a black hole – a configuration that is a black hole for (almost) all practical purposes, but might be missing the one key ingredient of having a horizon. Deep issues of principle remain, and it will be very interesting to see how the whole area of black hole mimics develops over the next few years.

Jornada sobre Supercomputación en España – E.T.S.I. Aeronáuticos de Madrid

dibujo20090326jornadassupercomputacionetsiaeronauticosmadridMe gustaría poder asistir, pero no podré. Los interesados en la supercomputación disfrutaréis seguro con la

   2ª Jornada de Supercomputación

ETSI Aeronáuticos, Aula Magna, Universidad Politécnica de Madrid. 1 de Abril de 2009 .

9:40-10:00 Javier Jiménez. Apertura y presentación.

10:00-11:00 Víctor Muñoz

11:30-12:30 Luis Landesa “Supercomputing in Electromagnetics”

12:30-13:30 Jose Mª Cela

15:00-16:00 Sergio Hoyas “Channel 2000: simulando turbulencia con 2000 procesadores”

16:00-17:00 Gregorio Chillón “Lustre: A High Performance Open Source File System”

Las jornadas serán presentadas por Javier Jiménez (Sendín), uno de los grandes especialistas mundiales en turbulencia, aunque sea español, que pasa la mitad del tiempo en EEUU (Universidad de Stanford) y la otra mitad en España. 

Destacar, destacaré la charla del joven Dr. Sergio Hoyas, que prometer promete [CV]. Trabajó con Javier (Jiménez) y ahora se encuentra trabajando en la Politécnica de Valencia con Francisco Payri, especialista mundial en motores diesel, aunque sea español. El trabajo de Sergio, que ya ha pasado por 5 universidades, brilla, reluce. Sus simulaciones de turbulencia en el Mare Nostrum, que inauguraron científicamente dicha instalación, son espectaculares. “Realizó la que, hasta la fecha de hoy, es la mayor simulación de turbulencia de pared: 2100 procesadores que de forma continua trabajaron durante 6 meses, produciendo 25 TB (terabytes) de datos que todavía siguen siendo analizados.” Su artículo más citado es Hoyas S, Jiménez J, “Scaling of the velocity fluctuations in turbulent channels up to Re-tau=2003,” Physics of Fluids, 18: Art. No. 011702, JAN 2006 [versión gratis].

PS (GRACIAS, PABLO): Sergio Hoyas “atesora” un blog en el que nos cuenta sus “Desventuras de un científico en España.” Muy interesantes sus cuentos: “Sergebus, el mago computacional, intentó luchar contra Anecus, el monstruo que sustituyó a Aznarez, pero este le derrotó. Anecus fue más fuerte. Su absoluta falta de lógica y criterio desconcertó a Sergebus. El llevaba un hechizo muy fuerte, poderoso, costoso. Anecus, sin embargo, quería 20 hechizos, aunque fueran para conjurar palomitas de maiz. No valieron sus 12 hechizos, sus 30 conclaves de magos, el haber estado en cuatro universidades. Nada. Sergebus no se rindió. Está retirado, lamiendose las heridas, preparándose para el nuevo combate.” 

PS2 (6 abril de 2009): Parecer ser que Sergio Hoyas ha dado de baja su blog. Una pena. Parece que “El demonio del remordimiento” (accesible en la caché de Google) es la última entrada, fechada el 2 de abril. Sergebus vence a Remordimiento que implosiona, cual agujero negro que lo devora todo, devorando el propio blog.

La siguiente imagen parece una foto pero es el resultado de las simulaciones de Sergio. En una palabra, espectacular. Supercomputación a primer nivel mundial, hoy en día posible gracias a la Red Española de Supercomputación (hay un nodo “pequeñito” en Málaga).

dibujo20090326sergiohoyasjavierjimenezturbulencesimulation1

Los vídeos de la Primera Jornada, en 2008, están disponibles en la red. “Os recomiendo el de Javier Jiménez sobre turbulencia, el de Mateo Valero (Director del BSC) sobre tendencias en diseño de procesadores o el de Fernando Moreno (Instituto de Astrofísica de Canarias) acerca de las eyecciones solares de plasma.” Los vídeos son un poco largos (unos 200 Mb), pero merecen la pena.

Gracias, Fernando.

Atención, pregunta: ¿cuál de estos científicos es el mejor?

La siguiente tabla presenta el número de citas a los 10 artículos con al menos 10 citas de 10 científicos anónimos que tienen un índice-h de exactamente 10. ¿Cuál de estos científicos es el mejor?

dibujo20090325citationcountsfor10scientists

Sobre gustos no hay nada escrito. A algunos os parecerá mejor D, a otros B, e incluso a algunos E o F. ¿Cuál es realmente el mejor? Podemos mirar otros índices bibliométricos.

dibujo20090325bibliometricindicesfor10scientists1

Pocos habréis pensado que el científico A es el mejor, pero algunos índices bibliométricos así lo consideran. A la vista de esta tabla, quién pensáis que es el mejor científico. ¿El A, el D? Quizás otro.

Este es el gran problema de valorar la calidad de un científico utilizando solamente números, sin conocer su trabajo y como se contextualiza en su área de conocimiento. Este es el gran problema de la bibliometría y de la cienciometría. Cada índice numérico tiene sus problemas e inconvenientes. No existe EL índice. Lo correcto es utilizar un conjunto de índices lo más completo y diverso posible.

No divagaré más al respecto, pero a los interesados les recomiendo el artículo técnico, que se lee bastante fácil, de John Panaretos, Chrisovaladis Malesios, “Assessing scientific research performance and impact with single indices,” ArXiv preprint, 15 Jan 2009 .

We provide a comprehensive and critical review of the h-index and its most important modifications proposed in the literature, as well as of other similar indicators measuring research output and impact. Extensions of some of these indices are presented and illustrated.

Paul Krugman y la bajada en un 15% del sueldo de los funcionarios

dibujo20090324paulkrugmanNo sé para qué voy a tomar café algunas mañanas. Ahora me entero de que Krugman, Premio Nobel de Economía 2008, ha dicho en Sevilla que en España el Gobierno debería bajarle el sueldo a los funcionarios un 15%. ¿Cómo? Bueno no, me dicen que ha dicho que en España habría que bajarle el sueldo a todo el mundo un 15%, porque estamos en deflación, pero el Gobierno sólo puede hacerlo con los funcionarios. Así que nos ha tocado la china en el zapato. Obviamente, no me lo he creído. Ni creo que Krugman lo haya dicho (leo habitualmente sus artículos en El País) ni creo que estemos en deflación (aún). Pero me dicen que sí, que han quitado de la web el vídeo de la conferencia porque ha dicho que la situación económica española es “aterradora” (que decirlo lo dijo, se lo dijo a Zapatero aguándole el desayuno el 16 de marzo, literalmente, “terrific“) . No sé, no sé, quizás me tenga que quitar el vicio de tomar café algunas mañanas.

Vayamos por partes. La conferencia de Paul Krugman en Sevilla, invitado por la Confederación de empresarios andaluces, ya fue noticia de portada en Menéame que se hacía eco de CincoDias.com

Recesión. Paul Krugman: “El camino para España será doloroso o extremadamente doloroso.” El Premio Nobel de Economía, Paul Krugman, aseguró que la salida de la crisis en España será “extremadamente dolorosa”, por lo que abogó por una reducción de salarios y precios y consideró que España “necesitaría una deflación relativa del 15%” para salir de esta situación,” EP – Sevilla – 13/03/2009 .

Otros medios digitales también se hicieron eco de la noticia, como Elsemanaldigital.com 

EL ANÁLISIS DEL NOBEL. La conferencia de Krugman en Sevilla, un aviso serio a Zapatero. Paul Krugman dijo que la salida de la crisis será muy dolorosa para España recomendando reducción de salarios y precios ya que España necesitaría una deflación relativa del 15%.”

dibujo20090324paulkrugmanandzpSegún EP, Krugman, “tras reconocer que no es experto en política española” reconoció (como todo el mundo ya sabe) que “debido a su pertenencia al euro el camino que tiene España por delante es muy arduo y difícil.” Repito, “tras reconocer que no es experto en política española” afirmó que España “necesitaría una deflación relativa del 15 por ciento,” y auguró que si la UE crece entre un dos o tres por ciento “España pasará por una situación dolorosa de cinco a siete años.” Si la economía europea experimenta deflación “estaríamos hablando de reducir salarios y precios aún más por debajo de ese 15%,” una situación que “no ha ocurrido en ningún país desde la Gran Depresión,” por lo que España “tendrá una tarea enormemente difícil y complicada.”

¿Alguna otra fuente? Pedro de “No Quiero Ser Funcionario” asistió a la conferencia en Sevilla, como nos cuenta en “La crisis – y el camino para salir, por Paul Krugman,” 14 Marzo 2009 .

La sala estaba llena, un éxito absoluto en participación. Mi impresión tras la charla es que ni el mismo sabe como se puede salir de la crisis. Planteó dos posibles formas de afrontar la crisis, una en la que cree y otra en la que no debe ni plantearse. La primera, es lo que el llamó mitigación del impacto de la crisis, medidas que ayuden a rebajar los datos macroeconómicos. La otra medida es la transformación del mercado, no lo explicó en exceso, pero dijo que la crisis no se irá de hoy para mañana, o de este año para el próximo, será larga.

dibujo20090324paulkrugmanfaceandsmileJuan Torres López, profesor y exrectorable de la Universidad de Málaga, actualmente en “comisión de servicios” en la Universidad de Sevilla, quien tras su “gran” derrota en las elecciones, no pasó de la primera vuelta, optó por escribir un blog sobre economía, universidad y temas afines, nos habla de la conferencia y de las palabras de Krugman en “¿Bajar salarios?,” Sistema Digital, 21 Mar 2009 . “Las declaraciones de Paul Krugman sobre la situación de la economía española se están interpretando inadecuadamente.” Como España no puede devaluar su moneda y el mercado exterior de España se basa en productos con un buen precio y no en productos de gran calidad (“productos de bajo valor añadido, servicios de baja productividad, bienes pobres sin más atractivo que ser baratos”), la única manera de mantener el comercio exterior es mantener precios bajos, es decir, reducir los costes, es decir, reducir los costes salariales. Nos recuerda Juan que “lo que dice Krugman es de cajón. Y de hecho es lo que ha ocurrido en España desde la entrada del euro.”

“Quienes afirman que lo que necesita la economía española es moderar más los salarios lo que están proponiendo no es mejorarla sino mantenerla en una situación de dependencia, de deterioro y de empobrecimiento relativo y a medio plazo. La solución no puede venir por ahí. Este patrón es el que tiene una gran parte de culpa de que la crisis en España se esté manifestando con un mayor coste en términos de desempleo, de desigualdad y de pérdida de actividad productiva y empresarial.

La mejor respuesta a la crisis, la más efectiva que puede darse en estos momentos es incrementar los salarios, principalmente los indirectos y los diferidos que están vinculados al capital social que dinamiza las economías, y combatir la desigualdad. Lo demás solo nos llevará a empobrecernos y a agudizar los efectos letales de la crisis sobre el empleo e incluso la rentabilidad empresarial.”

Hablando de rebajas salariales, también llegó a portada en Menéame este artículo en Soitu.es de Paula Carrión, “¿Qué pensarías si te dicen que tu sueldo es excesivo?,” 16-03-2009 . “El debate sobre el recorte de sueldos lo trae Paul Krugman a España. En el último trimestre de 2008 los costes salariales subieron en nuestro país un 4,9% (datos publicados en el Instituto Nacional de Estadística (INE) que indican que el salario medio ahora se sitúa en 1.897 euros), pero en 2008 la inflación cerró por debajo del 1%, y por ello la patronal considera que los salarios no deben exceder esa cifra.” Datos alamartes si uno se olvida que “los sueldos subieron por las cláusulas de revisión salarial que se activaron por el aumento de precios en 2007 (del 4,2%) y durante los primeros meses de la crisis se ha despedido a gente con empleo de peor calidad -sobre todo de la construcción- por lo que quedan los salarios y los incrementos más altos. Previsiblemente en 2009 se moderen sustancialmente estos aumentos.”

Las ideas de Krugman, quizás porque es Premio Nobel, quizás porque es un “gurú” que predijo la actual crisis, o quizás porque su neoliberalismo “gusta” a muchos son asumidas por muchos como propias. Luis Fabián Márquez, coordinador en Sevilla de una mesa de expertos para tratar de encontrar soluciones para el mercado laboral, considera que “es una barbaridad que estemos en el contexto de crisis en el que estamos y que el sueldo de los funcionarios haya subido más de un 3%, aumentos que responden a una promesa electoral de Zapatero para compensar las congelaciones salariales de la ‘era Aznar’.”

Hay alternativas a despedir a los trabajadores:  congelar los salarios (como han hecho Seat, Repsol y miles de pequeñas empresas) y bajar los sueldos sólo de los altos ejecutivos (como ha hecho Fed Ex en Estados Unidos).

“¿Qué hay de los sindicatos en todo esto? Por lo pronto han pedido que en la revisión salarial de los convenios colectivos se incrementen más del 2%, que es la previsión de la inflación del Banco Central Europeo (BCE), como forma de reactivar la capacidad de compra y consumo por parte de las familias. Hay quien dice, sin embargo, que no hacen nada, que están agazapados detrás del Gobierno a la espera de que legisle en materia laboral. De hecho, de salir a la calle nada de nada: según datos del Ministerio de Trabajo el número de huelgas bajó el 11% de enero a noviembre a pesar del notable incremento del número de parados.”

A los españoles, por lo visto, lo único que nos mueve de nuestros asientos es que nos bajen los sueldos.

Conferencias en Málaga en las que colabora la Universidad de Málaga

Ciclo de Conferencias “2009. Año Internacional de la Astronomía”

LUGAR: Salón de Actos del Rectorado de la Universidad de Málaga, Av. Cervantes, 2, 29016 Málaga (en el Paseo del Parque).

INAUGURACIÓN AÑO INTERNACIONAL DE LA ASTRONOMÍA 2009

19 de febrero de 2009. 19:00 horas.  CONFERENCIA “El Universo primitivo”. Eduardo Battaner. Universidad de Granada.

4 de marzo de 2009. 19:30 horas. CONFERENCIA “Una mirada al cielo”. Fernando Atrio Barandela. Universidad de Salamanca.

12 de marzo de 2009. 19:30 horas. CONFERENCIA “Lo que sabemos del Universo”. Antonio Fernández-Rañada Menéndez de Luarca Universidad Complutense de Madrid.

La conferencia ha estado bien, pero “floja” de contenidos. Quizás es lo que se buscaba. Parecía una conferencia impartida para un público que escuchara por primera vez “palabros” tan extraños como “materia oscura” o “energía oscura” o “supernova”. Me hubiera gustado algo un poquito más técnico. Pero sobre gustos, ya se sabe, no hay nada escrito. Por cierto, Antonio pasaba de todo, pero el pobre Carlos (Criado) odiará de por vida a Windows: cada 10 minutos el mensaje de reinicio automático tras una actualización reciente en su portátil (que prestó a Antonio para la charla). Levantarse del asiento, acertar con el ratón y volver al asiento con cierta “cara de pena,” y tratando de que nadie lo notara.

La misma conferencia fue impartida por Antonio en la UNED, aquí tenéis la noticia y una entrevista visual.

18 de marzo de 2009. 19:30 horas. CONFERENCIA ¿Hay vida fuera de la Tierra?. Ute Lisenfeld Universidad de Granada.

Ute Lisenfeld, con el alemán como lengua nativa, habiendo sido Ramón y Cajal desde 2004 en el grupo de investigación de Eduardo Battaner y actualmente Profesora Titular, nos ha demostrado “vívamente” dos cosas. La primera, que tras 5 años en España habla “casi” perfectamente español pero lo escribe fatal. El planeta Martes, las bacterias prokariontas, y un sin fín de términos “españolizados” que no españoles, casi hicieron reír a algunos entre el público, que tuvieron que contenerse. Una pena para sus alumnos granadinos (salvo que dé las clases en inglés). Y la segunda, como no hay que preparar las transparencias en una conferencia. Muchísimo texto, quizás para poderlo leer (de hecho lo leía), durante la charla. Un tema, aunque sencillo, que no domina y que no tiene nada que ver con su investigación. Ella trabaja en el estudio del medio interestelar denso (polvo interestelar y gas molecular) en galaxias externas (en el marco del Proyecto AMIGA), en formación estelar en galaxias, halos gaseosas de galaxias y galaxias y su entorno, en general. ¿Por qué no ha hablado de lo que sabe? En mi opinión, una charla de “uno principianta” que ha cometido los “2 erorres” típicos de los principiantes. Espero que Carlos Criado se lo comente, al menos que una persona y no un corrector ortográfico automático le corrija el español. Una pena. 

25 de marzo de 2009. 19:30 horas. CONFERENCIA La formación de la Vía Láctea”. Emilio J. Alfaro Navarro Instituto de Astrofísica de Andalucía.

El presidente de la Sociedad Española de Astronomía nos ha deleitado con una charla a dos tiempos. El primero, más largo, una historieta sobre la historia de la astronomía observacional desde Galileo. Sus comentarios sobre Newton no me han gustado (por imprecisos y demasiada “prensa rosa”). El resto, flojo. El segundo, más corto, mucho más interesante. Nos ha hablado de la formación de  la Vía Láctea, el tema de la charla, presentando algunas animaciones de simulaciones por ordenador de sus ex-alumnos. Lo más interesante, el canibalismo galáctico, que ya nos contó su ex-doctorando David Martínez Delgado (según Emilio uno de los astrofísicos más geniales del mundo en la actualidad). El turno de preguntas muy curioso. Nos ha comentado que la SEA prepara un libro sobre los investigadores españoles que han publicado en Nature y Science como primeros autores, contando su historia y la de sus descubrimientos. El libro estará gratuito en Internet. Habrá que estar al loro… el libro promete.

4 de mayo de 2009. 19:00 horas. PRESENTACIÓN Mural “Historia de la Astronomía”. Carlos Criado y Javier Ruiz Universidad de Málaga. PROYECCIÓN PELÍCULA. Documental científico y Coloquio.

21 de mayo de 2009. 19:30 horas. CONFERENCIA “La muerte de las estrellas”. Pedro García Lario Agencia Espacial Europea (ESA).

Las patentes como fuente de financiación de las universidades

dibujo20090324periodicoadncaricaturaporrasEspaña es un país en el que se patenta poco dentro de las universidades. Las patentes “rentables” son una buena fuente de financiación para las universidades. Pero los “buenos” investigadores no tienen tiempo para perder rellenando solicitudes de patentes. El papel de las OTRI de las universidades es clave para facilitarles la tarea y no sólo en España. Un ejemplo bonito al respecto es la historia de la patente del método de recombinación de ADN de Cohen-Boyer, donde el papel de la OTRI de la Universidad de Stanford, California, fue fundamental. Nos lo comenta Rajendra K. Bera, “The story of the Cohen-Boyer patents,” Current Science 96: 760-762, 25 March 2009 .
 
Las conferencias y congresos internacionales sirven para que se conozcan personas que de otro modo nunca hubieran pensado que su trabajo tuviera algo en común. En 1972 así se conocieron en un congreso en Hawaii un médico de la Stanford University, Stanley Cohen, y un bioquímico de la University of California, San Francisco, Herbert Boyer. El trabajo de ambos era completamente diferente pero complementario, como el yin y el yang. Cada uno aportó su media naranja y tras unos meses de colaboración desarrollaron la técnica de recombinación de ADN. Su artículo, con otros 2 autores, se publicó en Proceedings of the National Academy of Sciences en 1973. Cohen y Boyer no estaban interesados en patentar su descubrimiento, un método de investigación básica. Además, no había costumbre de patentar en biología en los 1970s.

Niels Reimers, creador del Programa de Comercialización de Tecnología de la Stanford University en 1970, algo similar a las actuales OTRI, Oficinas de Transferencia de Resultados de Investigación de nuestras universidades españolas, jugó un papel clave en la patente. Reimens le insistió constantemente a Cohen durante todo un año.  Debía rellenar la solicitud de patente. Y lo hizo. El 4 November de 1974, Cohen y Boyer enviaron la solicitud de patente de su descubrimiento (una semana antes del fin del plazo legal para hacerlo, un año tras la publicación del artículo). 

El proceso de la patente no fue un camino de rosas. Patentar una herramienta biológica era algo muy difícil en aquella época. Al final se enviaron tres solicitudes de patente que acabaron siendo concedidas el 2 diciembre de 1980 (US Patent No. 4,237,224), el 28 de agosto de 1984 (US Patent No. 4,468,464) y el 26 abril de 1988 (US Patent No. 4,740,470). Las 3 patentes expiraron con la misma fecha simultáneamente (2 de diciembre de 1997) debido a que hacen referencia a la misma invención. Las 3 patentes se asignaron a la Universidad de Stanford aunque los derechos de explotación fueron compartidos con la Universidad de California. A finales de 2001, estas patentes habían dado un beneficio de 255 M$ (milliones de dólares) para ambas universidades obtenidos gracias a la concesión de licencias a 468 empresas biofarmacéuticas.

Cohen y Boyer inventaron el método, pero sin la persuasión de Reimers la patente nunca se hubiera solicitado. Reimers, tras 22 años en la OTRI de Stanford, pasó a dirigir la OTRI del MIT (1985-86), fundó la OTRI de la University of California, en Berkeley (1989-90) y la de la University of California, San Francisco (1996-98).

Las universidades norteamericanas nos llevan mucha ventaja en lo que ha comercialización de patentes se refiere. Por ejemplo, en el año fiscal de 2007, los mayores beneficios gracias a la licencia de patentes fueron obtenidos por las siguientes universidades: New York University (approx. 791.2 M$), Coloumbia University (135.6 M$), The University of California system (97.6 M$), Northwestern University (85 M$), y Wake Forest University (71.2 M$).  Cifras de escándalo.

En España, el ejemplo más parecido a la historia de Cohen-Boyer, valgan las distancias, es la patente de Margarita Salas, ya marquesa y próxima Doctora Honoris Causa por la Universidad de Málaga, de un proceso de amplificación de pequeñas muestras de ADN gracias a la ADN polimerasa que se produce cuando un virus (Ø29 o Phi29) infecta a un bacilo (Bacillus subtilis). Los beneficios de esta patente producen la mitad de los ingresos por royalties del Centro Superior de Investigaciones científicas (CSIC), la institución que más patentes solicita en España. Por la patente de la doctora Salas, el CSIC ha ingresado desde 2003, año de la explotación plena del producto, 3.750.596 euros, cifra que la convierte en una de las más productivas de España, país en que se tramitan unas 3.200 patentes al año, de las que cerca de 400 son solicitadas por las universidades y por el CSIC [noticia en prensa].

Cuándo se recuperará Galicia del desastre ecológico del Prestige

dibujo20090320prestigedisastercaricature¿Quién se acuerda ahora, después de 6 años, del desastre del Prestige en las costas gallegas? ¿Cuándo se recuperará el ecosistema de estas costas del efecto del vertido de unas 40000 toneladas de fuel pesado? Difícil saberlo tras sólo 6 años. ¿Qué ha pasado en el caso del Exxon Valdez en Alaska ocurrido hace 20 años?  Todavía los investigadores no saben si el ecosistema afectado se ha recuperado o no. De hecho, todavía emana fuel en algunas en las playas de Prince William Sound. Nos lo cuenta Lila Guterman, “Exxon Valdez Turns 20,”  Science 323: 1558 – 1559, 20 March 2009 .

Los investigadores siguen estudiando los efectos del desastre del Exxon Valdez. Muchas especies parece que se han recuperado (lo mismo se ha afirmado del mejillón en las costas gallegas en varios estudios científicos y hay especies de peces cuya población ha crecido, pero otras han disminuido), pero otras todavía siguen afectadas. De hecho, algunas especies siguen en contacto con el fuel en la superficie de las rocas. Antes del incidente, poco se sabía sobre los efectos a largo plazo de las grandes manchas de crudo en los ecosistemas. Los estudios del desastre del Valdez son los más extensos y costoso de todos los realizados. Un resultado obtenido es que los efectos del crudo son mucho más persistentes en el tiempo de lo que se pensaba, produciendo efectos crónicos en el ecosistema incluso ante exposiciones a nivel bajo. La complejidad de los ecosistemas costeros impide valorar con precisión todas las consecuencias del desastre.

El desastre del Exxon Valdez ocurrió tras la medianoche del 24 de marzo de 1989 con el vertido al mar de unos 40 millones de litros de crudo (el mayor vertido en aguas de EE.UU.). El impacto inmediato fue dramático: unas 250 mil aves murieron, unos 22 orcas, unas 2800 nutrias marinas, unas 300 focas, y número difícil de determinar de huevos y alevines de peces. Las investigaciones científicas sobre el desastre han producido más de 400 artículos en revistas internacionales impactadas. Desafortunadamente al contrastarlos se descubre que la mayoría son contradictorios entre sí, quizás por la gran complejidad de este tipo de estudios. La mayoría ha sido subvencionado por el gobierno de EE.UU., aunque muchos también lo han sido por la propia compañía ExxonMobile.

dibujo20090320prestigedisasteratwork1Los estudios científicos indican que muchas especies en Prince William Sound se han recuperado del desastre, como las águilas de cabeza blanca o americanas, los cormoranes, los salmones y las nutrias de los ríos cercanos. Sin embargo, el impacto ha sido muy severo en dos animales “fotogénicos”: las orcas y las nutrias de mar. Ahora sólo se observan el 40% de las orcas y los científicos creen que se extinguirán en esta zona con el tiempo. Peor lo llevan las nutrias de mar, sólo queda el 15% de las que había. No todos los científicos achacan este descenso al desastre. Algunos (de ExxonMobile) aluden también a un empobrecimiento en el plankton en la zona desde 1992, que ha reducido el número de peces de los que se alimentan las nutrias.

Cuando se recuperará la zona de las consecuencias del desastre. No se sabe. Pero se cree que se requerirá mucho tiempo. La paciencia es necesaria, 20 años es poco tiempo para que todo un ecosistema se recupere de un desastre ecológico de tal magnitud, como afirma un investigador.

“In rebuilding natural systems, the main ingredient is patience and the other one is protection.”

Todo esto, salvadas las distancias, creo que es aplicable al caso del Prestige. Sólo la paciencia y el tiempo permitirá que el ecosistema de las costas gallegas (más del 70% de sus playas fueron afectadas) se recupere por completo. Algunas especies podrían desaparecer pero otras ocuparán los nichos ecológicos que queden abandonados. Esperemos que “Nunca mais” y “chapapote”, palabros que aprendimos hace 6 años, desaparezcan de nuestro lenguaje común y se reduzcan a una historia que contaremos a nuestros nietos cuando seamos abuelos.

Los usuarios de redes sociales se creen anonimizados, los desanonimizadores que los pueden desanonimizar, malintencionados desanonimizadores serán

dibujo20090320anonymoussocialnetworkuserEn las redes sociales se comparte mucha información de carácter privado sensible a usos malintencionados o comerciales. La privacidad se protege gracias al anonimato. Hay aplicaciones software capaces de “desanonimizar” dicha información e indentificar a los usuarios que creen ser anónimos. Arvind Narayanan y Vitaly Shmatikov han desarrollado un algoritmo de desanonimación que aplicado a las redes Twitter y Flickr alcanza una tasa de acierto del 88%. Los autores afirman que el nuevo algoritmo es robusto al ruido y a la mayoría de las defensas existentes. Nos lo cuentan en Arvind Narayanan, Vitaly Shmatikov, “De-anonymizing Social Networks,” 30th IEEE Symposium on Security and Privacy, ArXiv preprint, Submitted on 19 Mar 2009 [página web del artículo, FAQ sobre el artículo].

La mayoría de los usuarios de las redes sociales considera su privacidad como algo muy importante. Comparten cierta información privada sólo con sus amigos (“amigos” en sentido amplio) y no desean que nadie más pueda conocerla. Especialmente en un contexto en el que el phishing y el spamming son cada día más difíciles de detectar. Un usuario malintencionado podría usar las técnicas de desanonimación para desarrollar este tipo de ataques maliciosos de forma altamente personalizada. Por otro lado, las técnicas también podrían ser usadas por los gobiernos, autoridades judiciales o la policía para identificar a estos usuarios malintencionados.

¿Se puede desarrollar un algoritmo de anonimato imposible de desanonimizar? Según los autores, no es posible. La solución está en que los usuarios de las redes sociales sean conscientes de los peligros de publicar información. No hay diferencia práctica entre la información personal identificadora y la información no personal potencialmente indentificadora mediante un algoritmo de desanonimización. Los usuarios de las redes sociales deben aprender a ser conscientes de ello. Las grandes empresas tecnológicas que ofrecen como servicio las redes sociales deberían publicar claramente este hecho para que sus usuarios sean completamente conscientes de ello.

Conforme el tiempo pasa y los ordenadores son más potentes, los desanonimizadores malintencionados serán más capaces de explotar nuestra identidad para sus fines gracias a algoritmos como el de Narayaman y Shmatikov. Aún así, la investigación en este tipo de técnicas es importante para el progreso de la seguridad informática en la red de redes.

Fotografiadas dos estrellas gigantes rojas justo antes de explotar como supernovas tipo II

dibujo20090320sn2003gdprogenitorredstaridentification

Ver una explosión de supernova en vivo y en directo debe ser un espectáculo impresionante. Por ahora nos tenemos que conformar con tratar de identificar la estrella precursora de una supernova recién vista. No es fácil. Gracias al Telescopio Espacial Hubble y al Telescopio Géminis se han logrado identificar las estrellas progenitoras de las supernovas SN 2003gd y la SN 1993J. Son supernovas de tipo II, resultado de la “muerte” de estrellas rojas supergigantes. El artículo técnico es Justyn R. Maund, Stephen J. Smartt, “The Disappearance of the Progenitors of Supernovae 1993J and 2003gd,” Science, Published Online March 19, 2009 . Muchos se han hecho eco de este importante progreso científico, como “Two Dying Red Supergiant Stars Produced Supernovae,” ScienceDaily, Mar. 20, 2009 .

En el modelo de las capas de “cebolla” para una estrella, cuando se consume todo el hidrógeno del núcleo, comienza el consumo de la siguiente capa lo que conlleva un aumento de volumen y un enfriamiento de su superficie, que hace que el color de la estrella se vuelva más rojizo, se forma una gigante roja. Más adelante, la temperatura de la estrella alcanza un valor crítico, su luminosidad aumenta, la estrella se hincha hasta alcanzar un radio cercano a la distancia de la Tierra al Sol y se ha formado una supergigante roja. Cuando se han consumido todos los elementos químicos hasta el hierro, la estrella “muere.” Si su masa es suficiente, más de 8 veces la masa del Sol, explotará en una supernova de tipo II. Para verificar los modelos teóricos sobre este tipo de supernova, lo ideal sería poder identificar la estrella supergigante progenitora justo antes de la explosión. No es fácil.

Los astrofísicos Justyn R. Maund, Dark Cosmology Centre, Niels Bohr Institute, University of Copenhagen, y Stephen J. Smartt, Queens University Belfast, han utilizado imágenes de archivo del Observatorio Géminis y del telescopio espacial Hubble para identificar exactamente cuál es la estrella progenitora de dos supernovas de tipo II. No es tarea fácil, ya que los restos de la supernova forman una nube de gas y polvo que impide localizar bien la posición de la estrella progenitora. Han utilizado imágenes anteriores y posteriores a las explosiones en 1993 y 2003 de SN1993J y SN2003gd para identificar las supergigantes rojas progenitoras mediante substracción de imágenes. La progenitora de SN 2003gd era una supergigante de tipo M y la de SN 1993J era de tipo K, miembro de una estrella binaria cuya compañera, de supergigante de tipo B, todavía puede ser observada.

PS: La física de las supernovas tiene asociados gran número de problemas abiertos (aún por resolver), entre ellos la identificación eficiente de precursores. Un buen resumen de estos problemas está en Nino Panagia, “Unsolved Problems about Supernovae,” ArXiv preprint, Submitted on 19 Mar 2009 .

Si aprietas con fuerza un metal se puede volver transparente

dibujo20090319transparentsodiumelectronicandcrystalstructureat200gp

Hay que apretar pero que muy fuerte… Láminas metálicas de sodio con un grosor entre 3 y 5 micras se vuelven transparentes a la luz visible cuando se les somete a presiones del orden de 200 GPa, gigapascales. Esto es mucho. Por ejemplo, la presión en el centro de la Tierra es de unos 360 GPa. El metal se vuelve semiconductor. ¿Por qué? La estructura atómica del sodio es como una cebolla, formada por un único electrón en la capa más externa y todas las capas electrónicas interiores llenas. Bajo una presión muy alta, los átomos están tan juntos que estas capas interiores de átomos separados llegan a solaparse. Los electrones de estas capas se ven obligados a situarse en los intersticios de la estructura cristalina lo que reduce su metalicidad y lo vuelve transparente. Nos lo contó N. W. Ashcroft, “Condensed-matter physics: Pressure for change in metals,” Nature 458: 158-159, 12 March 2009 , haciéndose eco del artículo técnico Yanming Ma et al., “Transparent dense sodium,” Nature 458: 182-185, 12 March 2009 . Los investigadores no han sido capaces de determinar experimentalmente la estructura cristalina exacta del sodio a tan altas presiones, aunque sugieren una posibilidad a partir de análisis teóricos. Es de esperar que pronto estos investigadores obtengan resultados similares para el litio.

Sin entrar en más detalles técnicos, me gustaría indicar, como mera curiosidad, que este descubrimiento ha sido casual ya que los investigadores querían verificar experimentalmente los resultados teóricos de J.B. Neaton, N. W. Ashcroft, “On the constitution of sodium at higher densities,” Phys. Rev. Lett. 86: 2830-2833, 2001 . Como suele ser habitual, el nuevo resultado era inimaginable para los teóricos, quienes ahora tendrán que reproducirlo. Así es la ciencia.