El púlsar del cangrejo emite rayos gamma ultraenergéticos imposibles de explicar por las teorías actuales

El Púlsar del Cangrejo (PSR B0531+21) es una estrella de neutrones situada en la Nebulosa del Cangrejo resultado de la explosión de una supernova que se observó en el año 1054. Este púlsar gira sobre sí mismo unas 30 veces por segundo, emitiendo rayos gamma muy intensos. Gracias a la red de telescopios llamada VERITAS se ha detectado su emisión de rayos gamma con una energía de más de 100 mil millones de electronvoltios (100 GeV), desafiando todos los modelos teóricos actuales, incapaces de predecir una radiación con una energía tan alta. El Púlsar del Cangrejo está muy cerca de nosotros y es uno de los objetos astronómicos mejor estudiados. Aunque su diámetro se estima en pocos kilómetros, está rodeado de una magnetosfera de unos 1000 km. La gran velocidad angular del púlsar acelera las partículas cargadas en la magnetosfera produciendo una fuerte emisión de rayos gamma. Los modelos teóricos afirman que la energía máxima de estos rayos es de unos 10 GeV, sin embargo, VERITAS los ha observado de hasta 400 GeV y podrían incluso alcanzar 1000 GeV. ¿Cómo es posible? Todavía es pronto para saberlo, pero todo indica que esta emisión proviene de algún lugar más allá de la magnetosfera del púlsar y que su origen podría ser el efecto Compton inverso (la disminución de la longitud de onda de un fotón al interaccionar con un electrón ultrarrelativista con el consiguiente incremento de su energía). Sin embargo,  los detalles de este proceso más allá de la magnetosfera del púlsar todavía no están claros. Ahora ha llegado el turno de los astrofísicos teóricos. Por cierto, VERITAS (Very Energetic Radiation Imaging Telescope Array System) es un conjunto de cuatro telescopios de tipo Cherenkov (que estudian la luz de Cherenkov emitida por partículas ultraenergética que penetran en la atmósfera) situados en el sur de Arizona; estos telescopios son capaces de observar rayos gamma con energías superiores a 100 GeV (un billón de veces más energéticos que los fotones que emite nuestro sol). El artículo técnico es The VERITAS Collaboration, “Detection of Pulsed Gamma Rays Above 100 GeV from the Crab Pulsar,” Science 334: 69-72, 7 October 2011.

Los peligros de “pagar por publicar” en las revistas científicas de acceso abierto

Las revistas de acceso abierto, donde todo el mundo puede leer los artículos gratis, necesitan una fuente de financiación y la fuente más obvia son los propios autores. El autor investiga, escribe el artículo, formatea el artículo con el estilo de la revista y paga todos los gastos una vez que el artículo ha sido aceptado tras una revisión por pares. El “pagar por publicar” es un ejemplo de un remedio peor que la enfermedad, al menos en matemáticas. ¿Qué pasa cuando una revista no tiene suficientes artículos aceptados como para financiar todos sus gastos? O quiebra, o acepta más de la cuenta… La integridad de todos los procesos editoriales, incluso de la revisión por pares, peligran, fuera de toda duda. A mí no me gusta “pagar por publicar” y no soy el único. Ilya Kapovich (Universidad de Illinois en Urbana-Champaign) me ha quitado las palabras en “The Dangers of the “Author Pays” Model in Mathematical Publishing,” Notices of the AMS 58: 1294-1295, October 2011.

Los autores pagan unos miles de dólares por cada artículo publicado porque les prometen que el proceso de revisión será rápido y todo el proceso de publicación será veloz (la mayoría de las revistas de “pagar por publicar” prometen esto en sus páginas web). Pocas revistas prometen un proceso de revisión riguroso, lento y fiable. Nadie paga por eso. Como resultado muchas de estas revistas están publicando artículos que bien podrían ir a la papelera y que solo sirven para engrosar la vanidad de sus autores.

Yo, igual que Kapovich y quizás como todo el mundo, recibo todas las semanas varios correos invitándome a publicar artículos en revistas de “pago por publicar” y muy pocas veces junto a la invitación me indican que en mi caso será gratis. No, no caigo en la trampa, aunque alguno de mis doctorandos de vez en cuando me recuerda que muchas hasta tienen índice de impacto. ¡Qué me importará que tengan índice de impacto! Pero si tenemos dinero (público, pagado por todos los españoles) y podemos gastarlo en publicar rápido y seguro “pagando por publicar.” No, lo siento. Yo no caigo en la trampa. Incluso cuando me invitan a publicar gratis, que se ha dado el caso, me he dicho, sino publico pagando en esta revista, por qué voy a hacerlo gratis (no quiero la caridad de nadie).

Incluso, a mí muy pocas veces, Kapovich dice que a él muchas veces más, me han invitado a pertenecer al comité editorial de una de estas revistas (envíe su CV y le consideraremos como posible miembro). Siempre he rechazado estas invitaciones. Si no publico en una de estas revistas, porque me niego a hacerlo, por qué voy a pertenecer a su comité editorial. Digo yo. Mucha gente no comparte mi opinión (conozco a varios colegas que me han confesado que en la vida publicarán un artículo en algunas de las revistas en cuyo comité editorial se encuentran incluidos; da prestigio estar, pues ya está y “punto pelota”).

La revisión por pares en matemáticas (sobre todo en su parte más pura) es muy difícil, ya que el revisor debe garantizar que cualquier demostración en el artículo aceptado sea correcta (o al menos fuera de toda duda obvia). Ello requiere un estudio detallado de la demostración, paso por paso, revisando todos y cada uno de los argumentos, un análisis que el revisor realiza gratis y que le puede requerir meses de trabajo. No se puede realizar una revisión por pares con urgencia y aceptar cualquier demostración que parezca “razonable” porque el editor nos meta presión. Las demostraciones del artículo tienen que ser correctas (hasta donde los conocimientos matemáticos del revisor sean capaces de llegar). Si el revisor tras varios meses estudiando una demostración observa que es incapaz de saber si es correcta o no, debe indicarle al editor que busque otro revisor alternativo, que él no está preparado para cumplir con su labor con un 100% de fiabilidad. La revisión por pares en matemáticas no puede ser rápida y ágil, si queremos que sea fiable y rigurosa. Una demostración matemática no puede ser creíble, tiene que ser correcta.

Un problema añadido del sistema de “pago por publicar,” como nos indica Kapovich, es que muchos matemáticos reciben muy poco dinero público para financiar sus proyectos de investigación. Ya se sabe que a un matemático le basta con papel y lápiz para trabajar (hoy también necesita un ordenador). El dinero suele utilizarse para pagar viajes a congresos, cursos de verano, visitas a colegas y otras actividades de cooperación científica. Pocos investigadores piden dinero específico para “pagar por publicar” y cuando lo piden, muchos evaluadores de sus proyectos eliminan dicha partida por considerarla “inútil” (que publiquen donde es gratis, las revistas de “pago por publicar” son para los que escriben artículos de baja calidad).

Obviamente, en ciertas ciencias experimentales, este asunto es muy diferente. Publicar el primero y poder reclamar la prioridad de un descubrimiento merece “pagar por publicar” de la manera más rápida posible. Por ejemplo, los proyectos de investigación sanitaria en EE.UU., financiados por el NIH, deben incluir una partida específica para “pagar por publicar.” El NIH tiene una política que pretende favorecer la publicación en revistas de acceso abierto.

En mi opinión, que comparte Kapovich, la mejor manera de favorecer que todo el mundo tenga acceso a nuestras publicaciones científicas no es “pagar por publicar” sino publicar los manuscritos (preprints) en servidores como ArXiv. Allí todo el mundo puede acceder a nuestro artículo de forma gratuita y sin que el autor tenga que pagar nada. Además, la mayoría de las revistas internacionales aceptan que los artículos aparezcan en ArXiv, tanto antes de la revisión por pares como tras ella, aunque siempre en formato de manuscrito (la diferencia con el formato final de la revista es ridícula, puramente estética).

¿Qué opinas de todo esto? ¿Te parece necesario que todos los proyectos de investigación con financiación pública tengan una partida específica para “pagar por publicar”? ¿Debería haber una ley (o recomendación oficial) que obligara a (o recomendara) publicar todos los artículos de matemáticas en forma de manuscrito en ArXiv?

Un pequeño homenaje a Steve Jobs (1955-2011) y a los pioneros de los ordenadores personales

Me he enterado gracias a Mezvan en Menéame. Ha tenido ser que hoy, el mismo día en el que acabo de recibir mi iPAD 2 (aunque todo el mundo me recomendaba que esperara al iPAD 3). Todavía no he abierto la caja, lo dejaré para el fin de semana. Juguete nuevo, “novia” nueva, … Permíteme un pequeño homenaje a Steve Jobs y a todos los pioneros de los ordenadores personales a finales de los 1970 y principios de los 1980. Traduciré y resumiré el artículo de J. Abbate, “Getting small: a short history of the personal computer,” Proceedings of the IEEE 87: 1695-1698, Sep. 1999.

Los “ordenadores personales” (PC) fueron el resultado natural de la tecnología de los circuitos integrados (chips), cada vez más pequeños, más fiables, más baratos y de menor consumo energético. Jack Kilby de Texas Instruments construyó en 1958 el primer circuito integrado funcional, diseño que mejoró Robert Noyce de Fairchild Semiconductor en 1959. Nadie soñaba en ese momento que estos circuitos integrados acabarían dando lugar a las CPU (unidad central de procesamiento) de los ordenadores personales. En 1969, una empresa japonesa de calculadoras llamada Busicom solicitó a Intel el desarrollo de un set de chips de propósito general: memoria ROM (Intel 4001), memoria RAM (Intel 4002), procesador de entrada/salida (Intel 4003) y CPU (Intel 4004). En 1971 estos productos ya estaban en el mercado en calculadoras, cajas registradoras, máquinas de facturación y cajeros automáticos. Nadie soñaba aún con el siguiente paso, construir un microprocesador completo. Las dificultades financieras de Busicom llevaron a la ruptura de su acuerdo con Intel, que decidió comercializar el 4004 de forma independiente. ¿Quién estaría entonces interesado en este producto? A finales de 1971, Intel comenzó a anunciar el 4004 como una “computadora en un chip,” convirtiéndose en la primera compañía en poner un microprocesador en el mercado. Para su sorpresa, muchos clientes se interesaron en este producto.

Intel decidió introducir el 8008 en 1972 y el exitoso 8080 en 1974. Otras compañías siguieron su ejemplo. Los microprocesadores se abrieron paso en el mercado de productos de consumo como lavadoras, hornos de microondas, equipos de música estéreo, equipos de video, automóviles, cámaras, teléfonos y hasta videojuegos. Pero el concepto de ordenador personal todavía no había nacido. Equipos de aficionados, desde sus propios garajes, fueron los que iniciaron la revolución del PC. La primera microcomputadora fue el Altair 8800, fabricado por una pequeña compañía llamada Micro Instrumentation Telemetry Systems (MITS). Ed Roberts, el dueño de MITS, soñó que quería un ordenador para su casa y su Altair 8800 era dicho ordenador. En enero de 1975 ya estaba en el mercado anunciado en la revista Popular Electronics, con un costo de solo 379 $ (un precio muy bajo para un ordenador). El Altair no era un equipo “plug and play” que pudiera usar cualquier persona, se compraba en forma de kit y estaba dirigido a aficionados a la electrónica. La interfaz era muy primitiva y solo podía programarse en código binario; los números binarios se introducían uno a uno accionando unos interruptores en el panel frontal y la única salida era el parpadeo de unas luces LED. Pero Altair fue un éxito instantáneo y se convirtió en el icono de una subcultura. Nacieron revistas de informática como Byte y Popular Computing, y el mundo cambió para siempre.

Stephen Wosniak y Steve Jobs se encuentran entre los muchos que se inspiraron en Altair 8800 para formar su propia compañía, Apple Computer. Otros comenzaron a desarrollar software, entre ellos Bill Gates, quien junto con su amigo Paul Allen fundó la compañía Microsoft en 1975 para vender una versión del lenguaje de programación BASIC para el Altair. La mayoría de estas empresas sucumbieron al poco de empezar. Entre las que sobrevivieron se encuentra Apple. Su primer ordenador era similar a Altair, sin teclado, sin pantalla, una simple placa de circuito impreso. Wosniak soldaba estos circuitos en el garaje de los padres de Jobs, pero lograron vender cerca de 200, que no es poco. Su sucesor, el Apple II (ver la foto más arriba), era una cosa muy diferente, un producto similar a un ordenador actual, un producto dirigido a un público mucho más amplio. El Apple II tenía teclado, pantalla, disco duro y software, un ordenador listo para usar sin necesidad de ensamblaje. El Apple II apareció en el mercado en agosto de 1977 y su coste era de unos 1300 $. Un ordenador “plug and play” funcional que se convirtió en un éxito enorme. También en 1977 aparecieron otros ordenadores similares, como el Commodore PET y el Tandy/Radio Shack TRS-80. En Japón, NEC comercializó su primer personal “plug and play” en 1979, el PC-8001, y se convirtió en el mayor proveedor de PC en Japón. El primer ordenador personal ampliamente vendido en el Reino Unido fue el ZX80 Sinclair, que salió al mercado en 1980 por unas 100 £. En la prensa se anunciaba como “un ordenador para el hombre de la calle.” Fue seguido en 1981 por el ZX81, que se vendió por 50 libras.

El gigante azul, IBM, se olió el negocio y estableció en 1980 su proyecto PC, que salió al mercado en agosto de 1981. La arquitectura de IBM era “abierta,” que en lugar de estar patentada hasta el más mínimo detalle permitía a otras empresas hacer “clones” de su PC. En poco tiempo, los clones superaron la cuota de mercado de IBM, cuyo mercado se centró en los usuarios de negocios. La demanda del PC para uso doméstico superó todas las expectativas y en pocos años el PC se conviritió en el estándar de la industria.

Un ordenador para el “hombre de la calle” requiere software para el hombre de la calle. Lo que hizo que el ordenador personal despegara fue la disponibilidad de software que ayudó a la gente en sus tareas cotidianas. Las primeras aplicaciones software en el mercado fueron los juegos (o videojuegos), que tuvieron una aceptación muy buena. Entre 1978 y 1980, aparecieron las tres aplicaciones más importantes para un negocio: la hoja de cálculo, el procesador de textos y la base de datos. La primera hoja de cálculo fue VisiCalc, presentada en diciembre de 1979 para el Apple II, que fue desarrollada por Daniel Brinklin, un estudiante de MBA de la Harvard Business School, y Bob Frankson, un programador. VisiCalc era fácil de usar incluso para los neófitos y automatizaba muchas tareas tediosas en la contabilidad de una pequeña empresa. VisiCalc fue un gran éxito, fue la “killer application” que inspiró a muchos hombres de negocios a comprar computadoras personales por primera vez. 

Pero la clave para la incorporación de los ordenadores personales en todos los hogares fueron las interfaces gráficas de usuario (GUI) que se desarrollaron entre finales de los años 1960 y durante los 1970. El ratón, los iconos y las ventanas (tipo Windows) se desarrollaron antes de que hubiera ordenadores personales en el mercado. Por ejemplo, la idea de usar ventanas es de Alan Kay, un estudiante graduado en la Universidad de Utah, que en 1968 se imaginó un PC portátil que utilizaba comunicaciones inalámbricas que era utilizado como “libro de referencias dinámico” o Dynabook. Douglas Engelbart en el Instituto de Investigación de Stanford y Kay implementaron la idea en el nuevo Centro de Investigación de Xerox en Palo Alto (PARC), creado por Xerox en 1969 para investigar en tecnologías avanzadas. Ellos crearon un ordenador personal de escritorio llamado  Alto que utilizaba iconos, ventanas, menús y un ratón. El primer prototipo de Alto fue terminado en 1973. El equipo del PARC también creó una serie de tecnologías de apoyo, como las redes locales tipo Ethernet, la impresora láser y uno de los primeros procesaores de texto WYSIWYG (“lo que ves es lo que obtienes”). El ordenador Alto tenía prácticamente todas las características de los PC actuales. Sin embargo, los gestores de la compañía Xerox no tuvieron la visión tecnológica de Steve Jobs y otros. El ordenador de Xerox que salió al mercado, llamado Star, recibió muy buenas críticas pero su alto coste (varios miles de dólares) impidió su incorporación en los hogares y en las oficinas de las pequeñas empresas.

El proyecto del ordenador Alto de Xerox tuvo una influencia enorme en Steve Jobs y en Apple. Xerox era una de los inversores de Apple y Jobs tuvo la oportunidad de echar un vistazo a Alto en el PARC en 1979. Se quedó “enamorado” de su interfaz gráfica de usuario (GUI), que incorporó a su proyecto del ordenador Lisa (cuyo alto precio, como Star, hizo que fuera un fracaso). Apple acertó con su siguiente proyecto, el Macintosh, un ordenador asequible y muy fácil de usar. El presidente (CEO) de Apple, John Sculley, puso en marcha una enorme campaña publicitaria para el Mac, incluyendo el famoso comercial de la Super Bowl de 1984, donde retrataba a Apple salvando a los usuarios de las garras del “Gran Hermano” (en referencia a IBM). La clave del Mac, aparte de su GUI, fueron el gran número de aplicaciones software que se desarrollaron para esta plataforma. El IBM PC no incorporó un sistema gráfico de ventanas hasta 1985, Microsoft Windows, pero esa ya es otra historia.

Steve Jobs, R.I.P.

Richard S. Hamilton y Demetrios Christodoulou ganan el millón de dólares del Premio Shaw de Matemáticas 2011

Cuando Grigory Perelman ganó el millón de dólares del Premio del Milenio del Instituto Clay por la demostración de la conjetura de Poincaré, que no aceptó, muchos se preguntaron por qué no se lo habían dado también a Richard S. Hamilton, padre del programa que llevó a la demostración (muchos llaman al flujo de Ricci-Hamilton a lo que Hamilton llama flujo de Ricci). Todo se ha arreglado ahora que la mitad del Premio Shaw de Ciencias Matemáticas de 2011, dotado con un millón de dólares, ha sido  concedido a Hamilton, la otra mitad ha sido para Demetrios Christodoulou. Ambos matemáticos han sido premiados por sus contribuciones al análisis geométrico, el estudio de la geometría de superficies y variedades utilizando ecuaciones en derivadas parciales. En concreto, el premio ha sido concedido a Christodoulou y Hamilton “por sus trabajos muy innovadores en el campo de las ecuaciones en derivadas parciales en geometría lorentziana y riemanniana y sus aplicaciones a la relatividad general y la topología.” Las ecuaciones en derivadas parciales no lineales utilizadas en geometría diferencial son muy elegantes pero su análisis matemático es muy difícil, en especial, por la aparición de singularidades. El trabajo de Christodoulou se ha centrado en las aplicaciones a la teoría general de la relatividad, donde las singularidades corresponden a agujeros negros y singularidades desnudas; su contribución más conocida ha sido la demostración de que la interacción entre ondas gravitatorias puede generar agujeros negros (superficies atrapadas) pero no singularidades desnudas. El trabajo de Hamilton en el flujo de Ricci es muy conocido gracias a la demostración de Perelman de la conjetura de Poincaré; su contribución más importante ha sido en conjunto con Perelman, el tratamiento de singularidades mediante técnicas de cirugía, que ha permitido demostrar la conjetura de geometrización de Thurston que permite clasificar todas las variedades tridimensionales. Web del premio Shaw y del Premio de Matemáticas 2011.

Demetrios Christodoulou nació en Atenas, Grecia, en 1951, es profesor de matemáticas y física en el ETH de Zúrich, Suiza e hizo su doctorado y fue profesor de la Universidad de Princeton, EE.UU. Richard S. Hamilton nació en Cincinnati, Ohio, en 1943, es profesor Davies de matemáticas en la Universidad de Columbia, y también se doctoró en Princeton.

Esta noticia es de antes del verano pero me enteré en el número de octubre de Notices of the AMS, y la traigo a colación porque estoy impartiendo un seminario sobre flujo de Ricci aquí en la Universidad de Málaga (Escuela de Ingenierías) y dentro de un rato me toca hablar de flujo de Ricci en superficies y su aplicación en la demostración del teorema de uniformización (conjeturado por Poincaré (1882) y Klein (1882) y demostrado por Koebe en 1907 y de forma independiente por Poincaré también en 1907).

El Premio Shaw de Astronomía 2011 ha sido concedido a Enrico Costa y Gerald J Fishman, por su liderazgo en misiones espaciales que han estudiado los rayos cósmicos y en concreto por demostrar que el origen de los brotes de rayos gamma (Gamma ray bursts o GRBs) es cosmológico.

El Premio Shaw de Ciencias de la Vida y Medicina 2011 ha sido concedido a Jules A Hoffmann, Ruslan M Medzhitov y Bruce A Beutler por sus aportaciones al descubrimiento de los mecanismos responsables de la inmunidad innata, la primera línea de defensa contra los patógenos. Como ya sabéis Hoffman y Beutler han recibido también el Premio Nobel de Medicina 2011 y el primero de forma póstuma.