Rebajar la edad de votar de 18 a 5 años no altera el resultado de las elecciones

dibujo20090227childvotingEn España sólo pueden votar los mayores de edad, es decir, los mayores de 18 años. ¿Qué pasaría si en las elecciones estatales y autonómicas pudieran votar los menores de edad? Nada cambiaría en los resultados para los dos grandes partidos. Se han presentado fotos de políticos tanto a adultos como a niños. Las fotos eran de políticos franceses, desconocidos tanto para los adultos como para los niños. Los adultos tenían que elegir al político más competente. Los niños tenían que elegir el mejor capitán de un “hipotético” barco para un juego por ordenador. Sorprendentemente, los resultados de adultos y niños coinciden entre sí y con los resultados electorales de las elecciones a las que se han presentado dichos políticos. Así lo han demostrado los suizos John Antonakis y Olaf Dalgas de la Universidad de Lausana en el estudio publicado hoy en Science, “Predicting Elections: Child’s Play!“). ¡A qué cosas se dedican los suizos mientras contemplan las bellas vista del lago Lemán! Irles bien, les ha ido bien, ya que lo han publicado en Science.

En “La República”, Platón afirma que “… Imagínese un barco en el que hay un capitán que es más alto y más fuerte que cualquiera de la tripulación, pero es un poco sordo, tiene problemas de visión y poco conocimiento de navegación.” Platón afirma que la tripulación (es decir, los votantes) es incapaz de elegir un capitán competente (es decir, un gobernante), porque les engañan las apariencias. Platón utiliza esta parábola para sugerir que los votantes carecen de facultades y conocimiento racional a la hora de elegir a sus gobernantes.

En la democracia ideal, los políticos son elegidos por su competencia. Pero la realidad está muy alejada del caso ideal. ¿Cómo si no han sido presidentes Reagan o los Bush? O en el caso andaluz, Chaves, o en el venezolano, Chávez. Factores como la apariencia física y los rasgos faciales son mucho más importantes que la competencia (inteligencia y capacidad de liderazgo). En la vida diaria estamos acostumbrados a “valorar” a una persona por su aspecto físico y aplicamos la misma regla en las elecciones a políticos. Sin embargo, está demostrado que la inteligencia de los adultos no se puede predecir a partir de su apariencia física. De hecho, existe una gran variación en la competencia de los políticos. ¿Votamos los adultos en gran parte como votaría un niño?

En un experimento, 684 adultos suizos tuvieron que elegir entre pares fotos de políticos franceses (elegidos entre 57 de los que se presentaron a las elecciones parlamentarias en 2002) el más competente como gobernante. El 72% de las veces eligieron al que realmente ganó las elecciones. En un segundo experimento, 841 menores, de los cuales 681 eran niños entre 5 y 13 años, jugaron a un juego por ordenador en el que tenían que viajar en barco desde Troya a Ithaca. Debían elegir un capitán para su barco entre los mismos pares de fotos de políticos franceses que se ofrecieron a los adultos. El 71% de las veces eligieron al que realmente ganó las elecciones. El resultado no cambia si se separan los menores en dos tramos de edad, por un lado los 160 mayores de 13 y por otro el resto.

Un estudio de la correlación entre ambos resultados estadístico muestra que es imposible saber si un resultado electoral ha sido votado sólo por adultos, sólo por niños, o por adultos y niños.

“Arqueología cósmica” en el telescopio Subaru: luz ultravioleta de galaxias de hace 12 mil millones de años

dibujo20090227subarutelescopeandsomeresultsuvradiationfromgalaxies 

El telescopio Subaru en Hawai se está especializando en la “arqueología cósmica”. Ha detectado la radiación ultravioleta de 17 galaxias con un corrimiento al rojo que indica que las estamos viendo como eran hace 12 mil millones de años, menos de mil millones de años desde el inicio de la Gran Explosión. Esta radiación, que ioniza los átomos de hidrógeno, marca el final de la “era cósmica oscura” y el inicio de la llamada “era cósmica de la reionización.” El descubrimiento ha sido realizado por investigadores japoneses y franceses, como nos lo cuenta el propio servicio de prensa del telescopio Subaru en “Strong UV Radiation Detected in the Most Distant Galaxies,” February 24, 2009 , con motivo de la publicación del artículo de I. Iwata et al., “Detections of Lyman Continuum from Star-forming Galaxies at z~3 through Subaru/Suprime-Cam Narrow-band Imaging“, The Astrophysical Journal 692: 1287-1293, 20 Feb. 2009 , ArXiv preprint.

En la “era cósmica oscura” el universo estaba formado sólo por átomos de hidrógeno y partículas elementales libres, no existían ni estrellas, ni galaxias. Esta era acabó cuando el primer objeto astronómico del universo empezó a emitir radiación a una longitud de onda más corta que 91.2 nanómetros, radiación que es suficiente para ionizar un átomo de hidrógeno, es decir, separar su protón y su electrón.  Conforme más objetos astronómicos se fueron formando, el universo fue transitando hacia la “era cósmica de la reionización” dominada por esta “radiación ionizante” y en la que se formaron la mayoría de los objetos astronómicos.

¿Qué objetos astronómicos fueron los responsables de generar la “radiación ionizante”? Podrían ser cuásares que albergan agujeros negros supermasivos. Sin embargo, se han encontrado pocos cuásares tan antiguos. Dicha época estaba dominada por un gran número de galaxias. ¿Cómo podrían generar “radiación ionizante”? 

Los investigadores han utilizado el telescopio Subaru, que tiene la cámara de mayor campo de visión (0.5 grados) entre todos los telescopios terrestres, junto con unos filtros especiales que permiten medir la radiación ionizante de forma muy eficiente, para observar la radiación ionizante de amplios campos de galaxias. Por ejemplo, en una muestra de 198 galaxias, han encontrado que 17 de ellas emiten radiación ionizante. Antes sólo se habían detectado 2 galaxias de este tipo. Por tanto, las galaxias jóvenes emitían mucho más radiación inonizante de lo que se pensaba. Y su contribución es muy importante para el inicio de la “era cósmica de la reionización.”

Estereometamateriales – la “repera” en materiales fotónicos configurables

dibujo20090226stereometamaterialunitNo sé a vosotros, pero a mí los avances en fotónica de metamateriales me apabullan. Que se pueda curvar la luz a gusto o lograr la invisibilidad de un objeto me resulta casi mágico. Pero los avances en nanofotónica de metamateriales son más sorprendentes aún. Se acaba de publicar en Nature Photonics un nuevo concepto, los estereometamateriales, basados en apilar tridimensionalmente nanounidades que permiten configurar las propiedades ópticas del metamaterial resultante. ¡Increíble! El artículo técnico es Na Liu, Hui Liu, Shining Zhu, Harald Giessen, “Stereometamaterials,” Nature Photonics, Advance Online Publication 22 Feb 2009 .

La Estereoquímica es la rama de la Química que estudia las propiedades tridimensionales de las moléculas. Los estereoisómeros son materiales que tienen la misma fórmula química pero diferente disposición espacial de los átomos que forman la molécula. Las propiedades químicas de los estereoisómeros pueden ser muy diferentes entre sí.

En fotónica, un metamaterial es un medio estructurado, que consiste en la disposición espacial “ordenada” de un conjunto de celdas elementales cuyo tamaño es menor que la longitud de onda de la luz (que incidirá sobre el metamaterial). Los metamateriales pueden ser diseñados con propiedades exóticas, como índices de refracción negativos (permitividad y permeabilidad efectivas ambas negativas). Los estereometamateriales nanofotónicos son metamateriales cuyas celdas elementales están formadas por elementos que se pueden configurar tridimensionalmente con ciertos grados de libertad. Por ejemplo, la figura de arriba muestra una celda unidad de un metamaterial formada por dos resonadores en “U” (split-ring resonators o SRRs) que pueden rotar entre sí un ángulo ajustable. El metamaterial estará formado por muchas de estas celdas dispuestas en un matriz plana o tridimensional. Controlando el ángulo entre las “U” en cada celda unidad se puede lograr configurar a medida muchas de las propiedades fotónicas del metamaterial resultante.

dibujo20090226stereometamaterialchangetransmittancespectra

El estudio presentado por Na Liu y sus colaboradores es tanto teórico, con modelos aproximados basados en un formalismo lagrangiano y resultados numéricos precisos, como experimental. La figura de arriba muestra la transmitancia óptica en el infrarrojo cercano bajo incidencia normal medida experimentalmente en función de la frecuencia para 3 diferentes ángulos de rotación entre los resonadores en “U”. Han fabricado los resonadores en oro y los han insertado en un fotopolímero que sirve de dieléctrico separador. Los resultados experimentales y teóricos coinciden en gran medida.

Es difícil imaginar la infinidad de aplicaciones que tendrán estos nuevos metamateriales gracias al control de sus propiedades fotónicas que posibilitan los grados de libertad de sus celdas elementales. Conformen vayan surgiendo ya las iremos relatando.

Una nanomáquina lee el ADN letra a letra: un sueño cumplido

 

Imagina el futuro. Nanomáquinas monomoleculares que toman una hebra de ADN y la leen letra a letra como tú estas leyendo este texto. ¿Queda mucho para ello? No tanto, la empresa Nanopore de Oxford ha desarrollado un nanoporo (que puedes ver en acción en el vídeo) que hace exactamente eso, lee nucleótido a nucleótido una hebra de ADN de forma continua, identificando cada guanina (G), adenina (A), timina (T) y citosina (C). Han logrado una exactitud media de un 99.8% en cadenas de ADN de hasta 500 bases. La gran empresa Ilumina ha invertido 18 millones de dólares en Nanopore para que en unos años tengamos nanoporos integrados en chips de secuenciamiento automático de ADN para aplicaciones biomédicas.

El artículo técnico es James Clarke et al., “Continuous base identification for single-molecule nanopore DNA sequencing,” Nature Nanotechnology, Published online: 22 February 2009 (suplementary information). Dada su importancia, la noticia ha sido comentada por muchos, por ejemplo, Daniel MacArthur, “Towards direct reading of DNA with protein nanopores: Oxford Nanopore demonstrates proof of principle,” February 23, 2009 ; “Nanopores reliably identify DNA bases,” R&D Magazine, Feb. 25, 2009 ; “Nature Nanotechnology paper shows DNA base identification using a nanopore,” 23rd of February, 2009 .

The science of nanopore DNA sensing is now accurate and reliable enough to support a breakthrough industrial technology,” said Professor Hagan Bayley, founder of Oxford Nanopore and an author of the paper. “The simplicity and versatility of nanopores as a sensing system has intrigued academic researchers for nearly two decades. We anticipate that with the fast pace of the science, nanopore devices will soon be used for the measurement of DNA and many other molecules.”

El nanoporo reconoce las bases de ADN en una concentración salina alta (800 mM) con un porcentaje de acierto del 99.9% (G), 99.7% (T), 99.8% (A), y 99.99% (C). En los casos en los que falla, el error no es aleatorio, la ambigüedad sólo involucra 2 bases entre las 4 posibles. La siguiente figura muestra una salida típica del nanoporo (nota que pA significa una corriente de picoamperios) durante 1 sólo segundo. Como vemos ha detectado más de 25 bases. Desde la compañía están trabajando duramente para mejorar este sistema y los 18 millones de dólares de la compañía Ilumina les ayudarán bastante para tratar de acelerar su proceso de comercialización.

dibujo20090226nanoporereadingdnabasessequentially

Una de las ventajas más interesantes del nanoporo es que también puede detectar la citosina metilada, muy útil en estudios epigenéticos y en la genética del cáncer. ¿Algún defecto? Todavía no han econtrado un enzima que corte las bases de una molécula de ADN larga (de miles o decenas de miles de nucleóticos) garantizando que todas caigan en el nanoporo.

El futuro anticipado por la ciencia ficción, cada día más próximo.

El viviparismo en tiburones primitivos es más antiguo de lo que se pensaba

Tiburón ovíparo: Puesta de un huevo y nacimiento de un alitán en el Aquarium Finisterrae de A Coruña.

Tiburón ovovivíparo: Parto de un tiburón ángel en el Deep Sea World de Escocia.

Tiburón vivíparo: Parto de un tiburón limón en libertad (se ve el cordón umbilical y la placenta).

La mayoría de los tiburones son ovovivíparos (vídeo del centro). Los huevos eclosionan en el interior de los oviductos de la madre. Las crías (réplicas en pequeño del adulto) subsisten gracias a una unión al saco vitelino, hasta que salen al exterior en el parto. Sólo algunos son ovíparos (vídeo de arriba), ponen huevos como otros peces. Lo más sorprendente es que también hay tiburones vivíparos (vídeo de abajo), como los mamíferos, en los que los embriones están conectados mediante la placenta con la madre, alimentándose de la sangre que reciben a través de la placenta. Son tiburones vivíparos el tiburón azul, el punta de aleta blanca y el tiburón martillo. Tanto tiburones ovovivíparos como vivíparos realizan una cópula en el mar en la que sus dos penes  (pterigópodos), ubicados entre las aletas pélvicas, fertilizan dos huevos que las hembras atesoran en sus oviductos. Esta cópula requiere complejos rituales de cortejo, que en los grandes tiburones suelen ser bastante violentos resultando en múltiples cicatrices en las hembras. 

Los tiburones modernos evolucionaron a partir de unos “tiburones” (peces) primitivos, hibodontos, que vivieron en el Carbonífero (hace entre 345 y 270 millones de años) y se extinguieron en el Cretácico (hace entre 135 a 70 millones de años) siendo reemplazados por los precursores de los tiburones modernos. Los investigadores pensaban que el viviparismo en tiburones era una evolución moderna (no se observa en otros peces). Sin embargo, John A. Long, del Museo Victoria de Melbourne (Australia), ha descubierto en un fósil “perdido” en su museo de un pez primitivo llamado placodermo (de hace unos 380 millones de años) con un embrión en su interior que muestra el cordón umbilical. Más aún, un reexamen de dos ejemplares adultos de otra especie de placodermo, que contenían en su interior a otro animal de menor tamaño, aparentemente también un placodermo, supuestamente ingerido en el momento de la catástrofe que fosilizó sus restos, muestra que en realidad se trata de embriones gestándose en el cuerpo de su madre. Nos lo cuentan Per E. Ahlberg, “Palaeontology: Birth of the jawed vertebrates,” News and Views, Nature 457: 1094-1095, 26 February 2009 ; Tana Oshima, “La cópula pionera de los peces prehistóricos,” Ciencia, El Mundo, 26 febrero 2009 (portada en Menéame); y Europa Press, “Descubren un fósil de 380 millones de años de un embrión conectado por el cordón umbilical a su madre,” La Vanguardia, 28 dic 2008 (portada en Menéame). El artículo técnico es John A. Long, Kate Trinajstic, Zerina Johanson, “Devonian arthrodire embryos and the origin of internal fertilization in vertebrates,” Nature 457: 1124-1127, 26 February 2009 .

El viviparismo, incluyendo la cópula con fertilización interna y la gestación de crías, apareció en peces muy primitivos, como los placodermos, que surgieron hace unos 430 milliones de años y se extinguieron en el periodo Devónico hace unos 360 milliones de años, y es mucho más antiguo de lo que se pensaba, aunque sólo se conserva en ciertos tipos de tiburones.

dibujo20090225livebirthextintmotherfish

Puedes perder peso comiendo más y sin hacer ejercicio si tu gen FTO es el adecuado, aunque con la adrenalina por la nubes

dibujo20090225malefemalebodyweightforftomice

La obesidad es un grave problema en la sociedad moderna. Influyen tanto factores ambientales como genéticos. Uno de estos genes se llama FTO, del que hay varias versiones en humanos. Dependiendo de la que te haya tocado tenderás a ser obeso o no serlo. ¿Cómo actúa FTO? Regula la actividad del sistema nervioso simpático. Para los que tienen la versión “protectora contra la obesidad” del gen FTO no hay problema en adelgazar comiendo más y sin hacer ejercicio. Así lo han comprobado Julia Fischer y su grupo en ratones de laboratorio.

Nos lo cuenta Sadaf Shadan, “Obesity: Fat chance,” News and Views, Nature 457: 1095, 26 February 2009 , quien nos comenta el artículo de Julia Fischer et al. “Inactivation of the Fto gene protects from obesity,” Letter, Nature advance online publication 22 February 2009 . 

Fischer et al. han estudiado ratones (mutantes) que no expresan dos copias del gen Fto (llamados ratones Fto-/-) y los han comparado con ratones normales, que expresan ambas copias (Fto+/+), y con ratones que sólo expresan una de ellas (Fto+/-). La falta del gen Fto no afecta al desarrollo embrionario del ratón, aparentemente, pero a las 6 semanas tras el nacimiento los ratones Fto-/- tienen un peso corporal entre un 30-40% menor que los ratones normales o los de tipo Fto+/- . Esta reducción de peso está asociada a una pérdida muy marcada de tejido graso blanco. De hecho, prácticamente está ausente a los 15 meses de vida.

La pérdida de peso no está asociada a una menor ingesta calórica. De hecho, estos ratones comen una proporción mayor de comida respecto a su volumen corporal que los ratones normales. Para comprobarlo con mayor seguridad han sido sometido ambos tipos de ratones a una dieta alta en grasas y los ratones mutantes Fto-/- han ganado mucho menos peso que los ratones normales. Parece que los ratones Fto-/- consumen más energía en su actividad diaria aunque no se observan diferencias con la de los ratones normales (no es que hagan más ejercicio, ni mucho menos). La única explicación que Fischer et al. encuentran para este mayor consumo energético es que estos ratones presentan una actividad mayor en el sistema nervioso simpático, es decir, unos niveles de circulación de adrenalina y noradrenalina mucho mayores.

Further studies will have to determine the molecular basis of FTOcontrolled sympathetic regulation and potential direct mechanisms in control of substrate cycling, possibly leading to the identification of new therapeutic targets in the treatment of obesity.

Ojos de “camaleón” en un pez pelágico de cabeza transparente

dibujo20090224videoframemacropinnamicrostomadepth744mEl “mar abierto” (la zona pelágica del océano) nos reserva muchos misterios aún por desvelar. Esta región del océano donde el agua no cubre la plataforma continental está repleta de organismos llamados pelágicos. Se estima que es la región de mayor biodiversidad de la Tierra. La zona más estudiada es la epipelágica (desde la superficie hasta los 200 m.) donde hay suficiente luz para que las plantas realicen la fotosíntesis y donde se concentran la mayoría de los organismos pelágicos conocidos. La zona mesopelágica (desde los 200 m. hasta los 1000 m.) es una zona de penumbra donde penetra un poco de luz, pero es insuficiente para la fotosíntesis. Una región prácticamente desconocida que el grupo de investigación de Bruce Robison del Instituto de Investigación del Acuario de la Bahía de Monterrey (Monterey Bay Aquarium Research Institute o MBARI) está estudiando desde hace 10 años con cámaras submarinas montadas en pequeños submarinos controlados por control remoto. Las sorpresas que han encontrado son increíbles.

En el año 2004 observaron en vivo y capturaron para el laboratorio varios peces de la especie Macropinna microstoma, llamados “spookfish” en inglés, sin nombre popular en español. A la izquierda tenéis una foto. Este pez con cabeza “transparente” fue descubierto en 1939 en capturas con redes. Hasta 2004 no se supo que tenía una cabeza transparente ya que su tejido es frágil, colapsaba con el cambio de presión y se rompía durante su captura con redes.

¿Por qué tienen sus ojos protegidos por una membrana “cabeza”? Se cree que para permitirles alimentarse de sifonóforos, unos celentéreos (medusas) que viven en colonias y que presentan muchísimos tentáculos venenosos que podrían dañarle sus ojos cuando se alimenta.

¿Pero cómo se alimenta si tiene los ojos mirando hacia arriba (figura A arriba)? ¿Cómo ve su comida? Encima de la boca, delante de la cabeza, tiene dos glándulas olfativas (que parecen ojos en la figura de abajo y le dan una “pose” triste). Se pensaba que las utilizaba para comer y que los ojos eran para defenderse de los predadores.

La “paradoja” para los biólogos se resolvió en 2004 gracias a las imágenes en vídeo del MBARI. Las cámaras submarinas se acercaron a uno de estos peces y el pez movió los ojos, dirigiéndolos hacia adelante en dirección a la cámara (figura B arriba). Para los científicos fue una gran sorpresa comprobar que la gran y compleja musculatura de estos ojos tubulares (documentada desde 1942) tenía una justificación obvia: rotar los ojos para poder mirar hacia adelante mientras se está comiendo. El artículo técnico es Bruce H. Robison, Kim R. Reisenbichler, “Macropinna microstoma and the Paradox of Its Tubular Eyes,” Copeia 2008, No. 4, 780-784 . Cuatro años de espera para que el “secreto” de los ojos de estos peces haya sido publicado.

Escribo esta entrada porque ha sido portada de Menéame “Resuelven el misterio del pez de cabeza transparente,” enlazando al artículo del periodista Antonio Martínez Ron. La noticia presenta ciertas imprecisiones, no es completamente cierto que “Acaban de resolver uno de los enigmas que intrigaba desde hacía años a los biólogos marinos: la utilidad de la cabeza transparente del pez Macropinna microstoma y sus ojos tubulares.”  Tampoco que “los investigadores han llegado a la conclusión de que este mecanismo le permite aumentar su ángulo de visión y detectar mejor a sus depredadores.” Al menos no es lo que afirman los investigadores en su artículo técnico. De todas formas, el vídeo de youtube que acompaña a la entrada de Antonio merece la pena. Así que lo repito aquí.

“Leer el pensamiento” utilizando luz infrarroja

Te dan a elegir entre dos bebidas (por ejemplo, Coca Cola y Pepsi Cola). Antes de que pronuncies tu respuesta, el espectroscopio de infrarrojo cercano que te han conectado en la frente “lee tu pensamiento” y en un 80% de los casos acierta tu respuesta. Así lo han demostrado dos científicos canadienses, Sheena Luu, alumna de doctorado, y su director de tesis Tom Chau, de la Universidad de Toronto. Han utilizado una nueva técnica para observar el cerebro en funcionamiento de forma no invasiva, sin riesgos para la salud y relativamente barata que se llama espectroscopía en el infrarrojo cercano (Near-infrared spectroscopy o NIRS) que han aplicado a la imaginería del cortex prefrontal. La técnica permitirá “leer el pensamiento” al menos en los procesos de toma de decisión evaluados experimentalmente. El estudio ha utilizado nueve personas, a las que se les ha pedido que eligieran entre dos bebidas diferentes (no, no han utilizado Coca Cola y Pepsi Cola, pero podrían haberlo hecho).

dibujo20090222oprismlabheadLa noticia ha aparecido en muchos medios, yo destacaría a Tami Freeman “Optical imaging: reading your mind?,” Medical Physics Web, IOP, Feb 13, 2009 . El artículo técnico, para los interesados en los detalles del estudio, es Sheena Luu, Tom Chau, “Decoding subjective preference from single-trial near-infrared spectroscopy signals,” Journal of Neural Engineering 6: Art. No. 016003, 2009 (otra página de Tom Chau).

La diferencia entre esta nueva técnica y otras similares es que requiere un entrenamiento mínimo. Otros sistemas requieren que la persona piense que realiza cierta acción (un cálculo mental, por ejemplo) que no tiene nada que ver con su toma de decisión. Dicho pensamiento activa gran número de áreas cerebrales y facilita el reconocimiento de la decisión tomada. Es una lectura de pensamiento “forzado,” que dificulta el uso de dichos sistemas con niños pequeños y en personas con dificultades de aprendizaje. En el nuevo sistema esto no es necesario. Tom Chau se ha especializado en dispositivos “pediátricos” para niños con discapacidades y este requisito es fundamental en su trabajo. En palabras de Luu: 

This is the first system that decodes preference naturally from spontaneous thoughts,” said Sheena Luu. “When your brain is active, the oxygen in your blood increases and, depending on the concentration, it absorbs more or less light,” Luu explained. “In some people, certain parts of their brains are more active when they don’t like something, and in some people they’re more active when they do like something.”

Preference is the basis for everyday decisions,” she explained. When children with disabilities can’t speak or gesture to control their environment, they may develop a learned helplessness that impedes development. “If we limit the context – limit the question and available answers, as we have with predicting preference – then mind-reading becomes possible.”

¿Para qué sirve este estudio? Los interfaces cerebro-ordenador (brain-computer interface o BCI) son importantes para decodificar los procesos cerebrales de toma de decisiones con objeto de ayudar a las personas discapacitadas, tanto los que tienen problemas para comunicarse como los que tienen problemas de movilidad. Este tipo de sistemas ayudarán a que puedan controlar, por ejemplo, el teclado de un ordenador o el ratón para poder navegar por internet. 

¿Cuál es la gran ventaja del nuevo estudio? Ya hay otros sistemas que hacen lo mismo, pero son mucho más caros y es muy difícil que sean portátiles. Un sistema óptico como el NIRS podría ser incorporado fácilmente a un teléfono móvil o a una PDA y ampliaría enormemente las posibilidades de comunicación de muchos discapacitados.

¿Cómo es el sistema? Es una banda elástica que se acopla en la cabeza a la altura de la frente que tiene una red de fibras ópticas que emiten en luz infrarroja directamente hacia el cortex prefrontal del cerebro. La banda contiene 16 diodos emisores en parejas de dos, uno emitiendo a 690 nm y otro a 830 nm, y tres detectores asociados. Los 48 canales de información se inyectan a un software de tratamiento de señales que es la parte fundamental del lector de pensamiento. Para cada uno de los 9 participantes, realizaron 60 pruebas. Las 4 primeras eran para enseñar al sistema a reconocer cada decisión y las 56 restantes se usaron para verificar el estudio. Un 80% de aciertos no está nada mal. Sheena Luu defenderá su tesis doctoral próximamente.

Las revistas internacionales son muy caras: qué pueden hacer los científicos al respecto

Mucho se ha escrito sobre lo caras que son las subscripciones a revistas internacionales. Más aún, en plena crisis financiera. Muchas universidades están prescindiendo de sus subscripciones a algunas revistas y/o paquetes de revistas. ¿Por qué son tan caras las revistas? Son un negocio. ¿Se podrían vender a un precio mucho más barato? Sí, sin lugar a dudas, pero las editoriales perderían beneficios. ¿Qué pueden hacer los científicos al respecto? Poco o mucho según se mire. Si eres un científico de renombre y quieres crear una revista internacional, piénsatelo bien y opta por autoeditartela o recurrir a una editorial sin ánimo de lucro. Haberlas ailas. Si eres científico que quieres publicar un artículo en una revista, a similar índice de impacto y adecuación a tu artículo, elige la que tenga la subscripción más barata. ¿Dónde comprobarlo? Ulf Rehmann recopila todos los años un listado de precios de subscripción a revistas de matemáticas (el actual es el de 2008) “Math Journal Price Survey, based on AMS 2008 data ordered by Price per Page.” Como nos comenta el propio autor al respecto, Ulf Rehmann (Bielefeld, Alemania), 2003:

Scientists are writing the content, scientists have developed and are maintaining the tools (like TeX) to format the content, and provide printer-ready work, do the peer review for free, give it for free to the publishers, and then buy it back from them for an incredible amount of money. (…) It is possible to produce high ranked journals for as little as 15 US Cents/page or less (Annals of Mathematics, Documenta Mathematica) and to broadcast them for free on the Internet, there are journals charging 4 US Dollars and more per page!

Os recomiendo la lectura de Joan S. Birman, “Scientific Publishing: A Mathematician’s Viewpoint,” AMS Notices, 47: 770-774, 2000 , que leí ya hace años y del que traduzco un extracto junto a algunos comentarios de propia cosecha.

La revista de la Association for Logic Programming (ALP) era publicada (hasta noviembre de 1999) por la gran editorial Elsevier con el nombre Journal of Logic Programming (JLP). La revista había pasado de 0.28 $/página en 1984 a 0.88 $/página en 1999. Un incremento que le pareció excesivo a la ALP quien quiso negociar el precio de la subscripción (a la baja) con Elsevier. Tras 16 meses de negativas, todos los 50 miembros del comité editorial renunciaron. La asociación fundó una nueva revista Theory and Practice of Logic Programming (TPLP) que es publicada por Cambridge University Press. El precio de la subscripción se redujo en un 55%. Elsevier creó a su vez otra revista de corte similar The Journal of Logic and Algebraic Programming (JLAP) para no perder negocio, claro.

¿Quiénes estaban en el comité editorial de JLP que renunció? Alain Colmerauer (Universidad de Marsella, Francia), creador de Prolog, Robert Kowalski (Imperial College, Londres), creador del paradigma de programación lógica, Jeff Ullman (Universidad de Stanford, EEUU), el informático más citado en el mundo, o John McCarthy (Universidad de Stanford, EEUU), uno de los fundadores del campo de la Inteligencia Artificial y ganador del premio Turing.

¿Cómo están ambas revistas en este momento? Muy similares tanto en índice de impacto (JLAP 0.873 y TPLP 0.778 en JCR-2007), como a número de artículos publicados al año (JLAP algo más que TPLP) y en general en cuanto a prestigio (creo yo; yo no trabajo en programación lógica). Pero en cuanto a precio, la subscripción institucional a JLAP vale 1201$/año (en 2008) y a TPLP vale 540$/año (en 2009). ¡Gran diferencia! ¿Debería un autor tener en cuenta este dato? La mayoría no lo hará. Yo creo que muchos enviarán el artículo a una y si se lo rechazan lo enviará a la otra (con los cambios oportunos).

Imagina que un grupo de científicos quieren crear una revista. ¿Qué pueden hacer? Contactar con una editorial (grande o pequeña) quien pondrá el precio de la subscripción. ¿Y si quieren que la revista sea lo más barata posible? Autoeditarse su propia revista mediante una organización sin ánimo de lucro. El mejor ejemplo, la editorial Mathematical Sciences Publishers que se creó en la Universidad de Warwick para fundar la revista Geometry and Topology (G&T) y ahora tienen 8 revistas. Sus precios de subscripción son los más bajos posibles:

MSP is a non-profit organization, run by and for mathematicians, which is dedicated to publishing journals and books at the lowest possible cost and distributing them to the mathematical sciences community as freely as possible. (…) Subscription costs will be kept as low as possible consistent with our aims, with a price structure which comprises a basic charge for electronic subscription plus a small additional charge (to cover the extra costs) for paper copy.

Editar una revista en papel y online es caro. La subscripción a G&T en papel es de 380$ (en 2008) y online de 250$ (en 2008). El volumen de 2008 fueron unas 2600 páginas luego son unas 0.15 $/página. Que no está nada mal.

Por cierto, ¿qué cobra el editor principal de una revista internacional? Normalmente la editorial les pone un administrativo (o secretaria) y les paga un sueldo entre 6000 $ y 22500 $ al año por su labor.

wikiFactor: la última vuelta de hoja del índice-h de Hirsch

Ha tenido éxito Hirsch con su famoso índice-h (su artículo ha sido citado más de 210 veces en el ISI WOS). Todo el mundo está aplicando su índice a todo “lo habido y por haber.” Ahora le ha tocado a la wikipedia. Carl McBride, que no os engañe el nombre, pertenece al Departamento de Química Física de la Universidad Complutense de Madrid, se ha querido apuntar a la “moda Hirsch”  y ha introducido el wikiFactor, la aplicación directa del índice-h de Hirsch a la wikipedia. ¿Qué diferencia el índice-h del wikiFactor? Un factor de 1000. Nada más y nada menos. Hirsch cuenta en “pesetas” y McBride cuenta en “miles de liras”. Carl McBride, “wikiFactor: a measure of the importance of a wiki site,” ArXiv preprint February 19, 2009 . Menos mal que Carl no ha querido aburrirnos mucho y su artículo sólo tiene una página. Más que suficiente, por supuesto, en este caso.

El índice-h de Hirsch se define como el número de artículos, h, que han recibido al menos h citas. El wikiFactor (wF) se define como el número de páginas de la wiki, w, que han recibido al menos 1000*w accesos. Como ocurre con el índice-h el wikiFactor se puede calcular rápidamente en pocos segundos. Este árduo trabajo de investigación ha sido financiado por el Proyecto de Investigación con código FIS2007-66079-C02-01 , y otras fuentes de financiación de la Comunidad de Madrid. Sin lugar a dudas, un dinero público muy bien invertido.

dibujo20090220phasediagramwaterobtainedfromexperimentDisculpas: Carl, si lees esto, perdón por la ironía, ¡es envidia! Ya me hubiera gustado a mí que se me ocurriera esta idea. Lo mismo hasta te citan tanto como a Hirsch.

Para los interesados, la financiación pública de Carl está bien aprovechada en sus múltiples publicaciones (tiene un índice-h de 13, sino lo he calculado mal) con artículos muy interesantes entre los que destacaría C. Vega et al. “Can simple models describe the phase diagram of water?,” Journal of Physics-Condensed Matter 17: S3283-S3288, 2005 , y C. McBride et al. “The range of meta stability of ice-water melting for two simple models of water,” Molecular Physics 103: 1-5, 2005 (este último, su artículo más citado por el momento con afiliación española). Su artículo más citado es su primer artículo según su web, en concreto, C. McBride et al. “Molecular dynamics simulations of liquid crystal phases using atomistic potentials,” Molecular Physics 93: 955-964, 1998 (citado 42 veces en el ISI WOS).

Gran parte del trabajo de Carl se centra en la aplicación de técnicas de química-física computacional para tratar de comprender el extremadamente complicado diagrama de fases del agua. En la figura tenéis el resultado obtenido experimentalmente.