Vídeo que explica el funcionamiento de la cámara ultrarrápida que alcanza 6 millones de fotogramas por segundo

 

El artículo de El Mundo “Una cámara ultrarrápida capaz de captar seis millones de imágenes en un segundo, útil para investigación médica y biológica, y que no necesita una iluminación intensa, no hace ruido y no se calienta,” está suficientemente bien como para recomendar desde aquí su lectura y me permite omitir una entrada sobre la cámara STEAM (Serial Time-Encoded Amplified Microscopy) publicada en K. Goda, K. K. Tsia1, B. Jalali, “Serial time-encoded amplified imaging for real-time observation of fast dynamic phenomena,” Nature 458: 1145-1149, 30 April 2009 . Por cierto, comentarios en Menéame.

¿Qué se puede añadir? Creo que os gustará, tras leer dicho artículo, ver el vídeo que aparece más arriba, extraído de la información suplementaria del propio artículo publicado en Nature, en el que se explica gráficamente cómo funciona la cámara.

Dicen los autores que “nuestro siguiente paso será mejorar la resolución espacial de la cámara para obtener imágenes perfectamente nítidas del interior de las células”, ha explicado a la BBC el profesor Bahram Jalili, ya que “todavía no hemos alcanzado este objetivo.” El vídeo que aparece más abajo os muestra una imagen típica de la nueva cámara. Como véis todavía no es suficientemente nítida… ¿qué es lo que han filmado? No os haré conectaros a Nature y desvelaré el secreto: el flujo de microesferas metálicas a lo largo de una fibra hueca. En tiempo real el vídeo dura 9.3 μs, cada fotograma está espaciado 163 ns, y el tiempo de “disparo” de la cámara es de 440 ps. Impresionante, incluso si la imagen de una esfera que muestra el vídeo es “poco nítida.” En palabras de Jalili “si lo logramos, no habrá límite a las aplicaciones biomédicas que podremos lograr.”

Salami, cambio climático y dos valen más que uno en Nature

Figura que seguro Al Gore incorporará a sus nueva conferencias sobre cambio climático, Meinshausen et al. (C) Nature.

Figura que seguro Al Gore incorporará a sus nuevas conferencias sobre cambio climático, Meinshausen et al. (C) Nature.

Nature es una revista a la que le encanta publicar artículos técnicos dirigidos a la prensa. El cambio climático, tema estrella en la divulgación científica en la prensa diaria, es el tema estrella del número de hoy de Nature. Dos artículos, prácticamente con los mismos autores, enviados el mismo día, aceptados el mismo día, casi, casi sobre el mismo tema. ¿Por qué el editor no ha sugerido que unieran ambos artículos en uno sólo? Se le llama “salami research” a partir una investigación en muchos trocitos y publicarla en muchos articulitos. “Publish or perish” suele traducirse por publicar por publicar. Si te puedes permitir el lujo de publicar por publicar en Nature, por qué no hacerlo. Es el problema del editor el aceptarlo. El editor sabe que para los periodistas de la prensa diaria dos artículos que dicen prácticamente lo mismo es un doble aval a lo afirmado. Además, ha dedicado el número al cambio climático. ¿Qué dicen ambos artículos? Que el problema del cambio climático es más complicado de lo que se pensaba. Cada año parece más grave… ¿por qué será?

“Salami research” en Nature. Con el consentimiento del editor. Curioso. La pareja alemana de los Meinshausen (Malte y Nicolai) son los primeros firmantes de un artículo cuyo últimos firmantes son los británicos Frame y Allen. En el otro artículo, Allen y Frame son los primeros firmantes siendo los últimos firmantes la pareja Meinshausen. Dos artículos muy parecidos. Técnicas de simulación “ensemble” (un tipo de Montecarlo) con dos software comerciales distintos MAGICC 6.0 y C4MIP. Para los interesados los artículos técnicos son Malte Meinshausen et al., “Greenhouse-gas emission targets for limiting global warming to 2 °C,” Nature 458: 1158-1162, 30 April 2009 (Received 25 September 2008 ; Accepted 25 March 2009) y Myles R. Allen et al., “Warming caused by cumulative carbon emissions towards the trillionth tonne,” Nature 458, 1163-1166, 30 April 2009 (Received 25 September 2008 ; Accepted 25 March 2009).

Posibles curvas de emisiones de CO2 consideradas por Allen et al. (C) Nature.

Posibles curvas de emisiones de CO2 consideradas por Allen et al. (C) Nature.

Para los interesados en el contenido de ambos artículos, en mi opinión (no mero aficionado) muy sensasionalistas, basta leer el título (la “ingeniería del título” es clave en revistas como Nature), recomiendo el resumen presentado por Gavin Schmidt, David Archer, “Climate change: Too much of a bad thing,” Nature 458: 1117-1118, 30 April 2009 .

La Comunidad Económica Europea se ha propuesto que las temperaturas globales se mantengan por debajo de 2 ºC por encima de los valores preindustriales para 2100. Meinshausen y sus colegas han estudiado si es posible lograrlo y han encontrado que es necesario que para 2050 la cantidad total de CO2 emitido sea inferior a 190 GtC (mucho menos del carbono acumulado en todas las reservas estimadas de combustibles fósiles, gas, petróleo y carbón). Si seguimos al ritmo actual de quema de combustibles sólidos alcanzaremos esa cifra en unos 20 años. Como no inventemos una manera de retirar CO2 de la atmósfera será imposible cumplir el objetivo europeo. Allen y sus colegas obtienen resultados similares (Schmidt y Archer, políticamente correctos, afirman que “consistentes”) con los del otro estudio.

¿Cuál es la concentración máxima de dióxido de carbono que nos podemos permitir en la atmósfera sin riesgo? Esta pregunta se la hizo en 2007, Bill McKibben al climatólogo James Hansen. Su respuesta: no lo sé, pero lo averiguaré. Las concentraciones actuales de CO2 rondan las 382 partes por millión (p.p.m.), 100 partes más que el nivel preindustrial. Las ideas preconcebidas de Hansen apuntaban a que el límite máximo permisible rondaba los 450 p.p.m. McKibben pensó en formar la organización (ONG) llamada 450.org . Sin embargo, sus estudios le llevaron a bajar esa cifra a solamente 350 p.p.m. McKibben creó la organización (ONG) 350.org . Es decir, ya nos hemos pasado. Ya estamos en la región irreversible. Hay que bajar las concentraciones de CO2 atmosféricas. Estamos cerca del punto de no retorno. ¡Catastrofistas! Quizás. Pero Nature es así…

¿Tendrán razón Hansen, Meinshausen et al. y Allen et al.? Si es así, habrá que tomar medidas urgentes en diciembre en Copenage (Copenhague). Por ejemplo, invertir mucho dinero en la investigación de técnicas de limpiado del CO2 atmosférico. Hay muchas propuestas. Un par de artículos en Nature, hoy, nos comentan la más atrevidas (Climate crunch “Sucking it up,” and “Great white hope” ). En general, ponerlas en marcha requiere un costo muy elevado que tendrá que ser asumido por todos los países. Máxime en plena crsis. Caras de implementar, sólo la I+D+i bien enfocada podrá bajar estos costes y hacer de la necesidad maña.

PS: El catastrofismo característico de El Mundo en relación al Cambio Climático no se ha hecho esperar con un titular como “Quedan 20 años para detener el cambio climático.” Comentarios en Menéame.

Tinta electrónica a color para libros electrónicos

dibujo20090430_single_pixel_structure_cross_section_and_behaviour

El futuro de los libros no es tan negro como François Truffaut nos presentaba en Fahrenheit 451, sin embargo, el libro electrónico es una realidad y todos lo disfrutaremos dentro de un lustro. Los e-libros más baratos utilizan tinta negra que refleja luz como la tinta sobre papel presentando un brillo y contraste similares a los de un libro convencional. Bueno, pero no son en color. Pronto lo serán, gracias a los avances en tinta electrónica a color barata, como el trabajo de Jason Heikenfeld, University of Cincinnati, Ohio, EE.UU., y sus colaboradores de la empresa Sun Chemical. Utilizando técnicas fotolitográficas estándares han fabricado píxeles formados por un pequeño depósito de tinta a color que fluye fuera cuando se le aplica un voltaje y que vuelve a la burbuja cuando deja de aplicarse (gracias a la tensión superficial y el uso de materiales hidrófobos). Lo sorprendente: este proceso es suficientemente rápido como para presentar imágenes de vídeo y el píxel parece que podrá funcionar en papel electrónico flexible. Nos lo cuentan en “Photonics: E-ink goes colour,” Nature 458: 1080, 30 April 2009 , haciéndose eco del artículo técnico J. Heikenfeld et al., “Electrofluidic displays using Young-Laplace transposition of brilliant pigment dispersions,” Nature Photonics, Published online: 26 April 2009 .

El mercado del libro electrónico a color moverá mucho dinero en el futuro y muchas tecnologías diferentes, actualmente en investigación y desarrollo, están en la palestra. Nadie sabe cuál será la tecnología que finalmente se imponga. Lo que sí sabemos es que mucho dinero se está dedicando a esta investigación y que los frutos no tardarán en verse en el mercado. No sólo en los libros electrónicos. Imagina una pantalla de ordenador reflectora, como un libro, no emisora como la que usas para leer esto. Mucho más económica energéticamente, te permitirá leer con luz solar sin reflejos indeseados. Un mercado tan enorme es muy jugoso.

La figura de arriba muestra la geometría de un píxel desarrollado por Heikenfeld et al. El depósito (reservoir en la figura) del pigmento soluble en agua ocupa entre 5-10% del área del píxel. El canal superficial que recibirá el pigmento ocupa el 80-95% del área visible del píxel. Lo mejor de este diseño es que el canal está entre dos dieléctricos hidrófobos con lo que no es necesaria energía eléctrica para que la tinta vuelva a la burbuja. La presión de Young-Laplace debida a la tensión superficial es suficiente para que el pigmento retorne al depósito. Es el mismo efecto que se da cuando unimos con un tubito dos globos (o burbujas) de radio de curvatura diferente. El de mayor radio “absorbe” el aire del de menor radio. Este mecanismo es similar al que utilizan los cromatóforos de muchos animales como los camaleones. La naturaleza siempre por delante cuando se trata de ahorrar energía y los tecnólogos ávidos de imitarla por la misma razón.

PS: Ahora “Leer e-libros es un rollo” (visto en Menéame) pero dejará de serlo en un lustro.

El efecto Kondo: alicantinos observan como desaparece el magnetismo de un nanoimán al enfriarlo mucho

dibujo20090429_cobalt_contact_stretched_magnetism_kondo_efect

Toma un imán de la puerta de tu nevera. Córtalo en rodajas hasta una escala atómica. Cada rodaja seguirá magnetizada. Enfríalo mucho. Por debajo de cierta temperatura crítica, sorpresa, desaparecerá el magnetismo. Físicos alicantinos y norteamericanos han demostrado que así ocurre gracias al efecto Kondo. El efecto Kondo designa el aumento de la resistencia eléctrica de metales no magnéticos dopados con impurezas magnéticas conforme la temperatura se acerca al cero absoluto (normalmente, debería disminuir asintóticamente hasta un valor constante). En el efecto Kondo los electrones del metal apantallan los pequeños imanes de cada impureza. El nuevo trabajo ha descubierto que en un metal ferromagnético (sin impurezas magnéticas pero que esté magnetizado) sus electrones pueden apantallar a sus propios átomos (destruyendo la magnetización). Desde Barcelona nos lo cuentan Richard Korytár, Nicolás Lorente, “Solid-state physics: Lost magnetic moments,” Nature 458: 1123-1124, 30 April 2009 , haciéndose eco del artículo técnico de los norteamericanos y alicantinos M. Reyes Calvo, Joaquín Fernández-Rossier, Juan José Palacios, David Jacob, Douglas Natelson, Carlos Untiedt, “The Kondo effect in ferromagnetic atomic contacts,” Nature 458: 1150-1153, 30 April 2009 .

El efecto Kondo (wiki o algo más técnico) se conoce desde los 1960. Un metal no magnético con impurezas magnéticas, por debajo de una temperatura crítica, temperatura de Kondo, los electrones del metal apantallan el momento magnético de las impurezas. ¿Qué pasa si el metal es ferromagnético (los típicos imanes de la puerta de la nevera)? En dicho caso, no sólo apantallan el momento magnético de las impurezas sino también el momento magnético de sus propios átomos. En un hilo ferromangético reducido a escala atómica, el efecto Kondo provoca la desaparición del campo magnético.

Calvo y sus colaboradores han fabricado hilos ferromagnéticos a escala atómica utilizando un fenómeno llamado electromigración y los han “apretado” con un microscopio de efecto túnel. Han logrado fabricar una unión entre dos contactos ferromagnéticos (hierro, cobalto o níquel) unidos por un hilo delgado y separados por una distancia de pocos átomos (es difícil logralo si queremos que sean mecánica y térmicamente estables). Han aplicado un voltaje y lo han enfriado por debajo de la temperatura de Kondo (que depende del material) y han observado el efecto Kondo, pero sin tener que introducir impurezas magnéticas en el metal. Algo así como un auto-efecto Kondo con una sorpresa inesperada: la magnetización desaparece. 

¿Para qué sirve? Estas medidas de la conductividad en contactos a escala atómica (nanométrica) nos permiten estudiar el comportamiento del magnetismo a estas escalas y permitirá desarrollar nuevos contactos magnéticos para aplicaciones nanotecnológicas. En el estudio de las propiedades magnetoelectrónicas de nanoestructuras este avance ofrece más preguntas que respuestas pero promete convertirse en una línea de investigación muy “activa” en el futuro.

“Do non-magnetic atoms develop magnetism in non-magnetic materials as their dimensions are reduced? How does electronic transport take place? Does spin transport occur in addition to charge transport? We expect that, besides its fundamental implications for our understanding of how electrons interact in solid-state materials, this work will provide new insights into the properties of nanostructures and their use in fields such as magnetoelectronics, or indeed any technology operating on the scale where quantum mechanics rules.” Korytár y Lorente, Centre d’Investigació en Nanociència i Nanotecnologia CIN2 (CSIC – ICN), Bellaterra, España.

La figura de abajo muestra un hilo ferromagnético (a) cuyo campo magnético es debido al momento magnético de los electrones en orbitales tipo d asociados a los átomos de la red cristalina del metal (flechas blancas); los electrones en orbitales de tipo s y p se mueven libremente por el metal y no contribuyen a la magnetización del material. El trabajo de María Reyes Calvo Urbina, becaria de investigación de la Universidad de Alicante, la primera firmante del artículo, ha mostrado que cuando el hilo tiene uno o dos átomos de grosor, la interacción entre los electrones en orbitales d se reduce a costa de incrementarse la interacción con los electrones en orbitales s y p. Por ello el campo magnético en el nanohilo se reduce. Los resultados experimentales de Reyes (intrepretados como resonancias de Fano-Kondo) y sus simulaciones numéricas por ordenador muestran que la razón de esta “desmagnetización” es el efecto Kondo, que actúa en este sistema de una forma completamente sorprendente e inesperada.

dibujo20090430_single_atom_ferromagnetic_wire_with_reduced_interaction_d_electrons

PS (30 abr 2009): He cambiado el título de la entrada para “literalizarlo” al aparecido en la noticia de Menéame. El nuevo título me parece más “adecuado.” Muchas gracias jm22381 (ahora mismo meneador #1, enhorabuena).

Un blog concentra a cientos de matemáticos en la demostración conjunta de un teorema

dibujo20090428_tim_gowersLa matemática es labor de uno solo, afirman algunos. Sin embargo, cuando colaboran muchos, los resultados matemáticos progresan a mejor ritmo. Tim Gowers, Medalla Fields, de la Universidad de Cambridge, Gran Bretaña, decidió proponer una nueva demostración de un teorema en su blog, el proyecto Polymath1. Seis semanas más tarde, tras 1300 comentarios, cree haber logrado tres nuevas demostraciones. Sólo la escritura de dichas demostraciones en un formato estándar y su envío a revisión por pares podrá asegurar su completa corrección. Aún así, para Gowers la experiencia ha sido todo un éxito de la Web 2.0 que se nos muestra como una nueva herramienta indiscutible para la matemática del futuro. Por supuesto, no todos los comentarios han contribuido por igual en la demostración (sólo unos pocos han sido decisivos). Nos lo cuentan en “Problem solved (probably),” Nature Physics, 5: 237, April 2009 . Hay una entrada en el blog de Tim con el mismo título. Más allá de la demostración la experiencia muestra a los jóvenes que se inician en la investigación en matemáticas como las grandes mentes “pensantes” se aproximan a un problema, como el camino hacia la solución es muy intrincado (todo lo contrario a la linealidad que aparece tras la lectura de la demostración final en un artículo o una monografía).

La demostración es demasiado técnica para este blog. Los interesados pueden recurrir al genial Terence Tao, quien nos relata el resultado del proyecto Polymath1 en su blog, “Polymath1 and three new proofs of the density Hales-Jewett theorem.” La idea del proyecto era obtener una nueva demostración del teorema de la densidad de Hales-Jewett (muy bien descrito por Terence aquí), que no hiciera uso de la teoría ergódica, necesaria en la única demostración conocida hasta entonces (demostración de Furstenberg-Katznelson).

La internet está cambiando la ciencia. Por ahora esta iniciativa es puntual (si Gowers no fuera Medalla Fields, equivalente al Premio Nobel de los matemáticos, nadie le hubiera hecho caso). Sin embargo, la web 2.0 será superada por la web 3.0. ¿Permitirá que muchos matemáticos utilicen “el cerebro de la red” en su trabajo?

PS (15 octubre 2009): Nature se ha hecho de este trabajo en Timothy Gowers, Michael Nielsen, “Massively collaborative mathematics,” Nature 461: 879-881, 15 October 2009. Quienes tengan acceso a esta revista disfrutarán de este artículo calificado en la revista como “Opinion.”

¿Cuánto tiempo cuesta revisar un artículo científico? ¿Para qué sirve la revisión por pares?

dibujo20090425_peer_review_not_always_useful_for_editors

(C) NATURE CELL BIOLOGY 5: 583 (2003).

¿Cuánto tiempo cuesta revisar un artículo científico? Depende, del artículo, del revisor, del momento, … Una estimación razonable: entre 4 y 8 horas. Revisar es una “obligación” de todo investigador/autor. Incluso hay quien se ofrece públicamente a ello.

Hace unos días me tocó revisar un artículo. Un par de lecturas rápidas, la segunda tomando notas en el propio artículo y una mañana (unas 4 horas) para escribir la revisión. Una página confidencial para el editor y 6 páginas para editor y autores. Ganó mi curriculum vitae algo con ello, nada en absoluto.

¿Para qué sirve la revisión por pares o peer review? Para ayudar a los editores a elegir qué es lo que publicar. Sencilla y llanamente. No nos engañemos. No se pretende “educar” a los autores para que mejoren su trabajo investigador. No se pretende “corregir” los errores de los autores. Los editores de BMJ (British Medical Journal, Factor de Impacto de 9.7 en 2007) enviaron a revisar un paper en el que habían introducido 8 errores intencionados a 420 posibles revisores, sólo 221 aceptaron revisarlo. El 16% no encontró ningún error, nadie encontró más de 5, y la mediana fue de 2 errores detectados. Aún así, la mayoría de las revistas usan sólo 1 o 2 revisores.

No es el revisor quien acepta o rechaza un artículo. El artículo es aceptado o rechazado por el editor (quien tiene potestad absoluta al respecto). En las revistas realmente influyentes e importantes lo tienen claro, muy claro. Por ejemplo, Nature recibe unos 10 mil artículos al año. Los editores de Nature se leen todos los manuscritos y rechazan el 60% (sin revisión externa). El resto es revisado por al menos 2 revisores y sólo el 7% acaba publicado. Me han sorprendido algunas cosas al leer la política de revisión por pares de artículos para revistas de Nature (NPG). Por ejemplo, cuando un revisor cree que necesita leer un artículo citado y no tiene acceso a dicho artículo, el editor se encarga de facilitarle una copia del mismo, pagando Nature todos los gastos necesarios. Otro ejemplo, el revisor debe contestar 10 preguntas entre las que se incluye ¿será el artículo uno de los 5 más importantes publicados en su campo este año?

¿Qué pasa si un artículo “bueno” enviado a Nature está escrito en un inglés pobre (porque los autores no son nativos)? La mayoría de las revistas recomiendan a los revisores que rechacen los artículos que están escritos en un inglés “pobre” (sobre todo porque son “ilegibles”). No así Nature (y otras revistas NPG). Tienen editores profesionales especializados en “corregir” el inglés de los artículos (e incluso de las revisiones). De hecho, tienen un servicio profesional de traducción. Más detalles en cómo publicar en Nature.

En junio de 2006 el editor de Nature decidió hacer un experimento sobre la revisión abierta (firmada) y pública. No (les) funcionó. Fracaso que nos cuentan en “Overview: Nature’s peer review trial,” Nature, december 2006 . ¿Por qué falló? Quizás porque requerían el consentimiento de los autores para realizar el proceso. Muy pocos autores aceptaron someterse la revisión firmada y pública (7%). Poquísimos. La mayoría de estos autores quedaron contentos (disgustó sólo al 6%).

Otras revistas usan y abusan de diferentes sistemas de revisión por pares abierto (firmado y/o público). “Pros and cons of open peer review,” Nature Neuroscience 2: 197-198, 1999 , nos contaba que Richard Smith, editor de la revista BMJ (British Medical Journal), decidió abolir el anonimato de los revisores en 1999, por considerlo kafkiano (BMJ es una revista de acceso abierto). ¿Cómo les fue? Parece que bien. Todavía siguen usando el sistema de revisión firmada. Hemos de recordar que los editores de BMJ hicieron un estudio del efecto sobre las revisiones de que los autores conozcan el nombre de los revisores (“Effect of open peer review on quality of reviews and on reviewers’ recommendations: a randomised trial,” BMJ 318: 4-5, 1999). Concluyeron que el número de revisores que aceptaban revisar artículos bajó, sin embargo, ni la calidad, ni la utilidad para los editores de las revisiones cambió sustancialmente. Muchas revistas de acceso abierto utilizan un sistema de revisión firmada (a veces publican los nombres de los revisores en el propio artículo y otras sólo son conocidos por los autores). La revisión firmada no es la única posibilidad, hay muchas (Journalology, “Open peer review & community peer review,” 28-Jun-2007″).

La revista de acceso abierto de la European Geosciences Union, Atmospheric Chemistry and Physics, índice de impacto 4.865, tiene un sistema de revisión transparente que me gusta. Cada artículo en su versión definitiva (he ojeado varios publicados este año) viene acompañado por una discusión (Interactive Discussion), donde aparece el artículo como fue enviado originalmente, los comentarios de todos los revisores (anónimos) así como las respuestas a sus cuestiones por parte de los autores (Author Comment, Referee Comment, Short Comment, Editor Comment). Todos estos documentos tienen formato de artículo. También se incluyen comentarios de lectores al estilo de un blog durante cierto tiempo.

Música para amenizar la crisis económica

Recopilación de música de Bee (Backreaction) con algunos cambios y añadidos…

Everything Counts – Depeche Mode
Opportunities (Let’s make lots of money) – Pet Shop Boys
Material Girl – Madonna
Money, Money, Money – Liza & Joel
Money (That’s what I want) – Flying Lizards
Love of the Common People – Paul Young
Morcheeba – Way Beyond
Eat the Rich – Motörhead
Money – Pink Floyd
Sixteen Tons  – Ernie Ford
You Never Give Me Your Money – The Beatles
Sleep Now in the Fire – Rage Against the Machine (en Wall Street).

Nuestro cruzado anti-He-siano Francisco M. Fernández también ha ganado algunas batallas

Gracias, Marcelo, por informarme de que tú también has ganado algunas batallas contra los He-sianos y de las buenas, en revistas impactadas. Atesoras un artículo aceptado en Applied Mathematics and Computation, todavía no disponible en la web de ScienceDirect ni en el ArXiv, y un artículo en Physica Scripta, no disponible en la web de IOP pero sí en el ArXiv. Habrá que sacarte en hombros por la puerta grande del ruedo, como a los grandes toreros.

Physica Scripta, revista del británico Institute of Physics (IOP) con índice de impacto rondando la unidad, presenta como “Forthcoming articles” el artículo “Comment on the numerical solutions of a new coupled MKdV system (2008 Phys. Scr. 78 045008),” Francisco Fernández and Francisco M Fernandez, disponible como ArXiv preprint, 3 Mar 2008 . El Abstract no deja lugar a dudas sobre la victoria “In this comment we point out some wrong statements in the paper by Inc and Cavlak, Phys. Scr. 78 (2008) 045008 .”

Cuando salga publicado el artículo definitivo podremos admirar todos los detalles de esta victoriosa batalla. El preprint en ArXiv promete y mucho, pero quizás sea un “poco más políticamente incorrecto” de la cuenta (la gran ventaja de ArXiv). El artículo de Inc y Cavlak versa sobre el método de Adomian (Adomian decomposition method o ADM) y el método de iteración variacional (variational iteration method o VIM), técnicas que los He-sianos atesoran entre sus “armas” aunque no saben aplicarlas correctamente y suelen aplicarlas a problemas “triviales” con solución exacta conocida: “Inc and Cavlak chose a problem with an exact solution that is sufficiently simple to facilitate the application of both the ADM and VIM. It is the kind of tailor-made toy problems that are always selected for the application of such approaches.

¿Qué resulta del método ADM? La serie de potencias de la solución (vaya chorrada no, sobre todo cuando la solución exacta es conocida, pero así es la “basura” publicada en las revistas internacionales de los He-sianos). Gran avance de los He-sianos.

¿Qué resulta del método VIM? La serie de potencias de la solución (vaya chorrada no, sobre todo cuando la solución exacta … uy! que me repito igual que … la “basura” publicada en las revistas internacionales de los He-sianos). Otro gran avance He-siano en pro de la humanidad.

¿Para qué sirve rellenar 7 páginas de una revista internacional como Physica Scripta con el desarrollo de Taylor de una solución exacta conocida de la ecuación MKdV, que se conoce desde el primer artículo de Miura, en el que se presentó por primera vez esta ecuación en “sociedad”? R.M. Miura, “Korteweg-de Vries Equation and Generalizations. I. A Remarkable Explicit Nonlinear Transformation,” J. Math. Phys. 9, 1202-1204, 1968. Por cierto, un artículo “clásico” en teoría de solitones, el que inició la serie que condujo a la transformada espectral inversa, uno de los grandes avances de la matemática aplicada de finales del s. XX.

dibujo20090424_new_coupled_mkdv_system_and_exact_kink_solution_to_be_taylor_expanded¡Qué mala es la Mula Francis! Derivar los cinco primeros términos del desarrollo de Taylor de la función tangente hiperbólica es un avance de primerísimo orden mundial. ¡Cómo puede haber matemáticos que lo duden! Avance que requiere las técnicas más avanzadas de la matemática aplicada, como ADM y VIM. ¡Qué mala es la Mula Francis!Menos mal que Mustafa Inc y Ebru Cavlak, afiliados en Turquía, han logrado tan grandioso avance. ¡Qué haríamos el resto de los mortales sin estos grandes He-sianos!

Si yo le pido este desarrollo de Taylor a uno de mis alumnos de ingeniería le exijo que estudie el radio de convergencia de la serie y que estime el resto de Taylor (utilizando para ello el famoso Teorema del Resto de Taylor en alguna de sus variantes). ¿Lo han incluido Inc y Cavlac en su artículo? Obviamente, no. Si eso es trivial. Cualquiera estudia el radio de convergencia de esta serie de Taylor. Cualquiera estima el error cometido al truncarla. Eso son trivialidades. El gran avance es ser capaz de obtener dicho desarrollo de Taylor. ¡Bravo por los He-sianos! Los demás ya podemos dormir tranquilos.

Por cierto, volvamos a Marcelo, qué presenta en su artículo. Pues obviamente, estudia lo que cualquiera de mis alumnos estudiaría de la serie de potencias y hasta presenta una gráfica ilustrando el concepto de convergencia de un polinomio (serie de potencia truncada) a la función tangente hiperbólica. ¡Logrará que los He-sianos se sonrojen!

Una victoria no es ganar la batalla. La batalla promete ser dura. Hay muchos He-sianos por todos los lugares del mundo. Miembros de comités editoriales de muchas revistas internacionales, editores principales de otras, … La batalla será dura. Pero los que llevan por delante la bandera de la verdad (matemática) vencerán sin lugar a dudas. La historia pondrá en su lugar a los He-sianos. Me han llegado rumores de que algunos He-sianos (“los buenos”) están criticando a otros He-sianos (“los malos”). Una batalla interna. ¿Soportará He los duros ataques que está empezando a recibir desde muchos frentes? El “malvado” He está muy bien atrincherado. La batalla promete ser dura, pero amigo Marcelo, venceremos.

La pena que me da es que investigadores como Marcelo tengan que perder su tiempo “desvelando a la humanidad” la “basura” He-siana en lugar de dedicarse a escribir artículos que presenten avances científicos relevantes. Es una pena. Pero alguien tiene que hacerlo. ¡Bravo por Marcelo! Adelante con tu lucha.

PS: por cierto, esta entrada complementa a una de ayer.

Pregunta a un profesor de Arquitectura de Computadores: ¿dónde están los ordenadores portátiles cuánticos comerciales?

Algunos profesores de Arquitectura de Computadores en E.T.S.I. Informática en España reciben a veces la pregunta “del millón de euros” por parte de sus alumnos. La mayoría prefiere rehuir la respuesta. Que no, que no, que no existen. La pregunta es ¿dónde está mi computador cuántico personal? Esta mañana me lo preguntaron y le dí la “hora del café” al “probe” compañero que me lo preguntó. ¡Calla, por favor! No, no puedo callar. Cuando a la Mula Francis le dan cuerda… Ni siquiera en Science callan. ¡Qué casualidad! Nos lo cuentan los alemanes P. Hemmer, J. Wrachtrup, “Where Is My Quantum Computer?,” Science 324: 473-474, 24 April 2009 .

Hace 15 años la computación cuántica pasó de ser un constructo (¡qué palabro!) teórico a un concepto más de la divulgación científica. Los superordenadores del futuro. Pero el público general se pregunta ¿cuándo habrá ordenadores cuánticos comerciales? Y la respuesta es muy simple. ¡Ya hay ordenadores cuánticos comerciales! ¿Cómorrr?

Un producto comercial es el producto que una empresa privada vende y ya hay empresas privadas vendiendo ordenadores cuánticos. Por ejemplo, MagiQ e ID Quantique. Bueno, bueno, no exageremos, son ordenadores cuánticos de propósito específico: se llaman sistemas de cifrado cuántico o sistemas cuánticos de distribución de palabras de paso. Aún así, se basan en los mismos principios que los demás ordenadores cuánticos. Utilizan fotones como cubits (bits cuánticos) que almacenan estados 0 y 1 gracias a la polarización. Desde los primeros trabajos en este campo alrededor de 1984 se ha avanzado lo suficiente como para obtener productos comerciales que son atractivos para ciertas instituciones bancarias, militares y gubernamentales. No son baratos. Pero se basan en principios esotéricos para el público general como el teletransporte cuántico.

A la Mula Francis “se le va la olla” muy fácilmente. Cuando me refiero a ordenadores cuánticos comerciales me estoy refiriendo a un “ordenador portátil cuántico.” No a esas máquinas, como la máquina Enigma que permitieron que Gran Bretaña ganara la Segunda Guerra Mundial en Europa. Eso no era un ordenador como mi ordenador portátil. ¿Qué estudiante de informática estudia el funcionamiento de la máquina Enigma? Eso no sirve para nada. Hay que estudiar Java. ¿Para cuándo un ordenador cuántico comercial que ejecute código Java? Habrá que preguntarle a Nostradamus….

¿Desde cuándo hay ordenadores portátiles (clásicos) comerciales? Hombre, desde siempre. Los trogloditas usaban tarjetas perforadas (por cierto, la Mula Francis utilizó y programó con tarjetas perforadas, y no miento, las tengo de recuerdo, aunque no el punzón con el que hacía los agujeros, ¡qué pena!).

Google está apoyando a algunas empresas que fabrican ordenadores cuánticos porque sabe que el futuro de las búsquedas en internet, acabará requiriendo algoritmos de búsqueda cuánticos implementados en ordenadores cuánticos. Curioso que Google sea de las pocas empresas a las que la crisis financiera actual le está afectando muy poco (sin despidos, ni cierres, aunque con reducción importante de beneficios).

¿Desde cuándo los ordenadores portátiles tienen lectores de huellas dactilares como los de las películas? ¿Tendremos algún día chips cuánticos de seguridad informática en nuestros ordenadores portátiles? Ya hay empresas trabajando en ello. Tiempo al tiempo (la Mula Francis siempre dice lo mismo). A nivel de investigación ya hay estudios sobre el uso de cubits de un sólo espín como magnetómetros ultrasensibles que operan en la escala de los nanómetros para aplicaciones biomédicas, técnicas de imagen cuántica de superresolución y sistemas de imagen sin lentes, relojes atómicos ultraprecisos para los futuros GPS, etc. La computación cuántica está donde tiene que estar, en la investigación punta, en la tecnología punta, donde realmente se encuentra el dinero de los inversores.

¿Para qué quieres un ordenador portátil cuántico comercial si con uno clásico tienes más que de sobra?

No. No te equivoques. La Mula Francis se equivoca muchas veces. No va al grano. La cuestión es ¿para cuándo los estudiantes de informática en España tendrán la asignatura de computación cuántica como obligatoria o troncal?

Intrusismo: Oh, tu hijo estudia informática en la universidad, pues mi hijo ya la estudió el año pasado… en una academia. ¿Es lo mismo? No, mi hijo ha estudiado computadores cuánticos. La cuestión es ¿para cuándo los computadores cuánticos se estudiarán en las academias de la esquina de nuestro bloque?

¿Que qué es? Para saberlo, si no lo sabes ya, has de leer a la Mula Francis.