El mecanismo de Higgs no distingue entre materia y antimateria según el Tevatrón del Fermilab

Dibujo20090930_Fitted_contours_equal_probability_two-dimensional_likelihoods_function_top_mass_and_antitop_mass

El bosón de Higgs dota de la misma masa a una partícula y su antipartícula, según la teoría del Modelo Estándar. El mecanismo de ruptura de la simetría de Higgs no distingue entre materia y antimateria. Para verificarlo experimentalmente hay que medir estas masas para la partícula más masiva descubierta hasta el momento, el quark top y su antiquark. En el Tevatrón del Fermilab se ha obtenido hace poco la mejor medida de la masa en reposo del quark top. Ahora DZERO ha medido la diferencia de masa entre el quark top y el antiquark top resultando una diferencia igual a 3.8±3.7 GeV, es decir, 2.2% ± 2.2. Como resultado, experimentalmente ambas masas parecen exactamente iguales. Nos lo cuentan en Research Highlights, “Particle physics: Top quarks measure up,” Nature 461: 572, 1 October 2009, haciéndose eco del artículo técnico de V. M. Abazov et al. (DZERO Collaboration), “Direct Measurement of the Mass Difference between Top and Antitop Quarks,” Phys. Rev. Lett. 103: 132001, 21 September 2009.

El nanoláser basado en plasmones o “nanoespáser”

Dibujo20090930_Plasmon-based_nanolaser_gold_core_surrounded_by_silica_shell_stimulates_coherent_emission_amplification_surface-plasmon_waves

Una nueva palabra para los libros de ciencia ficción: el “nanoespáser.” Un nanoláser plasmónico, un láser de menos de 100 nanómetros basado en plasmones. Su impacto potencial es enorme en la fabricación de nanocircuitos fotónicos ultrarrápidos, técnicas de nanolitografía, sensores bioquímicos monomoleculares, o en las tecnologías de información cuántica. Los plasmones son ondas generadas por el movimiento colectivo de electrones libres en la superficie de un metal. Todavía no se ha fabricado un nanoláser plasmónico práctico, pero las tecnologías para fabricarlos se han logrado recientemente, como nos cuentan dos físicos teóricos de la Universidad Autónoma de Madrid, Francisco J. Garcia-Vidal y Esteban Moreno, en “Lasers go nano,” Nature 461: 604-605, 1 October 2009, haciéndose eco de dos artículos técnicos publicados recientemente en Nature, los de Rupert F. Oulton et al., “Plasmon lasers at deep subwavelength scale,” Nature 461: 629-632, 1 October 2009, y M. A. Noginov et al., “Demonstration of a spaser-based nanolaser,” Nature 460: 1110-1112, 27 August 2009.

Un láser emite un haz intensa y fuertemente colimado de luz (casi) monocromática coherente. La luz de una bombilla es incoherente, con un espectro relativamente ancho, de intensidad débil y poco colimada (casi onmidireccional). Un láser requiere dos elementos, una cavidad óptica en la que la luz se vuelve coherente por resonancia y un medio que amplifica dicha luz. Un proceso parecido a la afinación de una orquesta antes de iniciar un concierto. Los músicos interpretan una única nota estimulada por las notas tocadas por otros músicos y afinan su instrumento. Para el espectador, la sala de conciertos se llena de un ruido incoherente que evoluciona hacia un acorde tonal bien afinado.

Un nanoláser óptico es imposible ya que no se puede superar el límite de resolución por difracción de la luz utilizada. Para luz visible, con longitudes de onda entre 300 y 800 nm (nanómetros), la cavidad láser más pequeña está limitada a unos cientos de nanómetros. La nanotecnología requiere menos de 100 nanómetros. ¿Cómo lograr un nanoláser? Utilizando electrones en una cavidad metálica, ya que la longitud de onda de los electrones es menor que las de los fotones (igual que la diferencia entre un microscopio óptico y uno electrónico). Los electrones pueden resonar la superficie de un metal produciendo una ondas llamadas plasmones superficiales. Estas ondas generan ondas electromagnéticas fuertemente localizadas en la superficie. En lugar de láser (Light Amplification by Stimulated Emission of Radiation o amplificación de luz por emisión estimulada de radiación) podemos hablar de “spáser” (Surface Plasmon Amplification by Stimulated Emission o amplificación de plasmones superficiales por emisión estimulada). Los plasmones, en lugar de los fotones, permiten fabricar un “nanoespáser,” el equivalente plasmónico de un nanoláser. Fabricar un láser de plasmones o “spáser” no es fácil ya que los plasmones sufren pérdidas muy importantes. Para evitarlas hay que diseñar un medio que los amplifique hasta superando con creces dichas pérdidas. Los nuevos artículos técnicos de Noginov et al. y Oulton et al. han logrado desarrollar un medio amplificador de este tipo en la nanoescala.

Noginov y sus colaboradores han encapsulado nanopartículas de oro (de 14 nm de diámetro) en esferas de sílice de 44 nm de diámetro (como muestra la parte izquierda de la figura que abre esta entrada). La amplificación se obtiene gracias al dopado del silicio con ciertas moléculas orgánicas.  Los plasmones se propagan en el núcleo de oro, propagándose por el envoltorio de sílice como ondas de luz láser con una longitud de onda de 531 nm.

Oulton y sus colaboradores han utilizado como cavidad “láser” para los plasmones superficiales un nanohilo semiconductor de sulfuro de cadmio de alta ganancia separado de un “espejo” de plata por un aislante de 5 nm (como muestra la parte derecha de la figura que abre esta entrada). El nanohilo tiene un diámetro del orden de 25 nm y los fotones reflejados tienen una longitud de onda de 489 nm (un láser convencional requeriría unos 500 nm de diámetro como mínimo teórico).

Ambos estudios ofrecen importantes avances en la ciencia de los láseres plasmónicos, aunque todavía quedan varias cuestiones técnicas por resolver antes de ver estos “nanoespáseres” en aplicaciones prácticas. La coherencia de la luz emitida por estos dispositivos todavía no ha sido caracterizada. Además, no es luz colimada (la luz es emitida en todas las direcciones). Sin embargo, en los próximos años se avanzará muchísimo en este campo.

Dibujo20090930_nanospacer_deep_subwavelength_plasmonic_laser_CdS_semiconductor_nanowire_top_silver_substrate_separated_nanometre-scale_MgF2_layer

En Cuba también hay nanociencia y nanotecnología

Dibujo20090929_three_gold_nanoparticles_from_Laboratorio_Bioinorgánica_Universidad_La_Habana

En la situación económica que se vive en Cuba parece sorprendente que haya investigadores trabajando en nanociencia y nanotecnología. La Revista Cubana de Física, publicación conjunta de la Sociedad Cubana de Física y de la Facultad de Física de la Universidad de la Habana, dedica su primer número de este año (son sólo dos al año) a estos campos de tan gran actualidad, “Número especial: Nanociencia cubana 2009.” Como reza el editorial introductorio: “Aun trabajando en muy difíciles condiciones, los profesionales cubanos han logrado, con su trabajo de años, que esta importante actividad científica no constituya hoy una novedad en Cuba.”

Sorprende que la mayoría de los artículos sean experimentales y estén escritos por cubanos trabajando en Cuba. Uno tiende a pensar que los medios de los que disponen para investigar después del periodo especial de los 1990s son muy limitados. Sólo unos pocos artículos tienen coautores foráneos de países como España, México, Brasil, Colombia y Austria, aunque creo no equivocarme si afirmo que algunas de las investigaciones que se muestran en estos artículos han partido de trabajos realizados fuera del país. Aún así, mi más sincera enhorabuena a los nanocientíficos cubanos por su buen trabajo.

Por cierto, todos los artículos son de acceso gratuito en PDF y en español, con un nivel similar a Investigación y Ciencia, así que ánimo y a disfrutar.

Entrada autorreferencial: Recopilación de los Ig Nobel de 2008 en la Mula Francis

Los Premios Nobel Ig de 2009 se anunciarán en la ceremonia que se celebrará el próximo jueves, 1 de octubre, a las 7:30 PM, hora de la costa este norteamericana. Dedicaré en este blog una entrada a los premios más interesantes, como ya hice el año pasado. Para abrir boca, os recuerdo las entradas del año pasado (quizás algún lector reciente no las haya leído o algún otro quiera releerlas).

2008 Ig Nobel, Paz: La dignidad y los sentimientos de nuestras amigas las plantas, 8 Octubre 2008

2008 Ig Nobel, Arqueología: El armadillo “arqueólogo” como pesadilla para el arqueólogo humano, 8 Octubre 2008

2008 Ig Nobel, Medicina: La importancia del precio de un medicamento en su eficacia terapéutica, 7 Octubre 2008

2008 Ig Nobel, Ciencias cognitivas: Hasta una protozoo puede encontrar el camino más corto en un laberinto, 6 Octubre 2008

2008 Ig Nobel, Economía: las bailarinas topless deberían evitar la píldora para lograr mayores propinas, 6 Octubre 2008

2008 Ig Nobel, Física: El enredo espontáneo de lo enredable o no le dejes el ovillo de lana al gato, 5 Octubre 2008

2008 Ig Nobel, Biología: Las pulgas de los perros son mejores saltadoras que las pulgas de los gatos, 5 Octubre 2008

2008 Ig Nobel, Literatura: “Eres un bastardo” o el acaso laboral en el trabajo, 5 Octubre 2008

2008 Ig Nobel, Química: Coca-Cola y Pepsi-Cola, los anticonceptivos del pobre, 4 Octubre 2008

2008 Ig Nobel, Nutrición: El sonido “crujiente” y el disfrute de una patata frita, 3 Octubre 2008

El problema de Thomson o como distribuir N cargas en una esfera con energía total mínima

El físico británico J. J. Thomson ganó el Premio Nobel en 1906 por el descubrimiento del electrón. En 1904 propuso un problema matemático muy difícil de resolver en general: ¿cuál es la configuración de mínima energía para N electrones (con una fuerza repulsiva 1/r2) en una superficie esférica? Para N pequeño obtener la solución óptima a este problema es fácil. Para 4, 6, y 12 corresponden a los vértices de un sólido platónico. Hasta N=400 se conocen las soluciones óptimas. Sin embargo, para N>400 sólo se conocen algunas pocas, el resto son sólo las mejores candidatos obtenidas por ordenador. Wales, McKay y Altschuler han obtenido por simulación las mejores configuraciones hasta el momento en el rango N de 400 a 4000. La vídeo muestra cinco de los nuevos resultados para N=400, 752, 1632, 3952, y 4352. Los tres primeros son configuraciones simétricas. Los dos últimos son configuraciones asimétricas ligeramente de menor energía que las simétricas observadas. ¿Serán óptimas? Nadie lo sabe pero la búsqueda de la demostración por ordenador continúa. Nos lo cuenta Tony Phillips, “Progress on the Thomson problem,” Take on Math in the Media, September, 2009.

Las 400 configuraciones óptimas fueron publicadas en David J. Wales, Sidika Ulker, “Structure and Dynamics of Spherical Crystals Characterised for the Thomson Problem,” Phys. Rev. B, 74, 212101 (2006) [Página con animaciones gif con los resultados óptimos]. El nuevo artículo con las soluciones cuasi-óptimas es David J. Wales, Hayley McKay, Eric L. Altschuler, “Defect motifs for spherical topologies,” Phys. Rev. B 79, 224115 (2009) [Página con animaciones gif con los resultados cuasi-óptimos]. 

En una configuración de mínima energía cada electrón está rodeado de 6 vecinos cercanos (hexágonos verdes en el vídeo) resultando en una carga efectiva nula, excepto ciertos electrones que están rodeados de 5 vecinos (pentágonos rojos) con una carga efectiva de +1, o de 7 vecinos (heptágonos azules) con una carga efectiva de -1. Siendo Ci el número de los vecinos cercanos al electrón i-ésimo, la red que conecta los electrones más cercanos entre sí define una triangulación de la superficie de la esfera con V=N vértices, E = (1/2) Σi Ci aristas y F = 2 E/3 caras. El teorema de Euler, V-E+F=2, aplicado a esta tringulación nos da Σi (6-Ci) = 12, es decir, la suma de las cargas efectivas debe ser igual a 12. El problema de optimización a resolver es dónde hay que colocar las cargas efectivas para minimizar la energía total.

Como se observa en el vídeo, para las configuraciones con N = 400, 752, 1632, 3952, y 4352, conforme N crece, el número de heptágonos también crece. Las tres primeras configuraciones son (aproximadamente) simétricas, con una simetría icosaédrica aproximada que en algunos casos, como para N=1632, es exacta. Lo más sorprendente es que en muchos casos, como los dos últimos ilustrados en el vídeo, las configuraciones simétricas no son siempre las de menor energía. La energía potencial se define geométricamente como P = Σi>j |ri – rj|-1, donde se ha representado el electrón i-ésimo con un vector unitario ri in R3. Por ejemplo, para N=4352 la configuración cuasi-óptima tiene energía potencial P = 9311276, mientras que la configuración con 12 rosetas colocadas simétricamente (algo parecido a la configuración con N=1632 del vídeo) sólo alcanza un valor de P = 9311299. Es decir, una configuración más simétrica cercana a la mejor es sólo ligeramente peor. Realmente sorprendente.

Estrellas negras: agujeros negros fallidos como resultado de un efecto cuántico, la polarización del vacío

Dibujo20090927_black_star_resulting_from_vacuum_polarizationCarlos Barceló, del Instituto de Astrofísica de Andalucía en Granada, y sus colaboradores han demostrado que los efectos cuánticos en la teoría semiclásica de la gravedad permiten evitar que las estrellas en colapso gravitatorio formen agujeros negros (si el colapso es suficientemente lento). El resultado es un nuevo objeto astrofísico al que han llamado estrellas negras. Para un observador externo estas estrellas son indistinguibles de un agujero negro. Están formadas por la energía gravitatoria del vacío cuántico en un espaciotiempo curvado. No presentan horizonte de sucesos y evitan el problema de la pérdida de información cuántica en agujeros negros. Si el colapso es muy rápido o si el objeto que colapsa tiene una masa enorme, millones de masas solares, el resultado es un agujero negro convencional. Un gran trabajo que nos cuentan magistralmente en su artículo Carlos Barceló, Stefano Liberati, Sebastiano Sonego, Matt Visser, “Black stars, not holes. Quantum effects may prevent true black holes from forming and give rise instead to dense entities called black stars,” Scientific American, october 2009, pp. 39-45 [versión gratis] (aparecerá en español en Investigación y Ciencia en diciembre de 2009). Su artículo técnico es Carlos Barceló, Stefano Liberati, Sebastiano Sonego, Matt Visser, “Fate of gravitational collapse in semiclassical gravity,” Physical Review D 77: 044032 (2008). También es interesante leer el artículo de Matt Visser, Carlos Barceló, Stefano Liberati, Sebastiano Sonego, “Small, dark, and heavy: But is it a black hole?,” ArXiv, Submitted on 2 Feb 2009.

Un agujero negro es el resultado del colapso de una estrella que ha consumido todo su combustible. Para los físicos teóricos es un tipo de solución de las ecuaciones de Einstein para la gravedad. Un agujero negro de la masa del Sol tiene un radio (horizonte de sucesos) de unos 3 kilómetros. ¿Existen los agujeros negros? La evidencia astrofísica indica que existen objetos ultracompactos que no emiten luz ni ningún tipo de radiación que tienen masas entre varias veces la del Sol y millones de veces, con diámetros de unos pocos kilómetros hasta millones de kilómetros. ¿Estos objetos oscuros observados por los astrofísicos son agujeros negros? Casi todo el mundo cree que así es, pero, hay varias propuestas alternativas.

¿Podrían los efectos cuánticos evitar el colapso gravitatorio? No tenemos una teoría cuántica de la gravedad, pero se puede utilizar una aproximación semiclásica para la gravedad cuántica, similar a la utilizada por Hawking para demostrar que los agujeros negros se evaporan. ¿Cuál es el resultado? Los efectos cuánticos evitan que un agujero negro (un horizonte de sucesos) se forme, resultando en la formación de una estrella negra, constituida sólo por espaciotiempo.  

La teoría cuántica de la gravedad no es renormalizable. ¿Qué significa esto? En una teoría cuántica de campos el vacío tiene una energía infinita. La técnica llamada de renormalizabilidad permite obtener el comportamiento de las partículas elementales sólo a partir de diferencias entre estados de energía, con lo que los infinitos de la energía del vacío se cancelan. En una versión cuántica de la teoría de la gravedad no ses posible aplicar esta técnica.

En la teoría semiclásica de la gravedad se sustituye la renormalizabilidad por una técnica de autoconsistencia. Según la relatividad general una distribución de materia-energía produce un espaciotiempo curvo. Esta curvatura modifica la energía de los campos cuánticos, lo que a su vez modifica el propio espaciotiempo curvo. Y así sucesivamente. El resultado es una solución autoconsistente si este procedimiento converge. Esta aproximación semiclásica incorpora los comportamientos cuánticos de la materia pero trata la gravedad (curvatura del espaciotiempo) de forma clásica. Una aplicación ad hoc de esta teoría conduce a que el vacío tiene una energía infinita, lo que es incompatible con las observaciones astronómicas actuales. ¿Cómo funciona la hipótesis de consistencia? La energía gravitatoria del vacío semiclásico de cualquier solución válida debe ser nula cuando se sustituye en ella un espaciotiempo plano. La presencia de masa curva el espaciotiempo y la densidad de energía del punto cero de los campos cuánticos no se cancela exactamente. Esta polarización del vacío se asume en la gravedad semiclásica que se cancela exactamente a cero para un espaciotiempo plano. El tensor de energía-esfuerzo (stress-energy tensor, SET) se sustituye por un tensor de energía-esfuerzo renormalizado (RSET). La materia clásica curva el espaciotiempo en una cantidad dado por el SET clásico. El vacío cuántico adquiere un RSET finito no nulo. Dicho término es una nueva fuente de gravedad que modifica la curvatura, lo que induce un nuevo valor para RSET y así sucesivamente. La graveadad semiclásica consiste en aplicar este procedimiento de forma reiterada hasta que RSET converge.

¿Cómo afecta la gravedad semiclásica a los agujeros negros? El solución de Schwarzschild para el campo gravitatorio de una distribución de masa esférica que no rota ni tiene carga nos permite entender el campo gravitatorio alrededor de un estrella y de un agujero negro. Está caracterizada por una M y un radio R. Un objeto con masa M que colapse hasta ocupar una región de radio menor que R desaparece dentro de un horizonte de sucesos y se forma un agujero negro. Las correcciones cuánticas aplicadas a la solución de Schwarzschild para una estrella como el sol que tiene un radio mucho mayor que su radio de Schwarzschild (unos 3 km.) conduce a un valor desprecible para el valor de RSET para el vacío cuántico. Las correcciones cuánticas son importantes sólo cuando el radio de la estrella es mayor pero cercano al radio de Schwarzschild R. En 1976 David G. Boulware, ahora en la Universidad de Washington, demostró que el valor de RSET para el vacío crece conforme el radio se acerca a R. Esto significa que la gravedad semiclásica no permite la existencia de agujeros negros estacionarios.

Dibujo20090927_slow_and_fast_collapse_black_hole_and_black_star_respectively

¿Qué afirma la gravedad semiclásica sobre el colapso de una estrella? La importancia de los efectos cuánticos depende de la rapidez del colapso. Normalmente se asume que el colapso es muy rápido, tan rápido como la caída libre de la materia de la superficie de la estrella hacia el centro de la estrella, lo que resulta en un del RSET del vacío cuántico despreciable durante todo el colapso. Sin embargo, si el colapso es más lento, el RSET puede adquirir un valor arbitrariamente grande. Además adquiere valores negativos en la región cercana al radio de Schwarzschild, donde debería formarse el horizonte de sucesos clásico, lo que genera un efecto repulsivo que ralentiza aún más el colapso. El resultado es que el colapso de la estrella se detiene justo antes de la formación de un horizonte de sucesos. El resultado es una estrella negra, salvo para un objeto perfectamente esférico con una masa enorme, del orden de millones de masas solares, en cuyo caso nada evita el colapso y la formación de un (super)agujero negro.

Dibujo20090927_black_star_shell_model_and_thermodynamicsLas estrellas negras (black stars) se mantienen estables gracias a los efectos cuánticos de la polarización del vacío según la teoría de la gravedad semiclásica. El campo gravitatorio de una estrella negra es idéntico al de un agujero negro siendo su radio algo mayor que el radio de Schwarzschild sin que se forme un horizonte de sucesos. Las estrellas negras permiten resolver el problema de la pérdida de información cuántica en los agujeros negros, ya que emiten radiación de Hawking pero no es térmica, sino que acarrea la información cuántica de la materia de la estrella que la formó. De esta forma se preserva la unitariedad. La estrella negra está formada por capas, como una cebolla, donde cada capa es una estrella negra más pequeña, que también emite radiación de Hawking, pero a una temperatura más alta. La temperatura del interior de las estrellas negras crece conforme nos acercamos a su centro.

En las “estrellas” negras la masa de la estrella original que colapsó se ha transformado en un RSET no nulo concentrado, es decir, en polarización del vacío. Son estrellas constituidas sólo por espaciotiempo curvado. Según los autores del artículo, desde un punto de vista astrofísico son indistinguibles de un agujero negro convencional. Por ello, los autores creen que muchos de los agujeros negros de masa pequeña e intermedia que se han observado en el universo son en realidad estrellas negras.

Nadie sabe por qué mueren en masa los cocodrilos del Nilo del Río de los Elefantes en Sudáfrica

Dibujo20090927_Nile_crocodiles_in_Olifants_River_dying_in_masse

En el invierno de 2008 se observaron 170 cocodrilos del Nilo muertos en el Río de los Elefantes en el Parque Nacional Kruger, Sudáfrica. En mayo de 2009 ya eran casi 400 los cadáveres encontrados, una barbaridad para una población de unos 1000 en todo el parque. ¿Qué es lo que pasa? Un análisis forense ha indicado que una inflamación de su tejido adiposo, que ha inmovilizado su cola impidiéndoles cazar, ha sido la causa de su muerte por inanición. Se han encontrado peces muertos por la misma causa. ¿Qué está contaminando el río? Nadie lo sabe, afirma el Dr. Henk Bouwman de la Universidad de North-West en Sudáfrica. Una hipótesis es que ciertos dinoflagelados y cianobacterias están produciendo ciertas toxinas similares a las que causan las mareas rojas en ciertos estuarios. Otra hipótesis apunta hacia las substancias tóxicas generadas por las actividades mineras río arriba, fuera del parque natural, donde los cocodrilos ya han desaparecido hace tiempo. Pero por ahora nadie sabe la causa cierta de estas muertes masivas y si dicha causa podría afectar a las poblaciones humanas que viven a la orilla del río de los elefantes en Sudáfrica y Mozanbique. Nos lo cuenta Naomi Lubick, “Hunting a Croc Killer. Mass deaths of South Africa’s Nile crocodiles puzzle biologists,” Scientific American, october 2009, p. 25.

Sistema de visión artificial para invidentes para ver utilizando la lengua

Dibujo20090927_LOLLIPOP_DEV ICE_electrode_array_stimulates_tongue_light_intensity_from_camera

Vemos con el cerebro, no con los ojos.” Un nuevo dispositivo permite ver a los invidentes utilizando las terminaciones nerviosas de la superficie de la lengua. Las imágenes de una cámara son enviadas a una matriz de electrodos que se coloca sobre la lengua permitiendo, tras cierto entrenamiento, ver a una persona ciega. BrainPort sustituye los dos millones de nervios ópticos de un ojo por una matriz cuadrada de 400 elecrodos que se coloca sobre la lengua. Cada electrodo genera un pulso eléctrico correspondiente a un promedio de ciertos píxeles en la imagen de una cámara, siendo el blanco un pulso eléctrico fuerte y el negro la ausencia de pulso eléctrico. “Tan fácil como aprender a montar en bicicleta.” Los estudios indican que unos 15 minutos de entrenamiento son suficientes para que una persona invidente logre obtener información espacial de su entorno que le permita moverse y evitar obstáculos. Tras una semana, la mayoría de los sujetos aprenden a encontrar puertas y botones de ascensores, a leer letras y números, y a agarrar vasos o tenedores colocados en una mesa. BrainPort es un sistema de visión para invidentes no invasivo que se sometió a evaluación por el gobierno americano (U.S. Food and Drug Administration) a finales de agosto, por lo que podrá comercializarse a inicios del año próximo, con un precio estimado de 10 mil dólares americanos. Nos lo cuenta Mandy Kendrick ,”Tasting the Light. Device lets the visually impaired “see” with their tongues,” Scientific American, october 2009, pp. 22-24.

PS (28 sept. 2009): Carlos Martínez Vázquez, “BrainPort vuelve con una sorprendente demostración y su posible lanzamiento al mercado,” engadget.es, 14 / 08 / 2009 [visto a través de Menéame, tras este meneo descartado]. Incluye un espectacular vídeo youtube demostrativo del invento que no me resisto a “fusilar” aquí. Eso sí, recomiendo visitar a Carlos, tiene buena pinta engadget.es.

 

La reproducibilidad de un experimento no es suficiente para establecer su validez

Permitidme un recorte del artículo de Antoine Danchin, “Sílice, basófilos, y comités de lectura,” Mundo Cientifíco 193: 59-61, septiembre 1998.

Un experimento se puede repetir miles de veces equivocándose siempre acerca de su significado. El mejor ejemplo, el llamado “efecto fluoruro.”

Desde hace tiempo, los investigadores que estudian el transporte de metabolitos a través de las membranas celulares utilizan el ión fluoruro para caracterizar el comportamiento bioquímico de los transportadores. Se añade un poco de fluoruro de sodio al medio y se observa en ocasiones la activación  y en ocasiones la inhibición del trasporte, lo cual permite clasificar los transportadores por su “sensibilidad al fluoruro.” El experimento es rutinario en los laboratorios del mundo entero. Todo iba bien hasta que uno de los laboratorios, que había reproducido decenas de veces el experimento, no obtuvo los resultados anteriores. Imagínense el estado anímico de los investigadores. Se hicieron innumerables pruebas hasta que se descubrió que lo que había cambiado eran… los recipientes utilizados en los experimentos. El plástico había sustituido al vidrio. Bastaba volver al vidrio para reestablecer los resultados anteriores. ¿Qué había ocurrido? El ión fluoruro, en solución en el agua, ataca el vidrio y arranca el alumino (ligado a la sílice), lo que conduce a la formación de un ión AlF4. Este ión, como se demostró más tarde, es isomorfo al ión fosfato, por lo que el “efecto fluoruro” es en realidad un banal “efecto fosfato.” Por tanto todos los experimentos realizados basándose en este famoso efecto fluoruro eran experimentos no controlados: los resultados variaban con los recipientes y el número de recipientes utilizados. Muchos investigadores y enseñantes siguen ignorando la existencia de este artefacto.

Por razones comerciales, las revistas científicas más conocidas (como Nature y Science) buscan a veces lo inesperado, por no decir lo heterodoxo, sin preocuparse demasiado por la verosimilitud de los resultados. (…) El escándalo es una fuente de publicidad. (…) Máxima publicidad a unos trabajos sin interés científico pero presentados de tal manera que podían engañar a los no biólogos (periodistas, médicos, científicos de otras disciplinas).” ¿Por qué? Interés comercial.

La literatura científica, en general, es mediocre. Complejos juegos de poder agitan la comunidad científica internacional y sus relaciones con la sociedad civil. Una mediocridad y unos juegos de poder que a su vez facilitan la acción intempestiva de actores ajenos al espíritu científico que explotan las debilidades del sistema y recurren a la intimidación (la verdadera ciencia es hija de la duda) capaz de ahogar la verdadera originalidad, invocando la idea a veces correcta de que una cierta ortodoxia corta de miras cuida del grano.

¿Alguien se acuerda del famoso caso Benveniste? Nature, Maddox y la “memoria del agua.” El artículo técnico era E. Davenas, et al., J. Benveniste, “Human basophil degranulation triggered by very dilute antiserum against IgE,” Nature 333: 816-818, 1988.

El lado oscuro de John Maddox… el respeto a los fallecidos no puede ser eterno. Tras cierto luto también hay recordar su lado oscuro. Intencionadamente lo omití en “John Maddox, Nature, y la mula Francis,” 15 Abril 2009.