La polémica de la constante de gravitación universal

Dibujo20130912 present result bipm-13 compared with recent measurements of G

Medir la constante de gravitación universal de Newton (G) con precisión es muy difícil. Terry Quinn y sus colegas de la Oficina Internacional de Pesas y Medidas de París han medido su valor con una balanza de torsión obteniendo un resultado sorprendente, similar al que ya obtuvieron en 2001. Su nuevo valor G = 6,67545(18) × 10‾¹¹ m³ kg‾¹ s‾² tiene un error de 27 ppm, está a 21 ppm del valor obtenido en 2001, pero está a 241 ppm del valor oficial CODATA 2010, cuyo error oficial son 120 ppm. La balanza de torsión utiliza cuatro masas de 11 kg de Cu-Be que influyen sobre una masa de prueba de 1,2 kg de Cu-Be y ha sido reconstruida en su totalidad respecto a la versión usada en 2001, incluyendo gran número de mejoras. ¿Qué falla en su método de medida? ¿Por qué todas las mejoras introducidas no han corregido su resultado? ¿Se equivocan todos los demás? Nadie lo sabe, pero la polémica está servida. Nos lo cuentan en “Synopsis: An Uncertain Big G,” Physics, Sep. 5, 2013, siendo el artículo técnico Terry Quinn, Harold Parks, Clive Speake, Richard Davis, “Improved Determination of G Using Two Methods,” Phys. Rev. Lett. 111: 101102, Sep 5, 2013.

Sigue leyendo

Qué pasa al entrar en un agujero negro

Dibujo20121224 falling into a black hole

El principio de equivalencia de la teoría general de la relatividad de Einstein implica que no pasa nada al cruzar el horizonte de sucesos de un agujero negro, un observador no debe notar nada especial; de hecho, en un agujero negro supermasivo, la curvatura del espaciotiempo en el horizonte de sucesos es muchos órdenes de magnitud más pequeña que en la superficie de la Tierra. Pero este resultado es clásico y la aplicación de la física cuántica a los agujeros negros indica que su horizonte de sucesos debe emitir radiación de Hawking. ¿Notaría de alguna forma el observador que cae la existencia de esta radiación si tuviera un instrumento adecuado? La pregunta puede parecer una tontería, pero su respuesta es más complicada de lo que parece a primera vista, pues en rigor requiere una teoría cuántica de la gravedad y todavía no tenemos ninguna. Por supuesto, podemos aplicar las reglas de la mecánica cuántica a la teoría de la gravedad de Einstein y obtener resultados correctos en el límite de campos débiles, es decir, de agujeros negros con gran masa (como ya hizo Hawking); en dicho caso, el observador no notaría nada (la radiación de Hawking no puede ser detectada en agujeros negros de masa estelar y menos aún en agujeros negros supermasivos).

Sin embargo, el problema sigue estando ahí en el caso de campos fuertes (agujeros negros de masa muy pequeña, llamados microagujeros negros); en dicho caso tenemos que usar una teoría cuántica de la gravedad y la respuesta nos lleva a la frontera entre lo que sabemos y lo que nos gustaría saber. Nos lo contó en Madrid Kyriakos Papadodimas (University of Groningen), “Falling into a Black Hole and the Information Paradox in AdS/CFT,” IFT Xmas Workshop 2012, December 20 [slides]; la charla está basada en su artículo Kyriakos Papadodimas, Suvrat Raju, “An Infalling Observer in AdS/CFT,” arXiv:1211.6767, 28 Nov 2012.

Sigue leyendo

Sobre la nueva teoría de la gravedad que afirma explicar la energía oscura y la materia oscura

Dos profesores de matemáticas, Shouhong Wang de la Universidad de Indiana, EEUU, y Tian Ma de la Universidad Sichuan, China, han propuesto una nueva teoría de la gravedad que explica la energía oscura y la materia oscura como resultado de la distribución no uniforme de materia en el universo, dándole la vuelta al argumento de que la materia oscura es responsable de la web cósmica. Su artículo propone que el tensor energía-momento de la materia (ordinaria) no se conserva, por lo que ha de ser acompañado de un (nuevo) campo escalar asociada a la densidad de energía potencial, un nuevo tipo de energía/fuerza causada por la distribución no uniforme de materia en el universo. Esta nueva “fuerza” puede ser positiva (repulsiva) donde hay poca materia y mucho vacío, explicando la energía oscura, y negativa (atractiva) donde hay mucha materia y poco vacío, explicando la materia oscura. El gran problema de la nueva teoría es que no explica la materia oscura en los cúmulos y supercúmulos galácticos, donde ha sido observada gracias a los efectos de lentes gravitacionales. Además, a mí me recuerda mucho a una versión “cutre” de la teoría de Brans-Dicke, que también explica energía oscura y materia oscura; seguro que si tratan de hacer dinámico su campo escalar acabarán con esta bien conocida teoría (no citada en su artículo). El artículo técnico es Tian Ma, Shouhong Wang, “Gravitational Field Equations and Theory of Dark Matter and Dark Energy,” arXiv:1206.5078, Subm. 22 Jun 2012. Se han hecho eco de este artículo en “Mathematicians Offer Unified Theory of Dark Matter, Dark Energy, Altering Einstein Field Equations,” ScienceDaily, Sep. 6, 2012.

Las nuevas observaciones en estrellas binarias no ponen en duda la materia oscura

La materia oscura galáctica influye en el movimiento mutuo de las estrellas binarias que están muy alejadas entre sí; si no tenemos en cuenta la materia oscura, resultará que estas estrellas binarias violarán la tercera ley de Kepler (para estrellas binarias separadas entre 0,005 y 10 pársecs la teoría de Newton es una aproximación exquisita a la teoría general de la relatividad de Einstein). El teorema virial nos indica que si la materia oscura está distribuida de forma homogénea e isótropa en nuestra galaxia (al menos en una región alrededor del Sol con un radio menor de 400 pársecs), las velocidades relativas entre las dos estrellas binarias tendrá un límite máximo independiente de su distancia mutua; si no existiera la materia oscura, el límite máximo para la velocidad relativa crecerá conforme las estrellas estén más próximas. Un reciente artículo de tres investigadores de la Universidad Nacional Autónoma de México muestra exactamente esto para las estrellas binarias bien separadas de los catálogos estelares SLoWPoKES (Sloan Low-mass Wide Pairs of Kinematically Equivalent Systems) e Hipparcos(Saya-Olling 2011). Para un astrofísico experto el artículo no presenta ningún tipo de sorpresa, el resultado es el que se espera si existe la materia oscura, sin embargo, los autores del artículo ofrecen una explicación alternativa, los datos también se pueden explicar sin utilizar la materia oscura, gracias al uso de una teoría de gravedad modificada. La noticia ha llegado a portada en Menéame, “Nuevas observaciones en estrellas binarias ponen en duda la materia oscura y confirman teoría de gravedad modificada,” y varios lectores de este blog me han pedido una entrada al respecto. El artículo técnico es X. Hernandez, M. A. Jimenez, C. Allen, “Wide binaries as a critical test of Classical Gravity,” Accepted for publication in EPJC, ArXiv:1105.1873.

La mayor parte de las teorías de gravedad modificada (MOND, TeVeS, teorías f(R), teorías conformes de la gravedad, etc.) tienen como consecuencia común que la gravedad de Newton (y la de Einstein) fallan para aceleraciones muy pequeñas, por debajo de un valor crítico a0; el valor de consenso para esta aceleración crítica, obtenido a partir de medidas del movimiento de las estrellas más externas de nuestra galaxia, es de unos 1,2 × 10−10 m/s². Las estrellas que se mueven con aceleraciones menores que este valor muestran velocidades de equilibrio independientes de la distancia al centro galáctico; para los que no sean expertos en estas lides hay que recordar que si la materia oscura del halo galáctico permite obtener el mismo resultado (las curvas de rotación galáctica muestran que el valor de la velocidad estelar se aplana conforme nos alejamos del centro galáctico). Sin embargo, hay un hecho que mucha gente olvida cuando habla de las teorías de gravedad modificada. Las curvas de rotación galáctica también muestra que si nos alejamos aún más, la velocidad estelar empieza a decrecer, hecho difícil de explicar usando una teoría de gravedad modificada.

El trabajo de Hernández, Jiménez y Allen considera estrellas binarias en nuestro entorno cercano cuya aceleración mutua es menor que la aceleración crítica, es decir, si tuvieran una masa solar deberían estar separadas más de 7000 unidades astronómicas, unos 0,034 pársecs. Han considerado las estrellas binarias muy alejadas entre sí de los catálogos del satélite Hipparcos (filtrado por un análisis bayesiano realizado por Shaya y Olling) y el catálogo SLoWPoKES del SDSS. Han seleccionado, respectivamente, 280 y 417 sistemas binarios de ambos catálogos exigiendo que superen ciertos criterios “razonables” para que sean representativos de los sistemas binarios cuyo movimiento está influido por la materia oscura (ellos dicen que por la aceleración crítica de una gravedad modificada). Sus resultados son interesantes, aunque me gustaría ver la comparación de sus resultados con los obtenidos asumiendo que hay que materia oscura, lo que permitiría comprobar si la hipótesis de la aceleración crítica se ajusta mejor a los datos que la hipótesis de la materia oscura. Por lo poco que yo sé de estos asuntos (con mis parcos conocimientos de curvas de rotación galácticas), creo que ambas hipótesis tendrán una confianza estadística similar. Por tanto, no podemos afirmar que este artículo refuta la idea de la materia oscura galáctica, ni que ratifica las teorías de gravedad modificada tipo MOND. En mi modesta opinión, por ahora, todo queda en empate.

¡Qué envidida! Erik Verlinde logra 4,5 millones de euros para investigar en gravedad emergente

Quién ha dicho que a un físico teórico le bastan lápiz y papel para realizar su trabajo. Erik Verlinde recibió el año pasado 2 M€ gracias a un proyecto ERC Advanced Grant y este año otros 2,5 M€ al ganar un Premio Spinoza. No es dinero para su bolsillo, en exclusiva, sino para financiar su investigación. Para un físico teórico esto significa contratar postdocs y becarios de doctorado. Con 4,5 millones de euros puedes contratar a mucha gente, pero que mucha gente. Sin embargo, Verlinde es todo un solitario, como buen físico teórico: en sus 55 artículos en el ISI WOS solo tiene 10 coautores. Para dar trabajo a mucha gente hay que tener muchas y muy buenas ideas. ¿Será capaz Verlinde de concebir trabajo para tantos becarios? La otra posibilidad es gastarse el dinero en máquinas (superordenadores) para realizar simulaciones numéricas (y contratar a programadores especialistas en computación científica). Nos lo cuenta Peter Woit, “$6.5 Million for Entropic Gravity,” Not Even Wrong, June 12, 2011.

Os recuerdo a los despistados. El Consejo Europeo de Investigación (ERC) fue creado por la Unión europea en el año 2007 para favorecer proyectos de investigación fundamental con el único criterio de la excelencia científica del investigador principal. El programa “Ideas” del 7° Programa-Marco de investigación europea concede proyectos de investigación para científicos que se encuentran en el inicio de su carrera profesional (“ERC Starting Grants”) o para científicos con experiencia y reconocidos en su ámbito (“ERC Advanced Grants”). Por ejemplo, Diego Córdoba logró un ERC Starting Grant por 1,7 M€, si no recuerdo mal (y hay otros dos en el ICMAT).

El Premio NWO-Spinoza es el máximo galardón holandés para científicos. Se premia a investigadores holandeses de gran renombre internacional que además tengan una experiencia demostrada formando a jóvenes investigadores.

Enhorabuena, Erik, ¡y qué envidia sana me das!

Más en este blog sobre las ideas de Verlinde: “La gravedad como una manifestación macroscópica de la termodinámica del vacío en teoría cuántica de campos,” 2 septiembre 2009; “Todo es entropía. Peter Freund afirma que las ideas de Erik Verlinde se aplican a toda la física,” 27 agosto 2010; “Posible refutación experimental de la teoría de Verlinde sobre la gravedad como fuerza entrópica,” 8 octubre 2010.

La espectroscopía con neutrones ultrafríos permitirá verificar la ley de la gravedad a distancias inferiores a un micrómetro

El estudio de la ley de la gravedad a distancias muy cortas es necesario para confirmar que la teoría de Newton/Einstein no necesita correcciones a dichas distancias (como “la corrección a la gravedad de Newton debida a las dimensiones extra del espaciotiempo,” predicha por la teoría ADD, de Arkani-Hamed, Dimopoulos y Dvali, propuesta en 1998 ). Hartmut Abele, de la Universidad Tecnológica de Viena, Austria, y sus colegas publican en Nature Physics un nuevo método para poner a prueba la gravedad a distancias inferiores a un micrómetro, la espectroscopia atómica con neutrones ultrafríos. Todavía no se ha logrado realizar dicha medida, sólo se ha presentado el análisis teórico detallado del método propuesto; aún así, la noticia ha aparecido en BBC News y ya se sabe, otros medios se han hecho eco. Todo parece indicar que el experimento propuesto es factible y podrá realizarse en uno o dos años. Habrá que estar al loro. El artículo técnico es T. Jenke, P. Geltenbort, H. Lemmel, H. Abele, “Realization of a gravity-resonance-spectroscopy technique,” Nature Physics, . Se han hecho eco del mismo muchos medios y blogs, como Joerg Heber, “Gravity weighs in on spectroscopy,”  All that matters, April 17, 2011; James Romero, “Dark matter and string theory? Super-cold neutrons could provide the answer,” ILL News, 17.04.2011; Florian Aigner, “Probing the Laws of Gravity: A Gravity Resonance Method,” Technische Universitat, Wien, 2011-04-18; Jason Palmer, “Neutrons could test Newton’s gravity and string theory,” BBC News, 18 April 2011; y Peter Woit, “This Week’s Hype,” Not Even Wrong, April 18, 2011.

El sistema consiste en medir de forma precisa las fases cuánticas de De Broglie que acoplan a una partícula (un neutrón) y un objeto macroscópico (un espejo) gracias una técnica de espectroscopia llamada método de Ramsey. Se parte de un haz delgado de neutrones ultrafríos producidos en el Instituto Laue-Langevin (ILL), en Grenoble, y preparados con una velocidad horizontal de v = 6.6 ± 0.7 m/s. Su velocidad transversal es muy pequeña (la energía cinética transversal es del orden de un peV o picoelectrónvoltio). El haz se hace pasar entre dos espejos planos separados por unos 20-25 µm. El espejo de arriba tiene una superficie rugosa que le permite absorber los neutrones que incidan en él. Sólo los neutrones con una energía cinética transversal capaz de superar la fuerza de la gravedad serán capaces de alcanzar dicho espejo. El espejo inferior sirve para confinar la función de onda de los neutrones. La mayoría de los neutrones tienen una energía transversal muy pequeña y atravesarán el sistema sin dejar huella. Su función de onda entre los dos espejos es una onda estacionaria. Para observar los neutrones absorbidos por el espejo superior se hace vibrar el espejo inferior a su frecuencia de resonancia.  Como resultado, la función de onda del haz de neutrones presenta dos estados cuánticos superpuestos, uno asociado a los neutrones que pasan sin más entre los dos espejos y otro asociado a los que son absorbidos. El resultado es una medida ultraprecisa de las propiedades de los neutrones absorbidos que permite verificar la teoría de la gravedad de Newton a escalas por debajo del micrómetro (según los autores se podrán alcanzar distancias entre 1 y 100 nm, aunque esto está todavía por ver).

Desde este blog deseo que este experimento pueda ser realizado y que se confirme su precisión conforme indican los resultados de las simulaciones por ordenador. Me temo que verificará la teoría de Newton (o Einstein), pero quien sabe, los físicos teóricos seguro que no pierden la esperanza de que se descubra alguna desviación. En resumen, aunque me parezca que todavía es pronto para lanzar las campanas al vuelo, me ha llamado la atención el artículo como propuesta teórica interesante.

PS: Relacionada con la gravedad y la teoría ADD recomiendo leer a Oscar, “El gran acto de desaparición de la gravedad,” Ciencia Kanija, 18 abr. 2011.

La medida más precisa de G conducirá a un valor CODATA de G más impreciso que el actual

 

Medir la constante G de la gravitación universal de Newton es una tarea muy difícil porque la gravedad es la fuerza fundamental más débil. La teoría no permite determinar su valor por lo que ha de ser medido mediante experimentos, dando un valor de 6’674×10−11 m3 kg−1 s−2. Un artículo publicado en Physical Review Letters de Parks y Faller, del que ya nos hicimos eco en este blog, ha permitido determinar un nuevo valor de G con un error de solo el 0’0021%, o 21 partes por millón (p.p.m.). El problema es que el valor obtenido para G no coincide con el valor oficial publicado por el Grupo CODATA que publica los valores estándares de las constantes fundamentales. El nuevo valor es similar al valor CODATA-86 pero difiere del valor actual CODATA-06. Su incorporación hará que la incertidumbre del nuevo valor CODATA-10 de G en lugar de decrecer, crezca. No es la primera vez que pasa: el valor CODATA-86 tenía un error de 130 p.p.m. y el valor CODATA-98 uno de 1500 p.p.m. (aunque en dicha ocasión el valor de G no cambió). Sorpresas en la gravedad que han merecido un nuevo artículo en Nature sobre este tema, Richard Davis, “Fundamental constants: Big G revisited,” Nature 468: 181–183, 11 November 2010 (ya se publicó en Eugenie Samuel Reich, “G-whizzes disagree over gravity,” News, Nature, Published online 23 August 2010). Si en Nature hablan dos veces de este tema, Francis no puede ser menos.

Posible refutación experimental de la teoría de Verlinde sobre la gravedad como fuerza entrópica

Archil Kobakhidze afirma que los experimentos con neutrones ultrafríos en un campo gravitatorio publicados en 2002 en Nature refutan la teoría de Eric Verlinde sobre la gravedad como fenómeno emergente. Según Verlinde la gravedad es una fuerza entrópica, es decir, tiene un origen termodinámico y está causada por los cambios en entropía asociados a la posición de los cuerpos. Su teoría contradice los resultados experimentales en ciertos casos: cuando la longitud de onda de Compton de un neutrón es menor que el nivel de energía mínimo del sistema cuántico, la teoría de Verlinde asume que hay una probabilidad no nula de observar el neutrón, pero los experimentos y la mecánica cuántica no relativista predicen que esta probabilidad es exactamente nula (el sistema es opaco a los neutrones). Los experimentos de Nesvizhevsky et al. verificaron la mecánica cuántica para el movimiento vertical de un partícula en el campo gravitatorio de la Tierra. Este movimiento no es continuo sino discreto y la posición del neutrón presenta valores discretos. La teoría de Verlinde predice la observación de un neutrón en distancias menores que el nivel discreto de menor altura, algo que contradice el experimento. Los interesados en los detalles técnicos disfrutarán con el artículo (de solo 5 páginas) de Archil Kobakhidze, “Gravity is not an entropic force,” ArXiv, 27 Sep 2010. Quizás conviene recordar los experimentos de Valery V. Nesvizhevsky et al., “Quantum states of neutrons in the Earth’s gravitational field,” Nature 415: 297-299, 17 January 2002.

La caída de un neutrón ultrafrío en el campo gravitatorio de la Tierra se modela con la ecuación de Schrödinger estacionaria dada por

\left[\frac{\hat p_z^2}{2m}+V(z)\right]\psi_{n}(z)=E_n\psi_n(z),

V(z)= mgz, \quad z \geq 0, \qquad V(z)= \infty, \quad z < 0.

Las soluciones analíticas (que dependen de la función de Airy) indican que la energía de los estados discretos de la partícula está descrita por

E_n=mgz_n, \quad z_n = -L\cdot {r}_n.

Esta fórmula fue verificada en los experimentos de Nesvizhevsky et al. y demuestra que es imposible observar (la probabilidad es nula) un neutrón en un distancia menor que z_1\approx 13.7\ \mu{\rm m} (los experimentos dieron el valor z_1^{\rm exp}=12.2\pm 0.7_{\rm stat}\pm 1.8_{\rm syst}\ \mu{\rm m}). Este resultado difiere de las predicciones de la teoría de Verlinde según la cual la función de onda de los neutrones cumple que

\frac{\partial^2 \tilde \psi_n}{\partial z^2}-\frac{4{\rm Im}\kappa}{\hbar} \frac{\partial \tilde \psi_n}{\partial z}= \frac{2m}{\hbar^2}\left(V(z)-E_n-\frac{2}{m}({\rm Im}\kappa)^2\right)\tilde \psi_n,

cuyas soluciones tienen energías discretas dadas por

E_n=mgz_n - \frac{1}{2m}({\rm Im}\kappa)^2=mgz_n + 2\pi^2 mc^2~,

que presenta un factor constante que no es observable. Sin embargo, las funciones de onda presentan un comportamiento exponencial decreciente para distancias menores que z_1, cuando la longitud de onda de Compton de un neutrón \lambda \approx 1.3\cdot 10^{-9}\ \mu{\rm m} es más pequeña que la distancia característica del sistema L\approx 4.9 \ \mu{\rm m}. Como resultado la probabilidad de observar un neutrón no es nula para \lambda < h<<< z_1, resultado que contradice las observaciones experimentales de Nesvizhevsky et al. que muestran opacidad perfecta para los neutrones cuando h<z_1.

Obviamente, puede haber loopholes en los argumentos del autor. Habrá que estar al tanto de como refutan estos resultados los defensores de las ideas de Verlinde.

El satélite Planck podrá determinar si los gravitones tienen masa en reposo no nula

Dibujo20090715_graviton_cartoon_(C)_animaginatorEl gravitón es la partícula elemental responsable de la fuerza de la gravedad. Todavía no ha sido descubierto experimentalmente. Teóricamente debería tener masa en reposo nula. ¿Qué límites para la masa del gravitón ofrece el fondo cósmico de microondas? Sergei Dubovsky de la Universidad de Stanford, EEUU, y sus colaboradores han mostrado que su masa debe ser m\lesssim 10^{-30}~\mbox{eV}\approx(10\mbox{ Mpc})^{-1} (Mpc es megapársec). Más aún, un gravitón con una masa en el rango (10\mbox{Mpc})^{-1} \,\mbox{ a }\, (10\mbox{ kpc})^{-1} conduce a modificaciones en la polarización del fondo cósmico de microondas al alcance de los instrumentos del satélite Planck (ya en órbita). El artículo técnico es Sergei Dubovsky, Raphael Flauger, Alexei Starobinsky, Igor Tkachev, “Signatures of a Graviton Mass in the Cosmic Microwave Background,” ArXiv, Submitted on 9 Jul 2009.

Las propiedades físicas del gravitón dependen de la teoría cuántica de la gravedad correcta, todavía no conocida. Aún así, para campos gravitatorios débiles, podemos suponer que la aproximación cuasiclásica nos da una idea correcta sobre sus propiedades, como nos recuerda magistralmente Carlo Rovelli, “Notes for a brief history of quantum gravity,” ArXiv, Submitted on 16 Jun 2000. En 1971, t’Hooft y Veltman decidieron aplicar las nuevas técnicas de renormalización (dimensional) que habían desarrollado a la teoría cuántica de la gravedad. Como ejercicio de calentamiento decidieron aplicarlas a un campo de Yang-Mills, mostrando que éste último es renormalizable (lo que les llevó a ganar el Premio Nobel de Física en 1999), pero la gravedad cuántica no lo es. Posteriormente, van Dam y Veltman estudiaron la posibilidad de que el gravitón fuera masivo (independientemente también lo hizo Zakharov). Si el gravitón es de masa en reposo nula, su polarización sólo tiene dos posibles valores (como en el fotón). Sin embargo, un gravitón masivo tiene grados de libertad adicionales en la polarización y ciertas partículas “fantasmas” (ghosts)cuya confrontación con los datos experimentales requiere cierto ajuste fino, lo que produce ciertas dificultades. Aún así, sólo el experimento tiene la última palabra. ¿Cuál será la última palabra del satélite Planck? Sólo el tiempo lo dirá.

Nuevo experimento de la rendija para estudiar la dualidad onda-partícula con átomos de hidrógeno ultrarrápidos

La diferencia entre ciencia y religión no es la Fé, que es necesaria en ambas, sino el método científico. La caricatura de la izquierda lo ilustra muy bien (en inglés): “El método científico: Estos son los hechos. ¿Qué conclusiones podemos extraer de ellos? El método creacionista: Aquí está la conclusión. ¿Qué hechos podemos encontrar para demostrarla?”

Todas las verdades en Física están sujetas a la duda (la duda metódica cartesiana o la definición de ciencia de Popper): todas las verdades científicas deben ser refutables. Es por ello, que los experimentos “clásicos” que han demostrado la validez de ciertas “verdades” deben ser repetidos periódicamente en circunstancias diferentes con objeto de verificar dicha “verdad”. Por ejemplo, es válida la Ley de Newton de la Gravedad a escalas pequeñas. El último resultado del que tengo referencia dice que sí lo es hasta las 5 micras (micrómetros), para lo que se ha utilizado un dispositivo micromecánico (MEMS) para medir la fuerza en entre dos pequeñas masas separadas a dicha distancia. El artículo de D. M. Weld, J. Xia, B. Cabrera, A. Kapitulnik, “A New Apparatus for Detecting Micron-Scale Deviations from Newtonian Gravity,” ArXiv preprint, submitted on 7 Jan 2008 . ¿Qué pasa a distancias menores de 1 micra? ¿Se cumple la ley de Newton? Nadie lo sabe aún. Habrá que esperar a nuevos experimentos. Lo mismo ocurre a distancias muy grandes con la Relatividad General de Einstein, donde los experimentos directos son imposibles y algunos resultados de difícil explicación sugieren a algunos autores desviaciones respecto a la teoría.

A los científicos nos gusta hablar como si estuvieramos en posesión de la verdad, sin embargo, la “verdad” es que nuestra Fé en la Verdad debe ir unida a la Duda sobre su veracidad. ¿Cómo demostrar la dualidad onda-partícula para la luz y la materia en la Mecánica Cuántica? La manera más habitual es utilizar el experimento de la doble rendija. Young hace 200 años utilizó dicho experimento para demostrar las propiedades ondulatorias de la luza, haciendo pasar rayos de luz por un par de pequeños agujeros y observando las franjas de interferencia subsiguientes. En 1923, de Broglie propuso que los electrones y otras partículas materiales se podían describir como ondas lo que conduciría a la formación de patrones de interferencia cuando un haz de dichas partículas interactuace con una “pantalla” con dos pequeños agujeros o rendijas. En 1927, Davisson y Germer demostraron de esta forma la naturaleza ondulatoria del electrón. Dicho experimento se ha realizado también con neutrones, átomos, y moléculas. Por ejemplo, A. Zeilinger et al., “Wave-particle duality of C60 molecules,” Nature 401, 680-682, 14 October 1999 , realizó dicho experimento con fullerenos o buckybolas, moléculas con 60 átomos de carbono con forma de balón de fútbol; estas moléculas son prácticamente cuerpos clásicos dado el gran número de grados de libertad “cuánticos” que poseen con los que pueden interactuar con el entorno vía la decoherencia. Más recientemente se ha llegado a demostrar con moléculas aún más grandes, como los fullerenos C70, S. Gerlich et al., “A Kapitza-Dirac-Talbot-Lau interferometer for highly polarizable molecules,” Nature Physics 3, 711-715, 2007, ArXiv preprint.

El experimento de la doble rendija depende de la longitud de onda de de Broglie de la partícula (átomo o molécula) utilizada. Dicha longitud de onda es inversamente proporcional al momento (o la energía cinética) de la partícula, es decir, a más energía, menor longitud de onda. ¿Cuál es la longitud de onda más corta en la que el experimento ha sido comprobado? Acaba de publicarse hace unos días que dicho experimento con átomos de hidrógeno con una energía de 1.3 MeV, es decir, con una longitud de onda de 25 fm. (femtometros). El resultado del artículo de H. T. Schmidt et al., “Evidence of Wave-Particle Duality for Single Fast Hydrogen Atoms,” Phys. Rev. Lett. 101, 083201 ( 2008 ), confirma las conclusiones de la mecánica cuántica.

Estos experimentos son necesarios. Sin ellos, la ciencia no puede “progresar” ya que su progreso requiere reafirmar lo ya establecido en la búsqueda de su refutación.

Para los interesados en una breve explicación del experimento de la doble rendija, en inglés subtitulada en español, les recomiendo el siguiente vídeo de youtube.