Newton y la historia de la manzana (verdadero o falso)

http://dx.doi.org/10.1016/S0160-9327(99)80040-4 

¿Es verdadera la historia de la manzana que cae delante de Newton y que le muestra que la gravedad que atrae  a la manzana es la misma que la que atrae a la Luna, llevándole a concluir la existencia de una Gravitación Universal?

Difícil respuesta. En «Newton and the Science of his Age«, E. N. da C. Andrade (Nature, vol. 150, 1942) indica que la historia de la manzana fue descrita por Voltaire en la segunda edición de su libro «Eléments de la Philosophie de Newton«, 1741, pero no aparece en la primera edición de dicho libro en 1738. Aparentemente, «Newton and the Apple«, E. N. da C. Andrade (Nature, vol. 151, 1943), la historia fue publicada por Voltaire en 1733 en sus «Lettres sur les Anglais», que aparecieron en versión inglesa el mismo año. ¿Por qué Voltaire la omitió en la primera edición de su libro? No se sabe. ¿Quién le contó la historia a Voltaire? Parece ser que Voltaire dice que se la contó la «sobrina» de Newton, Sra. Conduitt, casada con el asistente de Newton.

Hay quien piensa que es también una leyenda, pero miren esto escrito por un amigo suyo. W. Stukeley «Memorias de la vida de sir Isaac Newton»: «Tras la cena [el 15 de abril de 1726], con clima agradable, salimos al jardín él [Newton] y yo a tomar el té a la sombra de unos manzanos. En la conversación me dijo que estaba en la misma situación que cuando le vino a la mente por primera vez la idea de la gravitación. La originó la caída de una manzana, mientras estaba sentado, reflexionando. Pensó para sí ¿por qué tiene que caer la manzana siempre perpendicularmente al suelo? ¿Por qué no cae hacia arriba o hacia un lado, y no siempre hacia el centro de la Tierra? La razón tiene que ser que la Tierra la atrae. Debe haber una fuerza de atracción en la materia; y la suma de la fuerza de atracción de la materia de la Tierra debe estar en el centro de la Tierra, y no en otro lado. Por esto la manzana cae perpendicularmente, hacia el centro. Por tanto, si la materia atrae a la materia, debe ser en proporción a su cantidad [la masa]. La manzana atrae a la Tierra tanto como la Tierra atrae a la manzana. Hay una fuerza, la que aquí llamamos gravedad, que se extiende por todo el universo».

En «¿existió la manaza de Newton?» se sugiere que: «¿Está la anécdota de la manzana destinada a Catherine Conduitt? Posiblemente, era lega en matemáticas y la única persona que le podía importar lo suficiente a Newton para que este buscara una anécdota divulgativa.» 

En inglés podemos leer «Falling Apple Story» que afirma que «Conduitt does not actually declare that an apple fell in Newton’s presence», luego la caída de la manzana podría ser una ilustración de una tesis y no una observación que realmente haya ocurrido. También podemos leer que «Voltaire, writing in English in his Essay on the Civil War in France (1727), spoke of ‘Sir Isaac Newton walking in his Garden had the first thought of his System of Gravitation, upon seeing an Apple falling down from the Tree’,» que reaparece en sus Letters de 1733, como hemos indicado antes. El autor de «Falling Apple Story» propone que la fuente de Voltaire pudo ser Catherine Barton (que tras casarse pasó a ser la sra. Conduitt). También parece que la historia fue publicada en 1727 por Robert Greene en su «Philosophy of the Expansive and Contractive Forces», señalando como fuente a Martin Folkes.

Un hombre de unos 80 años recordando historias de juventud y contándoselas a sus amigos (Catherine Barton, Martin Folkes, John Conduitt y William Stukeley). ¡¡ Qué bonita historia !! La otra cara de la «bestia negra» de Newton entrado el s. XVIII.

¿Interesado en tsunamis? Algunos enlaces de interés

Las simulaciones de la propagación del tsunami de 26 de diciembre de 2004 de Randall LeVeque y colaboradores son muy interesantes. Se basan en el uso de métodos numéricos de tipo Volúmenes Finitos para las Ecuaciones de Aguas Someras (shallow water) incluyendo malla adaptativa en tiempo y espacio. Las animaciones (GIFs animados) son muy recomendables (pero tardan tiempo en cargar): Océano Índico con malla adaptativa, Cómo se genera el tsunami, Como se propaga inicialmente desde Sri Lanka y cómo se propaga por todo el océano Índico. Yo las ví por primera vez en el Congreso Internacional de Matemáticos (ICM) de 2006 celebrado en Madrid, en la charla del propio LeVeque (muy sencillo en contenido técnico pero muy espectacular por las animaciones). El artículo técnico tarda en descargar pero se entiende fácilmente. La presentación PPT también está muy bien (pero tarda más aún). La presentación en el ICM la podéis obtener de la página web de Randall: las películas en GIF, y el preprint del artículo técnico.

Una explicación sencilla del «funcionamiento» de un tsunami («Understanding the tsunami with a simple model» EJP 2006) puede ser difícil para un aficionado a la ciencia, con lo que quizás es más recomendable el artículo «Explaining the physics of tsunamis to undergraduate and non-physics students»  EJP 2006. «Dynamics of tsunami waves» es también fácil de leer. El siguiente video presenta la idea muy simplificada.

Estas explicaciones se basan en el que el tsunami es un tipo de onda solitaria (solitón) que resulta del equilibrio de ciertos términos no lineales en las ecuaciones con términos lineales (dispersivos). Sin embargo, un artículo muy cortito de Adrian Constantin critica esta idea, observando que la topografía del fondo puede explicar los tsunamis en un modelo de múltiples escalas. Aunque Constantin y el otro autor Johson son matemáticos muy famosos en dinámica de ondas no lineales, su idea no ha sido seguida por otros, todavía.

Cómo descubrir las pepitas de oro de la ciencia (o a toro pasado, todo es más fácil)

La mejor métrica bibliométrica para cuantificar la importancia o el impacto de un artículo no es conocida, quizás incluso no exista. La más sencilla es el número de citas. Sin embargo, el algoritmo de cuantificación de la importancia que utiliza Google, PageRank de Google, también puede ser de utilidad. Los autores de «Finding Scientific Gems with Google» Chen, Xie, Maslov, Redner, 2006, han aplicado dicho algoritmo a más de 350.000 artículos publicados en las revistas Physical Review (desde A a E) hasta 2003. De esta manera han determinado los artículos que son «excepcionalmente» buenos (según el PageRank de Google). ¿Cómo son estas «pepitas de oro» de la ciencia? ¿Realmente han influido en la historia reciente de la Física? ¿Cómo correlaciona esta métrica con el número de citas? A toro pasado es fácil contestar estas preguntas. De todas formas merece la pena leerse el artículo.

Los autores han descubierto que hay una buena correlación entre el número de citas y la media del PageRank de Google. Sin embargo, algunos artículos «atípicos» (outliers) están altamente colocados según el PageRank pero tienen pocas citas. Por ejemplo, el artículo «Unitary Symmetry and Leptonic Decays«, Phys. Rev. Lett. 10, 531 (1963) de
N. Cabibbo el No. 1 según el PageRank pero sólo el No. 54 según el número de citas. Por contra, el artículo «Self-Consistent Equations Including Exchange and Correlation Effects«, Phys. Rev. 140, A1133 (1965) de W. Kohn & L. J. Sham es el No. 3 según el PageRank siendo el No. 1 en número de citas (3227 comparada con 574 del otro).

Los autores proponen que esta técnica permite determinar las «pepitas» de la ciencia. Por ejemplo, el artículo No. 10 según el PageRank, «The Theory of Complex Spectra«, by J. C. Slater, solamente ha sido citado 114 veces (tiene el puesto 1853 en número de citas, aunque hoy por hoy tiene 240 citas según APS). El determinante de Slater se utiliza hoy tanto que la mayoría de los investigadores ya no citan el artículo original (que se ha asumido como parte del «know-how» en Física). El PageRank de Google logra identificar esta gema y reinvidicar la importancia de este trabajo de Slater.

Entre los 100 artículos con mayor PageRank podemos buscar las gemas entre los que tienen «anormalmente» pocas citas (los otros también son gemas, pero no por descubrir). El artículo de Wigner and Seitz, «On the Constitution of Metallic Sodium»  o el artículo de Gell-Mann and Brueckner, «Correlation Energy of an Electron Gas at High Density» son algunas de las 23 gemas (entre 100) encontradas por los autores.

Por supuesto, el algoritmo PageRank también se equivoca a veces (todos tenemos la experiencia buscando con Google). Por ejemplo, el artículo de Rosenstock and Marquardt, «Cluster formation in two-dimensional random walks: Application to photolysis of silver halides«, que parece que tiene sólo 3 citas y es un top 100. La razón es que uno de los artículos que le citan, de T. Witten and L. Sander
«Diffusion-Limited Aggregation, a Kinetic Critical Phenomenon» tiene la friolera de 680
citas, incluyendo sólo 10 referencias, con lo que su fama se extiende hasta el artículo de Rosenstock adn Marquardt. De hecho, un artículo que es citado por un artículo muy famoso que tenga pocas referencias, adquiere un valor de PageRank muy importante.

La misma idea de los autores de «Finding Scientific Gems with Google» Chen, Xie, Maslov, Redner, 2006, ha sido aplicada para determinar los autores que son «pepitas de oro» en sus campos, «Mining a digital library for influential authors«, Mimno, McCallum, 2007. Los autores han usado la Rexa Digital Library. Para cada artículo calculan su PageRank, que interpretan como la probabilidad de que un investigador ahora mismo esté leyendo dicho artículo. Han correlacionado los resultados con bases de datos de premios para científicos y han encontrado cierta correlación. Aunque el resultado no es muy espectacular.

Pero si el PageRank de Google funciona bibliométricamente tan ¿bien?, por qué Google Scholar no está considerado como una fuente «fiable» de información científica (de hecho muchas veces encuentro artículos por su título en Google que no logro encontrar en (la versión beta) de Google Scholar, ¿habrá algún una versión alfa?).

El mayor problema con Google Scholar está relacionado con la dificultad de determinar la relación entre su precisión, cobertura y calidad de su contenido. Promesas como que es «the best possible scholarly search» y «a single place to find scholarly materials covering all research areas, all sources, all time«, son claramente exageradas. Si ese es su objetivo, no lo han logrado (y en mi opinión no lo lograrán en los próximos años). Por ejemplo, ciertas editoriales han vetado a Google Scholar (Elsevier, ACS, o Emerald no están incluidas, aunque Google Scholar encuentra muchas de ellas de forma indirecta gracias a PubMed y otras fuentes) y las editoriales que no lo han vetado, no han ayudado a Google, con lo que no hay garantía que el contenido ofrecido por G. Scholar es completo.

Veamos un ejemplo: en el artículo «Is MetaSearch Dead?«, PPT de Roy Tennant, 2005,  el autor busca la palabra «tsunami» en Google Scholar, Google, y en la  National Science Digital Library (NSDL). He repetido la búsqueda para confirmarla. La primera página de Google Scholar ofrece 2 libros, 2 artículos de revisión y 6 artículos técnicos, información que podemos considerar como poco adecuada para un estudiante universitario. En Google, por el contrario, ofrece 3 «wiki»-verdades, con información científica «útil», y varias páginas con información que podemos considerar útil, al menos para un estudiante. Finalmente, la búsqueda en NSDL ofrece 10 enlaces con información científica interesante para un estudiante. De todas las formas los mejores artículos no son fáciles de encontrar.

Cebreros, uva de albillo, clarete y astrofísica

Cebreros, Ávila, es un pequeño pueblo que ha vivido siempre de la agricultura, de la vid, y del vino. El clarete de Cebreros, aunque ahora le llaman rosado, nace en una tierra de vinateros donde las haya (con 3500 habitantes censados hay más de 600 vinateros). Las uva de albillo de Cebreros produce vinos de gran calidad, gran graduación alcohólica, muy sabrosos, con mucho cuerpo, de color amarillo dorado y de potente aroma. Todo un placer para la boca.

Pero en Cebreros también hay actividad astrofísica. En 2005 se inauguró la nueva estación de espacio profundo de la Agencia Europea del Espacio (ESA) que dispone de una antena parabólica de 35 metros que permite a la ESA disponer de una red propia de espacio profundo independiente de la red de la NASA. Estrenada con el lanzamiento de la sonda Venus Express será de gran utilidad en la gestión en tierra de los telescopios espaciales Herschel, Planck y Gaia.

El telescopio Planck, el mejor sucesor del Wilkinson MAP y del COBE, estudiará las anisotropías y la polarización de la radiación del fondo cósmico de microondas con una precisión hasta ahora no disponible. Será lanzado el 31 de julio de 2008, junto al telescopio espacial infrarrojo Herschel. La empresa Alcatel (en Francia) realizó las pruebas criogénicas del telescopio que fueron todo un éxito.

El telescopio Planck observará el efecto de Sunyaev-Zeldovich (SZ) («Sunyaev-Zeldovich and Cosmic Microwave Background» Burigana, 2007, ver foto) en un amplio rango de frecuencias en el fondo cósmico de microondas. El efecto SZ es una consecuencia de el efecto Compton entre la radiación de fondo y los electrones del gas caliente que se encuentra en los grandes clústeres de galaxias, por ello su estudio permite una mejor comprensión de la evolución de las grandes estructuras del universo. En castellano hay pocas fuentes, pero creo necesario recomendar el trabajo del español José María Diego, cuya tesis doctoral se centró en el efecto SZ.

Me parece que me voy a saborear una copa de clarete de Cebreros (aunque en la etiqueta ponga rosado). Lo siento, si tú te lo pierdes.

«Aquí hay tomate» recibe un merecido … descanso (o qué tiene que ver el Rey de España)

Yo, lo confieso, veía «El tomate» de «T’ la hinco». Para mi mujer era un buen somnífero, pero yo prefería los documentales de la 2. Pero si a mi mujer le quitas «Aquí hay tomate» automáticamente se despierta y hay que «reponerlo».  ¿Por qué le han dado un «merecido» descanso al programa? Las malas lenguas, que en España hay muchas, dicen que tiene que ver con Don Juan … Carlos … el primero y espero que también el último de nuestros monarcas. Lo confieso su chaval me cae fatal … pero no lo conozco personalmente. 

Esto me recuerda al fin de la Primera República Española. El 29 de diciembre de 1874, el general Martínez Campos da un golpe de estado y proclama como Rey de España a don Alfonso XII, único hijo varón de Isabel II. Pocos días más tarde se suspende la publicación de todos los periódicos republicanos. El 29 de enero (no hoy sino en 1875) se promulga un decreto para censurar a la prensa prohibiendo tocar ciertos temas en la prensa como el ataque directo o indirecto al sistema monárquico. ¿A qué me recordará esto?

La Segunda República Española sufrió un duro golpe en enero de 1937. El 19 de enero, en Salamanca, el «bando rebelde» crea Radio Nacional de España en plena guerra civil. El 29 de enero de 1937 en la Junta de Defensa de Madrid el Delegado de Prensa y Propaganda decidió incautar todas las radios (unas 70 antes de la guerra) exepto las del «bando», Unión Radio, Radio España y Trans-Radio.

Adolfo Suárez (nacido en Cebreros, Ávila, 1932, tierra de buen clarete y de las cepas de Quexigal compradas por Vega Sicilia) fue nombrado presidente del gobierno el 29 de enero de 1976 y dimitió el 29 de enero de 1981. Se supone que gracias a los Pactos de la Moncloa se eliminó la censura franquista en la prensa y se instauró la libertad de prensa que hoy disfrutamos. ¿ Que hoy disfrutamos ?

Bueno, no tanto. La prensa española practica una estricta «autocensura» en todo lo relacionado con la Casa Real. Para muchos «La afición de don Juan Carlos a las faldas no es un problema de Estado». Que «Doña Sofia viva habitualmente en Londres» tampoco. Que… bueno, es voz populi, aunque no se vea reflejada en la prensa.

La cancelación de «Aquí hay tomate» ha sido una sorpresa que nadie se esperaba (más aún en mitad de temporada y de una manera tan tajante). Las «malas» lenguas dicen que estaban preparando un especial sobre las «faldas» del Monarca y que tras un pésimo año pasado (basta recordar el secuestro «de la portada» del jueves), la Casa Real ha decidido presionar a su «buen amigo» Berlusconi, presidente y fundador de Mediaset, propietaria de más del 99% de «T’ la hinco». Baste recordar las palabras de Berlusconi sobre el famoso «por qué no te cayas». 

Hombres, mujeres, psicólogos y sus cosas (o el amor y otras pasiones)

La lectura de «Cómo las mujeres manipulan a los hombres» me ha sugerido la lectura de algunos artículos algo más interesantes (al menos para mí) sobre el tema de las relaciones entre parejas estables. Es bien conocido que los hombres cuando buscan pareja prefieren mujeres físicamente más atractivas y que las mujeres por el contrario prefieren parejas masculinas con estado socioeconómico demostrable. ¿Pero realmente los hombres se despreocupan tanto del estado socioecómico (ESE) de sus parejas? El artículo «What do men and women want in a partner? Are educated partners always more desirable?«, Tobias Greitemeyer, Journal of Experimental Social Psychology, 2007, parece indicar que no, pero con una diferencia, los hombres prefieren parejas con menor ESE que ellos (tanto para relaciones «románticas» como para relaciones «esporádicas»), mientras que las mujeres los prefieren con mayor ESE. Estas diferencias son más pronunciadas cuando buscamos relaciones románticas que esperamos sean de larga duración. ¿Pero por qué? Este artículo propone que la razón es sencilla, a los hombres nos gustan más las mujeres «tontas» (¿manipulables?) y como un mayor ESE suele venir acompañado de una mujer con un nivel educativo más alto, nos gustan menos.

Las mujeres manipulan a los hombres, pero los hombres insultan más en la intimidad a sus parejas, lo que puede estar relacionado con la violencia de género. ¿Pero por qué los hombres insultamos más a nuestras parejas (de lo que ellas nos insultan a nosotros)? El artículo «Why do men insult their intimate partners?«, McKibbina et al., Personality and Individual Differences, 2006, trata esta cuestión desde un punto de visto psicológico. Entre el amor y el odio, la diferencia es pequeña. La idea de los investigadores es que los insultos dirigidos a la pareja tienen por objeto ¡¡ retener a ésta durante un mayor tiempo !! Curiosa hipótesis. Insultamos para mantener a nuestras parejas. Quizás lo sorprendente es que ¡¡ ellas se dejen !!

El inventario de cosas que los hombres hacemos para retener a nuestras parejas es sorprendente, «The Mate Retention Inventory-Short Form (MRI-SF)«, Bussa et al., Personality and Individual Differences, 2007, desde la vigilancia (celos) a la violencia (insultos ¿cariñosos?). No sólo es importante selecionar y atraer a una pareja, también es necesario retenerla, y para ello parece que hay que ser «muy macho» («From vigilance to violence Tactics of mate retention in American undergraduates«, Buss, Ethology and Sociobiology, 1988). Seguramente estos resultados son productos de nuestra sociedad machista (miles de años de machismo) en lugar de resultado de improntas evolutivas desarrolladas durante la evolución primigenia del Homo Sapiens Sapiens (pero es mi opinión, la de un «aficionado»).

La teoría de la evolución de Darwin también se puede aplicar al estudio de la sexualidad humana («The evolution of human sexuality» Thornhill, Gangestad, Trends in Ecology & Evolution, 1996) y parece que indica que en la dinámica de las relaciones heterosexuales la competición espermática (por conseguir con mi esperma fertilice el óvulo de mi mujer en lugar de que lo hagan otros hombres, dada la ¿infidelidad «natural» de la mujer?) no sólo a nivel fisiológico sino también a nivel psicológico es clave. El artículo no tiene desperdicio. Los estudios sobre la teoría de la competición espermática indica que la cantidad de esperma que eyaculamos crece proporcionalmente al tiempo que ha transcurrido desde la última relación sexual. Más aún, el tamaño de los testículos es mayor en los hombres que pasan menos tiempo con sus parejas que en los hombres que pasan más tiempo con ellas. Los celos en los hombres están relacionados con la defensa de la paternidad, el miedo a la pérdida de la exclusividad sexual. Los celos en las mujeres lo están con la defensa de la pareja y la garantía de la inversión del hombre en ella. Yo no soy experto, pero me parece que los investigadores (hombres) manipulan la ciencia sobre la sexualidad humana y las mujeres manipulan a los hombres en la práctica. 

El sistema solar como un gran laboratorio para la gravedad (o ideas sobre la anomalía de las sondas Pioneer)

Hay muchos problemas todavía por resolver en relación a la gravedad en nuestro universo cercano, nuestro sistema solar («Is the physics within the Solar system really understood?» Lämmerzahl, Preuss, Dittus, 2006). Entre ellos, destaca la anomalía de las sondas Pioneer, que aparentemente se han estado desacelerando levemente tras abandonar la órbita de Saturno (unos (8.74 ± 1.33)×10^(-10) m/s^2 dirigidos hacia el Sol). La sonda Pionner 10 se debe encontrar a unas 80 UA (unidades astronómicas) y fue contactada por última vez el 27 de abril de 2002, aparentemente ha dejado de emitir; la Pionner 11 se debe encontrar a unas 30 UA y dejo de emitir el 30 de septiembre de 1995. Esta aceleración ha sido observada como un efecto Doppler muy pequeño en las señales que recibimos de la sonda. Efectos similares se han observado en las sondas Galileo (unos (8 ± 3)×10^(-10) m/s^2 a unas 5 UA) y Ulysses (unos (12 ± 3)×10^(-10) m/s^2 a una distancia variable entre 1.3 y 5.4 UA). Muy interesantes es esta presentacion en PowerPoint.

¿Qué puede explicar esta anomalía? Aparentemente, el gas interplanetario o interestelar no explica la anomalía (tendría que ser unos 30 mil veces más denso). La existencia de masas desconocidas en el Sistema Solar (planetas, cometas, o similares) también se puede descartar ya que deberían tener una masa similar a la de nuestra Tierra lo que no es compatible con las mejores observaciones actuales. Otras explicaciones como que el Sol se está acelerando, o efectos locales debidos a la expansión del propio Universo, parece que se pueden descartar también.

Hay muchas posibles explicaciones basadas en la existencia de «Nueva Fïsica», modificaciones de la gravedad como por ejemplo («Pioneer anomaly: a drift in the proper time of the spacecraft«, Zaveri, 2008). Sin embargo, no podemos descartar que la anomalía sea debida a causas internas en la propia nave, sólo 65 W de radiación térmica emitida en la dirección correcta basta para explicarla, lo que supone sólo un 3% del calor generado por los generadores termoeléctricos radiactivos (RTG, basados en radioisótopos) que utilizan las Pioneer. Las sondas han emitido información sobre la cantidad de calor que emiten, que se conoce con gran precisión, pero lo que explica la anomalía es la anisotropía en el patrón de esta emisión, algo que aparece en los datos telemétricos recibidos.

“Pioneer Anomaly: Evaluating Newly Recovered Data”, Toth, Turyshev, 2007

¿Pero cómo podemos saber cómo es la distribución de calor emitida por las sondas? La técnica estándar es modelar mediante elementos finitos la sonda y tratar de resolver un problema inverso («Pioneer Anomaly: Evaluating Newly Recovered Data«, Toth, Turyshev, 2007). Sin embargo, los cálculos requieren conocer la geometría detallada de la sonda y el coeficiente de emisividad infrarroja en todos los puntos de su superficie. Esta información no está disponible, sobre todo por que las propiedades de las superficies pueden haber cambiado mucho debido al envejecimiento de la sonda (con más de 30 años de edad) en el espacio profundo.

“Pioneer Anomaly: Evaluating Newly Recovered Data”, Toth, Turyshev, 2007

Actualmente los resultados explican muy bien los resultados telemétricos enviados por la sonda (como la figura de la distribución de calor en los dos RTG), pero aún así son muy pobres y no permiten explicar completamente la anomalía. Mejoras en estos modelos numéricos parecen muy prometedoras, quizás más que cambios en las leyes físicas de la gravedad. Quizás no necesitamos tantos imitadores de Einstein sino más ingenieros (¿Por qué quiero ser ingeniero?).

Vemos o miramos cuando analizamos un experimento (o quizás el bosón de Higgs de menor masa ya ha sido observado en el LEP2)

En Física son muchos los ejemplos de descubrimientos en los que un investigador ha mirado algo sorprendente y lo ha reportado por primera vez, resultando ser su primer descubridor, pero años más tarde se descubre que en realidad fue visto por muchos otros antes que él (precursores del descubrimiento), quienes no lo reportaron. Él lo miró, los primeros sólo lo vieron.

El LEP2 en el CERN trató de buscar (mirar) el bosón de Higgs, al menos uno compatible con el Modelo Estándar de Partículas Elementales o con el Modelo Minimal SuperSimétrico. Aunque hubo cierta evidencia (por debajo de lo considerable como un descubrimiento) de que había un Higgs con una masa del orden de 115 GeV, actualmente se considera que no es suficiente y que será el LHC también en el CERN quien haga el descubrimiento. Sin embargo, otros modelos «no estándares» permiten la existencia de bosones de Higgs (en casi todos los modelos se requiere más de uno) de masa inferior al límite experimental del LEP2. Quizás hayan visto un bosón de Higgs de masa inferior a 90 GeV, pero como no lo han mirado, les ha pasado desapercibido.

Esta idea apareció en un preprint («Light MSSM Higgs boson scenario and its test at hadron colliders«, Belyaev et al. 2006) que recientemente ha sido aceptado para publicación en la prestigiosa revista Physical Review Letters. Esto le da suficiente caché como para que sea algo razonable a tener en cuenta. En una variante del Modelo Minimal Supersimétrico (que presenta al menos 5 bosones de Higgs, llamada Next-To-Minimal Supersymmetric Model) es posible la existencia de un bosón de Higgs poco masivo (menor que la masa del bosón vectorial Z, aunque puede llegar a tener una masa máxima de hasta 130 GeV), que puede haber pasado desapercibido entre los datos del LEP2 o en los del Tevatron, ya que interactúa muy débilmente con los bosones vectoriales Z. Hay cierta evidencia teórica («Neutralino Dark Matter in Light Higgs Boson Scenario«, Asano et al., 2007) de que esta posibilidad es consistente no sólo con los resultados de múltiples experimentos en colisionadores sino también con la abudancia de matería oscura compatible con el Modelo Cosmológico Estándar con Materia y Energías Oscuras.  

Muy interesante es el artículo «A Comparison of Mixed-Higgs Scenarios In the NMSSM and the MSSM«, Dermisek and Gunion, 2007, en el que utilizan estas ideas para sugerir que la escala de ruptura de la simetría electrodébil corresponde a la de la ruptura de la supersimetría, resultando en un Higgs ligero del orden de 98 GeV. Este Higgs (neutro) es poco interesante, ya que el Higgs que genera la masa de los bosones vectoriales W y Z (el realmente predicho por Higgs, Weinberg, Salam y Glashow) es uno de los Higgs (cargado) más masivos (con al menos 130 GeV, que todavía tendría que ser «descubierto» por el LHC).  El artículo anterior complementa muy bien a «A Solution for Little Hierarchy Problem and b –> s gamma«, Kim et al., Physical Review D, 2006.
El grupo de investigación del detector DELPHI del CERN ha escrito un artículo muy recientemente al respecto («Higgs boson searches in CP-conserving and CP-violating MSSM scenarios with the DELPHI detector«, DELPHI Collaboration, 2008). La mirada a los datos (re-análisis) con énfasis en el sector de Higgs aparentemente no previamente explorado parece indicar que los datos no revelan un exceso significativo con respecto a lo esperado si este bosón de Higgs ligero existe. De esta forma han obtenido límites para las masas de los bosones de Higgs más ligeros compatibles con 8 posibles escenarios (8 versiones de la N-MSSM que conservan la simetría CP) han de ser superiores (en los casos más ligeros) a 82 GeV y (en los menos ligeros) 112.8 GeV. Por ejemplo, el más ligero > 89.7 GeV y el siguiente > 90.4 GeV para varios parámetros razonables del modelo e independientemente de la masa del quark top (supuesta 183 GeV). Por supuesto, como el LEP2 no está actualmente en funcionamiento no es posible concluir que realmente se haya visto (o no) un bosón de Higgs ligero.
El LHC, sin lugar a dudas, nos sacará de dudas. Estos nuevos resultados muestran otros lugares en los que mirar que hace un par de años no habían sido considerados. Quizás todavía queden más lugares inexplorados. Esperemos que el LHC empiece a funcionar a finales de año y que para finales del 2009 ya tengamos los primeros resultados «interesantes».

Luz líquida, luz sólida, que más se puede esperar de la luz

El doctor Humberto Michinel del laboratorio de óptica de la Universidad de Vigo introdujo (descubrió) en 2002 (Phyiscal Review E) un fenómeno curioso en medios ópticos fuertemente no lineales que incluyen simultáneamente no linealidades cúbicas y quínticas pero de signo opuesto (el índice de refracción «efectivo» no lineal es de la forma n = n0 + n2 I – n4 I^2, donde I es la intensidad de la señal). En sus simulaciones numéricas, la luz se condensaba como un líquido y se comportaba ante colisiones con los contornos del cristal como si tuviera tensión superficial, como si fueran «gotas» de luz. A este fenómeno le denominó LUZ LÍQUIDA. Aquel año hubo mucho «movimiento» mediático al respecto. Hasta el momento la luz líquida no ha sido demostrada en el laboratorio (es difícil encontrar un material con las propiedades ópticas no lineales adecuadas). En castellano es interesante el artículo de Humberto en la Revista Española de Física. Humberto cree que sus gotas líquidas podrán ser la base de futuros ordenadores completamente ópticos.

dibujo24ene2008michinel.jpg 

El concepto de «luz sólida» fue introducido en un artículo científico de 2006 cuyo título (al contrario que el PRE de Humberto) no hacía referencia explícita al nuevo concepto («Quantum phase transitions of light«, Greentree, Tahan, Cole, Hollenberg, Nature Physics, 2006). En la luz en el vacío los fotones interactúan muy poco entre sí, sin embargo, en ciertos medios «no lineales» los fotones interactúan con la red del medio y exhiben comportamientos fuertemente correlacionados. La luz sólida requiere un material con una red bi-dimensional de «agujeros» (cavidades ópticas) en la que cada cavidad contiene luz atrapada (por ejemplo, un átomo con dos niveles atómicos que permite «bloquear» los fotones entre esos estados cuánticos). Los fotones atrapados se comportan como partículas (polaritones) que interactúan fuertemente entre sí. Greentree et al. demostraron teóricamente (algo que Humberto no ha podido hacer con su luz líquida) que los fotones sufren una transición de fase cuántica entre un estado superfluido (los polaritones están deslocalizados por toda la red) y un estado de aislante (ferromagnético) de Mott (algo parecido ocurre en superconductores de alta temperatura), en lenguaje llano, algo parecido al cambio entre «agua e hielo». Una explicación sencilla, en inglés, la encontraréis aquí. Los autores, como Humberto, también aluden a futuras aplicaciones en ordenadores completamente ópticos (uno de los grandes temas estrella de los últimos años en óptica no lineal). Todavía no se ha logrado obtener luz sólida en experimentos, pero parece que las técnicas de cavidades ópticas posibilitarán en los próximos años acercar espacialmente múltiples cavidades y lograrán verificar (o refutar) los resultados teóricos obtenidos.

¿Qué más nos puede deparar la luz? Quién sabe.

Computación cuántica adiabática (o el «primer» ordenador cuántico comercial)

La compañía canadiense D-Wave Systems, anunció el 13 de febrero de 2007 el desarrollo del primer computador cuántico «comercial» llamado Orion de sólo 16 qubits y el 12 de noviembre del mismo año el primer ordenador cuántico de 28 qubits. Su idea es tener un ordenador con 512 qubits disponible en el verano de 2008 y uno de 1024 para finales del mismo. Hasta ahora el ordenador «cuántico» de D-Wave se ha utilizado como oráculo «cuántico» de un programa clásico para resolver algunos problemas sencillos (resolver un sudoku o búsqueda de patrones en imágenes). Para estos problemas la «nueva máquina» es más lenta que un ordenador convencional, pero es de esperar que conforme el número de qubits aumente se obtenga algún tipo de speedup «cuántico».

FOTO DE UN «CHIP» de ORION

El ordenador Orion de D-Wave se basa en el concepto de computación cuántica adiabática. Propuesto por Farhi, Goldstone, Gutmann y Sipser en el 2000 («Quantum Computation by Adiabatic Evolution«), este tipo de computación se basa en construir un Hamiltoniano que «físicamente» represente el problema a resolver de tal forma de que su evolución lenta en el tiempo corresponda a una búsqueda de la solución óptima al problema. La idea fue propuesta inicialmente para resolver problemas de satisfacibilidad NP en tiempo polinomial, partiendo de un Hamiltoniano fácilmente construible, el sistema evoluciona hacia el estado final deseado que es solución del problema. También se ha propuesto para resolver el problema del viajante («Quantum Adiabatic Computation and the Travelling Salesman Problem«, Kieu, 2006), como oráculo «eficiente» de un ordenador clásico.

FOTO del LAYOUT de los 16 QUBITS del ORION

La computación adiabática también permite resolver otro tipo de problemas como los problemas de búsqueda. Mediante una elección adecuada del Hamiltoniano dependiente del tiempo se puede buscar un dato concreto en una base de datos no estructurada en una unidad de tiempo fija, independiente del número de elementos de dicha base de datos (al contrario que el algoritmo de Grover que requiere un número O(sqrt(N)) de operaciones, o un algoritmo clásico que requiere al menos O(N) operaciones) («Rapid Data Search using Adiabatic Quantum Computation«, Ahrensmeier, Das, Kobes, Kunstatter, Zaraket, 2002). De hecho, ciertas críticas al Orion de D-Wave como ordenador cuántico adiabático es que utiliza el algoritmo de Grover, en lugar del algoritmo más eficiente posible. Lo que ha generado dudas (más aún cuando todavía no han publicado ningún artículo científico sobre Orion en ninguna revista de prestigio) sobre si Orion es realmente un ordenador cuántico adiabático o solamente un computador «clásico» que usa qubits superconductores (es decir, si hay o no entrelazamiento, entanglement, entre los qubits).

Una de las grandes esperanzas de la computación cuántica, la simulación del proceso cuántico de plegamiento de proteínas, también ha sido «atacado teóricamente» mediante computadores adiabáticos («On the construction of model Hamiltonians for adiabatic quantum computing and its application to finding low energy conformations of lattice protein models«, Perdomo, Truncik, Tubert-Brohman, Rose, Aspuru-Guzik, 2008).

Desde el punto de vista de la potencia computacional, la computación cuántica adiabática es equivalente (polinomialmente) a la computación cuántica estándar (máquina de Turing cuántica de Deutsch) («Adiabatic Quantum Computation is Equivalent to Standard Quantum Computation«, Aharonov, van Dam, Kempe, Landau, Lloyd, y Regev, 2004).

Por supuesto los computadores cuánticos adiabáticos también sufre el «gran mal» de la decoherencia (acoplamiento cuántico con el entorno) que introduce errores aleatorios en los estados internos de superposición (entanglement) del Hamiltoniano penalizando (o impidiendo) el desarrollo de computadores con un gran número de qubits («Decoherence in a scalable adiabatic quantum computer«, Ashhab, Johansson, Nori, 2006, y «Decoherence in adiabatic quantum computation«, Amin, Averin, 2007), aunque trabajos anteriores proclamaban «incorrectamente» que eran más robustos ante los errores introducidos por la decoherencia («Robustness of adiabatic quantum computation«, Childs, Farhi, Preskill, 2001).

En resumen, el futuro de los ordenadores cuánticos adiabáticos, como oráculos de computadores clásicos, es muy prometedor, aunque quizás los «anuncios» de D-Wave están muy mediatizados comercialmente y obtener ordenadores con miles de qubits está todavía muy lejos. Pero, quien sabe, Craig Venter y Celera Genomics aceleraron con su esfuerzo privado el Proyecto Genoma Humano, quizás Geordi Rose (CEO «técnico») y Herb Martin (CEO «político») logren que D-Wave acelere el desarrollo del primer ordenador cuántico útil en la práctica.