El caracol siempre retorna a casa

Los jardineros ingleses afirman que si limpias tu jardín de caracoles y los tiras tras la valla volverás a verlos al día siguiente. ¿Es verdad este mito? La Sra. Ruth Brooks, de 69 años, en Devon (GB), ganó un concurso del canal 4 de la radio BBC para aficionados a la ciencia llamado «So You Want to Be a Scientist?» verificando mediante experimentos el mito. Gracias a la dirección del biólogo David Hodgson de la Universidad de Exeter, que la BBC le asignó como tutor, Brooks diseñó dos experimentos. En el primero, recogió caracoles de dos lugares opuestos de su jardín y los pintó con esmalte de uñas, los dejó en un bandeja de metal entre los dos lugares y pudo comprobar como la mayoría de los caracoles encontró el camino de retorno hacia su lugar de origen. En el segundo experimento, intercambió cubos de caracoles marcados de su propio jardín con otros vecinos de su ciudad y estudió si volvían a aparecer en su jardín o no. La mayoría de los caracoles que se repartieron a menos de 30 metros de su jardín retornaron a él. Según la Sra. Brooks hay que dejarlos a más de 100 metros de distancia para estar seguros de que no retornen. Su estudio experimental le valió ganar el premio de la cadena de radio. Ella está encantada, aunque no ha recibido ni una libra, su premio consiste en publicar un artículo científico con su tutor en una revista internacional. No está garantizado que le acepten el artículo, pero el tutor tiene que poner lo mejor de su parte para que así sea. Visto en «Shell Game,» Random Samples, Science 330: 27, 01 October 2010. Muy curiosa esta iniciativa de la cadena de radiotelevisón BBC. Me gustaría ver algo similar en España. Más información en «Homing Snails Experiment: Snail Swapping. The Great Snail Swap by Ruth Brooks,» BBC Radio 4 News, que incluye un vídeo explicando el curioso experimento, así como fotos detalladas del mismo.

¿Por qué retornan los caracoles? Deben tener un buen instinto de orientación pero hasta el momento no se conocen los detalles.  Para David Hodgson los resultados del experimento han sido toda una sorpresa: «nunca pensé que los caracoles tuvieran un instinto similar al de las palomas mensajeras y fueran capaces de volver a casa, pero lo hacen.» Ahora es el turno de los científicos profesionales que tendrán que descubrir cómo lo hacen los caracoles para orientarse en el entorno y lograr volver a casa.

Candidatos al Premio Nobel de Física de 2010

Todos los años (desde 1989) Thomson Reuters (propietaria del ISI Web of Science) publica un listado de candidatos al Premio Nobel según índices bibliométricos. Cada año se añaden a la lista de «Nobelables» unos cuantos autores nuevos autores. Entre los candidatos al Premio Nobel de Física aparece Juan Ignacio Cirac (que se incorporó a la lista el año pasado), pero se echan en falta los tres Premio Wolf de Física de 2010:  Anton Zeilinger (Austria), Alain Aspect (Francia) y John Clauser (EE.UU.). No me preguntéis por qué pero cuando Alain Aspect recibió el premio en febrero de este año pensé seguro que le dan el Premio Nobel de Física pronto, seguro que aparece en la lista de Thomson Reuters. Pero no ha aparecido. Aún así, en mi opinión, los tres Wolf de este año son firmes candidatos al Nobel este año y destaca entre ellos Aspect. Los avances en computación cuántico, un tema candente en física donde los haya, piden a gritos un Nobel y Alain tiene el caché para obtenerlo (su índice h casi llega a 50). ¿Qué no sabes quién es Alain Aspect? No sé, puedes recurrir a la wiki y admirar su bigote. Aspect es el físico francés más importante en mecánica cuántica de la generación siguiente a la del genial (ya Premio Nobel) Claude Cohen-Tannoudji (que nació en Argelia).

¿Qué opinas sobre Alain Aspect como Premio Nobel de Física de 2010? ¿Algún otro firme candidato que no aparezca en la lista de Thomson Reuters? Se admiten sugerencias, opiniones, críticas y comentarios al margen.

Por cierto, recuerda que Nobel en español se lee como palabra aguda (igual que en sueco).

Logran entrelazar tres cubits superconductores de alta calidad

 

Fabricar un buen cubit con tecnologías de estado sólido que se entrelace bien con otro cubit no es fácil. Lograr que lo haga con otros dos es un logro que merece ser publicado en Nature. Matthew Neeley (Universidad de California, Santa Bárbara, EE.UU.) y sus colegas lo han logrado gracias a un circuito de cuatro cubits superconductores. Aunque aún no han logrado entrelazar los cuatro cubits, ellos afirman que su tecnología es escalable y podrá ser escalada en un futuro no muy lejano (habrá que esperar hasta entonces para ver hasta dónde). Cuando a uno le dicen que los ordenadores cuánticos son capaces de factorizar 15 = 3 × 5, uno se sonríe, pero hay que recordar que el objetivo actual es obtener buenos cubits con una tecnología que permita entrelazarlos a voluntad y que parezca escalable. Una vez tengamos cubits con estas propiedades el problema de añadir uno a uno más cubits no debería ofrecer muchas dificultades intrínsecas. Eso sí, obtener un buen cubit con tecnologías de estado sólido no es nada fácil, pero nada fácil. Neeley no es el único que publica hoy en Nature un buen cubit entrelazable, Rob Schoelkopf (Universidad de Yale, Connecticut, EE.UU.) y sus colegas también ha logrado entrelazar tres cubits superconductores de alta calidad. Ha logrado un estado especial llamado de GHZ (por Greenberger-Horne-Zeilinger). Son dos grandes avances, pero hay que recordar que con tres cubits se pueden hacer muy poquitas cosas en computación cuántica (casi lo mismo que con tres bits en la clásica). El desafío ahora es lograr añadir, uno a uno, más cubits de gran calidad que se puedan entrelazar entre sí. El progreso no será fácil, pero los avances son lentos pero seguros. Nos lo cuenta Eugenie Samuel Reich, «Quantum computers move a step closer. Successes at entangling three-circuit systems brighten the prospects for solid-state quantum computing,» News, Nature 467: 513, 30 September 2010, haciéndose eco de los artículos técnicos de Matthew Neeley et al., «Generation of three-qubit entangled states using superconducting phase qubits,» Nature 467: 570–573, 30 September 2010, y Leonardo DiCarlo et al., «Preparation and measurement of three-qubit entanglement in a superconducting circuit,» Nature 467: 574–578, 30 September 2010.

Determinar con certeza la altura futura de un bebé a partir de su genoma está más lejos de lo que se pensaba

Se han encontrado 180 variantes genéticas asociadas a la estatura en humanos que dan cuenta del 80% de la altura de un individuo. Se han estudiado 185000 adultos. El 20% restante de la variabilidad estadística en la altura requiere analizar al menos 517 variantes genéticas más, pero su análisis necesitará al menos de 500000 individuos. El consorcio internacional de investigación GIANT todavía tiene mucho trabajo por delante para cumplir con éxito su tarea. Puede sorprender que para predecir en el genoma de un bebé un rasgo tan obvio como la estatura se requiera estudiar casi 700 polimorfismos de un solo nucleótico, pero así se deduce de un estudio científico sobre la estatura de Hana Lango Allen (Universidad de Exeter, Gran Bretaña) y sus colegas. Nos lo cuenta Sadaf Shadan, «Genomics: The long and the short of it,» Nature 467: 539, 30 September 2010. Estos investigadores del consorcio GIANT han publicado el análisis más riguroso y completo de los factores genéticos que influyen en la altura en Hana Lango Allen et al., «Hundreds of variants clustered in genomic loci and biological pathways affect human height,» Nature, Advance Online Publication, 29 September 2010 [el DOI no funciona aún, ver Nature’s VAOP].

Hana Lango Allen y sus colegas han realizado un metaanálisis a escala genómica (GWA o genome-wide association) para investigar las variantes genéticas que están asociadas con la altura y han considerado a casi 183.727 adultos. Su resultado es descorazonador, ya que al menos habría que haber estudiado a 500.000 para obtener un resultado de alta fiabilidad (cercano al 100%). Medio millón de individuos no es moco de pavo. ¿Pasará lo mismo con otros rasgos complejos del fenotipo humano? Quien sabe, pero los que piensan que en pocos años la genética permitirá seleccionar rasgos concretos a medida deben tener en cuenta que estas técnicas, por ahora, ofrecen una fiabilidad muy baja. El genoma es más complicado de lo que quizás nunca llegó a imaginarse.

El principio de incertidumbre, la escala de Planck y los agujeros negros

Supongamos que el espaciotiempo fluctúa a cierta escala de tal forma que el principio de incertidumbre de Heisenberg permite que se cree un agujero negro de forma transitoria. ¿Cuál es esa escala? La escala de Planck, según Eaton E. Lattman, «The Planck length as the dimension of a transient black holeEuropean Journal of  Physics 30: L41-L42, 2009. Una idea simple y curiosa que ha publicado un doctor en biofísica que investiga en el plegamiento y cristalización de proteínas.

Más sencillo, imposible. El principio de incertidumbre indica que Δp Δx≈ h (h barra), que aplicado a un volumen de espaciotiempo con masa en reposo nula, es decir, para cΔp ≈ ΔE ≈ c² Δm, resulta que la incertidumbre en la masa es Δm ≈ h/(c Δx). La fórmula para el radio de Schwarzschild para el horizonte de sucesos de un agujero negro (sin rotación ni carga) con una masa de Δm, resulta en R ≈ 2 G Δm / c² ≈ 2 G h /(2 R c³). Parece casi obvio tomar Δx ≈ 2 R, con lo que R ≈ √(G h/c³), es decir, la longitud de Planck.

¿Cómo interpretar este resultado «mágico»? Quizás sea solo una casualidad. O quizás indique que a la escala de Planck el espaciotiempo fluctúa produciendo agujeros negros virtuales que aparecen y desaparecen de forma compatible con el principio de incertidumbre de Heisenberg. Las ideas actuales sobre la gravedad cuántica, como la teoría de cuerdas, no son compatibles con este resultado «casual» como nos recuerda Kwang-Hua W. Chu, «Note on ‘The Planck length as the dimension of a transient black hole’,» European Journal of Physics 31: L13-L14, 2010.

¿Por qué recordar este artículo de enero de 2010 ahora? ¿Y por qué no? Por cierto, os recomiendo la conferencia  (en español) del candidato a Premio Nobel de Física, nacido en España, Juan Ignacio Cirac, Director del Instituto Max Planck de Óptica Cuántica, Garching, Alemania, en Passion for Knowledge, que podéis disfrutar en vídeo gracias a Amazings.es. Una introducción sencilla a la mecánica cuántica y a la computación cuántica con ciertos deslices (como presentar un hoax sobre el ordenador personal del futuro) pero que deja un buen regusto, el regusto de haber escuchado al próximo Premio Nobel español (aunque sea un Premio Nobel que cuente para Alemania y no para España). Exagerado, quizás.

Por cierto, no sé si habéis leído mis dos contribuciones a Amazins.es: «El tiranosaurio rex y el grave error prehistórico de Steven Spielberg en “Parque Jurásico,” 24/09/2010, y «La historia de la materia oscura,» 20/08/2010.

Primera medición simultánea del campo magnético y del eléctrico de la luz encerrada en una nanocavidad

La luz es una onda electromagnética, la vibración transversal de un campo eléctrico y uno magnético. Medir el campo magnetismo en la luz no es fácil porque es mucho más pequeño que el campo eléctrico. Se ha logrado medir anulando la componente eléctrica. Sendos artículos en Physical Review Letters demuestran que se puede medir el campo magnético sin anular el eléctrico gracias al uso de metamateriales formados por pequeños anillos. Estos anillos son más sensibles al campo magnético que al eléctrico por lo que permiten medir el primero sin que sea necesario anular el segundo. El interés teórico de estos artículos está claro, pero su interés práctico también ya que permitirán la fabricación de nuevos dispositivos ópticos capaces de controlar la componente magnética de la luz. Nos lo ha contado Michael Schirber, «Measuring the Magnetism of Light,» Physical Review Focus, 24 Sep. 2010, haciéndose eco de los artículos técnicos de M. Burresi et al., «Magnetic Light-Matter Interactions in a Photonic Crystal Nanocavity,» Phys. Rev. Lett. 105: 123901, 17 Sep. 2010, y Silvia Vignolini1 et al., «Magnetic Imaging in Photonic Crystal Microcavities,» Phys. Rev. Lett. 105: 123902, 17 Sep. 2010.

La figura que abre esta entrada es del artículo de Burresi et al. en la que la luz se encierra en una nanocavidad fotónica y se utiliza una sonda con un anillo metálico que resuena en función del campo magnético de la luz encerrada en la cavidad óptica. El dispositivo permite medir de forma simultánea las componente eléctrica y magnética de la luz. Los autores han medido la polarizabilidad magnética del anillo colocado en la punta de la sonda y afirman que su trabajo permitirá esta propiedad en otros nanoobjetos que se coloquen en dicha punta. La figura justo arriba de este párrafo es del artículo de Vignolini et al. quienes utilizan un procedimiento muy similar para medir el campo magnético de la luz encerrada en una nanocavidad fotónica gracias a una sonda con punta metálica. En ambos trabajos se mide el campo magnético inducido en la punta de la sonda debido al campo magnético oscilatorio de la luz encerrada en la cavidad. A la inversa se pueden inducir cambios en el campo magnético de la luz encerrada en la cavidad lo que podría permitir el desarrollo de nuevos dispositivos ópticos fotónicos.

Observada por primera vez la radiación de Hawking en un análogo óptico de un agujero negro

Sin lugar a dudas, la noticia científica de esta semana. Ha sido aceptado para publicación en Physical Review Letters el artículo de F. Belgiorno, S.L. Cacciatori, M. Clerici, V. Gorini, G. Ortenzi, L. Rizzi, E. Rubino, V.G. Sala, D. Faccio, «Hawking radiation from ultrashort laser pulse filaments,» ArXiv, 23 Sep 2010. Un análogo óptico del horizonte de sucesos de un agujero negro que utiliza púlsos láser ultracortos ha permitido observar la emisión espontánea de fotones con un espectro de cuerpo negro, que coincide con las predicciones cuánticas de Stephen Hawking en 1974 para la radiación emitida por un agujero negro que se evapora. Si este resultado experimental se confirma en otros laboratorios en los próximos meses, Hawking será firme candidato a ganar el Premio Nobel de Física del año 2011. Quizás por ello todos los medios se han hecho eco de esta importante noticia que nos ha contado KentuckyFC, «First Observation of Hawking Radiation,» September 27, 2010 [portada en Menéame]. La analogía óptica para un agujero ya fue comentada en este blog hace un tiempo en «Láseres de agujeros negros, radiación de Hawking del universo y energía oscura (o a ver cómo le damos un Premio Nobel a Stephen Hawking),» 24 Marzo 2008; recomiendo el artículo de Adrian Cho, «Physics: Test of Hawking’s Prediction on the Horizon With Mock ‘White Hole’,» Science 319: 1321, 7 March 2008; ya predijimos entonces que el siguiente paso era observar la radiación de Hawking. Sin embargo, la tecnología óptica no lineal tenía una fuerte competencia en los estados condensados de Bose-Einstein (BEC), como ya contamos en «Fabricado el primer agujero negro acústico en un condensado de Bose-Einstein,» 11 Junio 2009. Si se confirma el resultado de Franco Belgiorno (Universidad de Milán, Italia) y sus colegas, será la primera observación de la radiación de Hawking, pero no será la única, otros grupos pronto los emularán. Los físicos especialistas en BEC pronto lograrán repetir la hazaña y su repetición confirmará definitivamente las teorías de Hawking, una confirmación que apunta a Premio Nobel teórico en Física.

Belgiorno y sus colegas han creados perturbaciones en el índice de refracción de un medio dieléctrico no lineal gracias al uso de pulsos láser ultracortos (de 1 picosegundo y una energía máxima de 6 mJ, milijulios) y un proceso no lineal llamado filamentación de Bessel en el que el espectro óptico de los pulsos se ensancha conforme se propagan. Estos pulsos permiten simular un horizonte de sucesos gravitatorio en una dimensión. La perturbación del índice de refracción es un salto, una función escalón de Heaviside, que se mueve a una velocidad constante dada por c/v=n. A ambos lados de este frente no lineal el índice de refracción presenta un valor constante diferente, sean n0(ω)+δn y 1/n0(ω), con lo que el frente actúa como un horizonte de sucesos. Si se aplica la teoría cuántica de la radiación Hawking a este horizonte de sucesos (frente de onda) se predice la emisión de fotones con un espectro similar al de un cuerpo negro. La figura que abre esta entrada muestra el dispositivo experimental y el espectro de la radiación Hawking observada. Los autores del artículo afirman que el origen de esta radiación no es el efecto Cherenkov ni la dispersión de Rayleigh ni otros efectos no lineales (mezcla de cuatro ondas (four wave mixing o FWM), automodulación de la fase (self phase modulationo SPM), etc.).

Esta figura ilustra la analogía óptica a un horizonte de sucesos utilizando una analogía hidrodinámica, peces que tratan de ascender por una cascada (la figura es del artículo de Adrian Cho en Science). Por cierto, la analogía para un agujero blanco sería la caída de los peces por una cascada hacia abajo. Sobre este tipo de analogías os recomiendo la lectura de los artículos de W.G Unruh, «Dumb holes: analogues for black holes,» Phil. Trans. R. Soc. A 366: 2905-2913, 28 August 2008, y Ulf Leonhardt, Thomas G Philbin, «The case for artificial black holes,» Phil. Trans. R. Soc. A 366: 2851-2857, 28 August 2008.

PS (13 nov. 2010): El artículo técnico ha aparecido esta semana en PRL: F. Belgiorno et al., «Hawking Radiation from Ultrashort Laser Pulse Filaments,» Phys. Rev. Lett. 105, 203901 (2010). Recomiendo el interesante resumen de John M. Dudley, Dmitry Skryabin, «New horizons for Hawking radiation,» Viewpoint, Physics 3: 95 (2010).

El padre de la física de estado sólido y de la materia condensada: Albert Einstein

Einstein fue el padre de la teoría de la relatividad y uno de los dos abuelos de la mecánica cuántica (junto a Planck). El artículo de 1907 de Einstein sobre la teoría del calor específico de los sólidos introdujo por primera vez la idea de que las vibraciones de la red de átomos de un sólido son responsables de sus propiedades termodinámicas, en particular de su calor específico. Dicho artículo fue el primero de una serie de artículos de Einstein que crearon la física del estado sólido y con ella la física de la materia condensada. La esencia del genio en estado en puro. Nos lo contó Manuel Cardona (Max-Planck-Institut für Festkörperforschung, Stuttgart, Alemania), «Albert Einstein as the Father of Solid State Physics,» pp. 85-114, Cien Años de Herencia Einsteniana, Universitat de Valencia, 2005. El artículo de Cardona, Premio Príncipe de Asturias de Investigación Científica y Técnica en el año 1988,  forma parte de un ciclo de conferencias de hace un lustro cuyas actas merecen una relectura de vez en cuando. 

Tras su año milagroso (annus mirabilis), 1905, Einstein se dedicó a estudiar la teoría del calor en los sólidos. En concreto, las propiedades dinámicas de los fonones (vibraciones de la red de átomos) en un sólido aislante. La teoría de los electrones en un sólido tuvo que esperar al desarrollo de la estadística de Fermi-Dirac en 1926. Einstein consideró el caso más sencillo, que todos los átomos vibran a la misma frecuencia, sea la frecuencia media de vibración, llamada frecuencia de Einstein en su honor. Estas frecuencias se comportan como bosones, es decir, como fotones, por ello se llaman fonones, por lo que se estudian gracias a la teoría (cuántica) de la radiación de Planck. En 1911, Nernst (Premio nobel de Química en 1920) y su estudiante de doctorado Lindermann extendieron la teoría de Einstein a dos frecuencias de vibración (hoy corresponden a las frecuencias medias de vibración de los fonones llamadas acústicas y ópticas). También dicho año P. Debye estudió la teoría de las vibraciones elásticas de un sólido que incluía tanto un espectro discreto de frecuencias como uno continuo (hasta frecuencia cero). La teoría de Debye es más exacta que la de Einstein (y la de Nernst-Lindermann) para algunos materiales, como el diamante, como muestra la figura que acompaña esta entrada.

La importancia del artículo de Einstein de 1907, desde el punto de vista teórico, como catalizador y origen de toda la física del estado sólido es similar a la del descubrimiento por parte de H. Kamerlingh Onnes de la superconductividad en 1911. De hecho, Einstein escribió un modelo teórico de la superconductividad en 1922, pero sus ideas cayeron en saco roto pues no se conocía la teoría de Fermi-Dirac para un gas de electrones; aún así, su idea de que un estado coherente (hoy diríamos un estado de Bose-Einstein) era clave se confirmó muchas décadas más tarde gracias a la teoría BCS. Ya sabrás que las ideas del indio N. Bose sobre un estado coherente en un gas de fotones (o bosones) son de 1924.

La historia de la violación de la paridad según Martin Gardner

«Los físicos nucleares han estado golpeando durante años una puerta cerrada para tan solo descubrir de forma súbita que no había puerta en absoluto, sino la figura de una puerta pintada en una pared. Ahora están libres para mirar alrededor en busca de la verdadera puerta.» El enigma «theta-tau» rompía la cabeza a los físicos en 1956. El mesón theta parecía idéntico al mesón tau pero se desintegraba en dos piones en lugar de tres piones. No había ninguna otra manera de distinguirlos. Los piones tienen paridad impar, luego un par de piones tiene paridad par y un trío paridad impar. La conservación de la paridad impedía que una partícula se desintegrara en un resultado par y también en un resultado impar. O había dos kaones diferentes, tau y theta, o la paridad no se conservaba en la física de los kaones. Hoy sabemos que la interacción débil viola la conservación de la paridad, pero 1956 era inconcebible. Nos lo contó magistralmente Martin Gardner en «Izquierda y Derecha en el Cosmos,» Salvat Editores, 1988. Permitidme unos extractos para ir abriendo boca.

«En abril de 1956, durante una conferencia sobre física nuclear en la Universidad de Rochester, New York, se entabló una viva discusión sobre el enigma «theta-tau.» Richard P. Feynman planteó la cuestión «¿Queda infringida la ley de la paridad algunas veces?» La cuestión había sido sugerida a Feynman la noche anterior por Martin Block, un físico experimental que compartía habitación de hotel con él. Feynman observó que si así fuera, habría una manera de distinguir la izquierda de la derecha. Prometió a Block que plantearía el problema al día siguiente. Así lo hizo, aclarando que «Estoy formulando esta pregunta en nombre de Martin Block,» porque quería que el mérito fuera suyo. Chen Ning Yang y su amigo Tsung Dao Lee, dos jóvenes y brillantes físicos chinos estaban presentes en la reunión. Uno de ellos dio una larga respuesta a Feynman. «¿Qué dijo?,» le preguntó Block a Feynman. «No sé, no he podido comprenderlo,» contestó Feynman.»

«Algunos meses después Norman Ramsey, un físico experimental, le preguntó a Feynman si creía que valdría la pena hacer un experimento a fin de comprobar si la paridad se infringía en la desintegración beta. Feynman le dijo que sí, pero estaba seguro de que la paridad no se violaría. «¿Apuesta usted cien dólares contra un dólar a que la paridad se conserva?,» le preguntó a Feynman, quien contestó «No, pero cincuenta dólares, sí.» Haré el experimento, contestó Ramsey, pero estaba muy ocupado y no tuvo tiempo de hacerlo.»

Durante el verano de 1956, Lee y Yang reflexionaron algo más sobre la cuestión. Realizaron un estudio detallado de si los experimentos conocidos implicaban la conservación de la paridad. En la interacción fuerte, la evidencia era muy clara, pero en la interacción débil no había ninguna prueba de ello. El resultado fue un artículo titulado «Question of Parity Conservation in Weak Interactions,» que les valió el Premio Nobel de Física de 1957 (Lee tenía 30 años, Yang 34). «El trabajo apareció el 1 de octubre de 1956 y no suscitó más que un ligero interés entre los físicos nucleares. Parecía tan improbable que se infringiera la paridad, … Freeman J. Dyson afirmó más tarde «Me enviaron un ejemplar (del trabajo de Lee y Yang) y lo leí. Lo leí dos veces. Dije «Esto es sumamente interesante,» pero no tuve imaginación para decir «Por Dios, si esto es verdad, abre una rama nueva de la física. Creo que otros físicos eran tan imaginativos como yo en aquel tiempo.» Pero varios físicos fueron aguijoneados por el trabajo de Lee y Yang.»

«El primer físico que recogió el guante fue la Dra. Chien-Shiug Wu, profesora de física de la Universidad de Columbia, amiga de Yang y Lee, famosa por sus trabajos sobre las interacciones débiles y por el cuidado y la elegancia con que realizaba sus experimentos. El experimento planeado por la Dra. Wu implicaba la desintegración beta del cobalto 60, un isótopo del cobalto muy radioactivo que emite electrones. Cuando se enfría el cobalto 60 cerca del cero absoluto y se aplica un campo magnético que alinee estos átomos se espera que se emitan tantos electrones en la dirección norte del campo magnético como en la dirección sur. Si se conserva la paridad.» Pero la paridad no se conserva y la Dra. Wu observó más electrones emitidos en la dirección sur que en la dirección norte. «El experimento se realizó a finales de 1956, pero no se anunció el resultado hasta el 15 de enero de 1957, de manos del físico Isador Rabi de la Universidad de Columbia, quien además incluyó resultados de otro experimento confirmatorio realizado con mesones mu por físicos de Columbia en los laboratorios del ciclotrón Nevis (Nueva York). Una tercera prueba fue realizada en la Universidad de Chicago usando mesones pi y mu. En todo el mundo los físicos empezaron a comprobar la paridad en otras interacciones débiles y en 1958 era evidente que la paridad era infringida en todas esas interacciones. El enigma «theta-tau» estaba resuelto. Solo hay un mesón K o kaón. La paridad no se conserva.»

El LHC del CERN ya produce más bosones de Higgs por segundo que el Tevatrón del Fermilab

Si el bosón de Higgs (predicho por el modelo estándar) existe y tiene una masa de 120 GeV/c², las colisiones que se han producido en el LHC del CERN este fin de semana han producido más bosones de Higgs por segundo (1’4 veces más) que las colisiones que se están produciendo en el Tevatrón del Fermilab. También está produciendo más pares de quarks top-antitop por segundo (1’87 veces más). Los cálculos no son complicados: en el Tevatrón se produce un par de quarks top-antitop cada 333 segundos de colisiones a luminosidad récord y en e LHC cada 178 segundos, y un bosón de Higgs (120 GeV/c²) en el Tevatrón cada 2778 segundos y uno en el LHC cada 1923 segundos. Los interesados en los cálculos detallados, muy sencillos, pueden recurrir a Tommaso Dorigo, «LHC Surpasses The Tevatron As A Top And Higgs Factory!,» A Quantum Diaries Survivor, September 26th, 2010.

Ayer sábado, con 104 paquetes de protones en el LHC, la luminosidad instantánea alcanzada fue de 3’5 × 10³¹ colisiones por centímetro cuadrado y por segundo, lo que equivale, en 13 horas de funcionamiento a 1’06 inversos de picobarn de colisiones acumuladas. Alcanzar esta luminosidad instantánea en el LHC ha requerido 7 meses, cuando en el Tevatrón requirió dos años (2001-2003). Hoy en día, el Tevatrón es 10 veces más luminoso (el récord en el Tevatrón es de 4 × 10³² colisiones por centímetro cuadrado por segundo). Para calcular el número de partículas pesadas producidas por segundo además de la luminosidad instantánea es necesario conocer la probabilidad de producción de dicha partícula (sección eficaz o cross section), que depende de la energía en el centro de masas (c.m.) de las colisiones. En las colisiones protón-antiprotón en el Tevatrón se alcanzan casi 1’96 TeV c.m., pero en las del LHC se alcanzan los 7 TeV c.m., por lo que la producción de cualquier partícula pesada es más probable en el LHC que en el Tevatrón. La sección eficaz de producción de un par de quarks top-antitop en el Tevatrón a 1.96 TeV c.m. es de 7’5 pb, mientras que en el LHC a 7 TeV c.m. es de unos 160 pb. En el caso del Higgs ocurre otro tanto, en el Tevatrón tenemos 0’91 pb y en el LHC alcanzamos 14’8 pb.

Hay que recordar que el LHC no le ha ganado al Tevatrón en producción por segundo de estas partículas, sino que seguirá haciéndolo mientras funcione hasta la última semana de octubre (para entonces, si todo va bien, en lugar de 104 paquetes de protones se utilizarán 384 paquetes y la luminosidad instantánea será 3’7 veces mayor).

Más información sobre el buen estado de las colisiones en el LHC en el mensaje del Director General del CERN, Rolf Heuer, «Message from the Director General: A game-changing fill for the LHC,» CERN News, 24 September 2010. [visto en Peter Woit, «LHC Update,» Not Even Wrong, September 24th, 2010]. Ver también Philip Gibbs, «LHC passes 1/fb/year peak luminosity,» viXra log, September 25, 2010.

Por cierto, mañana 27 de septiembre empieza la conferencia «Prospects For Charged Higgs Discovery At Colliders (CHARGED 2010),» Uppsala, Suecia, 27-30 September 2010. La figura que abre esta entrada está extraída de las transparencias de la charla de Alexandros Attikis (Universidad de Chipre), para la Colaboración CMS (del LHC en el CERN), «QCD backgrounds in charged Higgs searches,» cH±arged 2010, Uppsala, 29 Sep. 2010.