La historia de las cinco sigmas en física de partículas

Dibujo20130814 CDF diboson bump - fake signal after lhc analysis

El físico de origen español Luis W. Alvarez le sugirió en 1967 al físico Gerald (Gerry) R. Lynch que modificara su simulador de Montecarlo llamado GAME para generar histogramas que incluyeran falsos “picos” (bumps) de nuevas partículas (resonancias). Los resultados del nuevo programa fueron mostrados a físicos de partículas para que indicaran “a ojo de buen cubero” si había o no había “nuevas partículas” en dichos histogramas. Muchos físicos vieron nuevas partículas donde sólo había fluctuaciones estadísticas. Nos lo cuenta Luis W. Alvarez, “Recent developments in particle physics,” pp. 1-49 en “Evolution of Particle Physics,” Academic Press, 1970. Por cierto, esta entrada viene a colación por Tommaso Dorigo, “Demystifying The Five-Sigma Criterion,” AQDS, August 11th, 2013.

En aquella época se producían entre 10.000 y 20.000 histogramas al año, que eran explorados por unos 1000 físicos a la caza de nuevas partículas. Desde 1957, los nuevos descubrimientos eran publicados en el listado del Particle Data Group (PDG). La mayoría eran hadrones (entonces no se sabía que eran partículas compuestas de quarks, aunque se sospechaba), llamados resonancias. Muchos “descubrimientos” fueron refutados por otros experimentos, por lo que se decidió marcar todas las nuevas resonancias como “no confirmadas.” Había que decidir un criterio estadístico riguroso. Arthur H. Rosenfeld, uno de los padres de la iniciativa del PDG, en una conferencia sobre mesones celebrada en 1967 en Filadelfia, usó el resultado de Gerry Lynch para proponer un mínimo de tres desviaciones típicas (popularmente llamadas sigmas) para que una “nueva” partícula fuera incorporada al PDG. Nos lo cuenta en “The Particle Data Group: Growth and Operations-Eighteen Years of Particle Physics,” Annual Review of Nuclear Science 25: 555-598, 1975. Su artículo original de 1968 se titula “Are There Any Far-out Mesons or Baryons?,” como nos recuerda Tommaso Dorigo, “Demystifying The Five-Sigma Criterion – Part II,” AQDS, August 14th, 2013.

Tres sigmas no son suficientes, como han mostrado muchos casos. Uno de los más famosos en los que falló la regla de las tres sigmas fue el famoso descubrimiento del quark top en 1984 en el experimento UA1, liderado por Carlo Rubbia, en el colisionador SPS en el CERN. La teoría predecía 3,5 sucesos de dicho tipo y se observaron 12 sucesos (una fluctuación de tres sigmas). Pero al acumular más datos en UA1, la fluctuación cambió de signo y el descubrimiento fue desmentido pocos meses más tarde (de hecho, UA2 tampoco observó dicha fluctuación a favor). El quark top no tenía una masa de 40 ± 10 GeV/c², y gracias a UA1 y UA2 en 1990 ya se sabía que su masa era superior a 69 GeV, más allá de su capacidad de observación.

El número de cinco sigmas se estableció para el descubrimiento del quark top en 1995. En 1994 aparecieron las primeras evidencias del quark top a tres sigmas en CDF, pero el recuerdo de la historia de 1984 y que DZERO no lo hubiera observado, hizo que se recomendaran cinco sigmas para proclamar un descubrimiento. En 1995, tanto CDF como DZERO, los dos experimentos del Tevatrón, en el Fermilab, cerca de Chicago, EEUU, observaron el quark top con cinco sigmas. Hoy sabemos que tiene una masa de 173,3 ± 0,8 GeV/c² (de hecho, el LHC es una fábrica de quarks top).

Hoy en día, un descubrimiento en física de partículas requiere que dos experimentos diferentes observen el resultado con al menos cinco sigmas, que en el caso del bosón de Higgs fueron CMS y ATLAS del LHC en el CERN. Descubrimientos realizados por un único experimento, como el caso de las seis sigmas que alcanzaron los neutrinos superlumínicos del experimento OPERA en septiembre de 2011 son considerados por la mayoría de los físicos como falsas alarmas. Sólo cuando son ratificados de forma independiente por otro experimento se puede hablar en sentido estricto de un descubrimiento. Hoy sabemos que el error de OPERA era sistemático, no estadístico, debido a un fallo.

El incremento de la estadística (número de sucesos mostrados en los histogramas) produce fluctuaciones espurias a tres sigmas de forma continua y algunas pocas pueden alcanzar sin problemas las cinco sigmas; de hecho, con la ingente estadística de sucesos del LHC en la próxima década en algunas búsquedas de sucesos muy raros (como la presencia de partículas supersimétricas de gran masa) habrá falsos anuncios si no sube a entre siete y diez sigmas como cota indicativa de un descubrimiento. En la interpretación del número de sigmas de un resultado de física de partículas la clave es el consenso entre la comunidad.

Por cierto, lo he aclarado en varias ocasiones en este blog, pero quizás convenga recordar qué son las sigmas o desviaciones típicas en la significación estadística de un resultado, concepto que se utiliza en el campo del contraste de hipótesis. En este campo se estudia la probabilidad de que los datos observados en un experimento correspondan a algo nuevo (la hipótesis a contrastar) o sean resultado de una fluctuación estadística de lo ya conocido (la llamada hipótesis nula). La teoría predice para la hipótesis nula un valor medio (μ) y una desviación típica (σ). La diferencia entre valor medio observado y μ se puede cuantificar con un número de desviaciones típicas σ, es decir, con un número de sigmas. Estas son las famosas sigmas.

Por supuesto este análisis estadístico supone que las fuentes de error en la fluctuación son muchas e independientes, lo que permite aproximarla por una distribución gaussiana. En física de partículas hay errores estadísticos, que cumplen con esta condición, y errores sistemáticos, que no tienen por qué cumplirla, por ello el contraste de hipótesis utilizado es un poco más sofisticado, pero en esencia esta es la idea. Por tanto, el número de sigmas de una observación corresponde a probabilidad de que su origen sea la hipótesis nula; una sigma (desviación estándar) corresponde a una probabilidad del 16%, tres sigmas al 0,17%, y las “mágicas” cinco sigmas a una probabilidad del 0,000027%.

PS (17 ago 2013): Como Eclectikus en los comentarios, recomiendo leer a Lubos Motl, “In defense of five standard deviations,” TRF, Aug 14, 2013.

PS (19 ago 2013): Como he enlazado las dos primeras entradas de Tommaso Dorigo, también quiero enlazar las dos siguientes “Demystifying The Five-Sigma Criterion – Part III,” AQDS, Aug 17th 2013, y “Demystifying The Five-Sigma Criterion – Part IV And Summary,” AQDS, Aug 19th 2013. Esta última incluye la figura que abre esta entrada en su última versión obtenida por CDF, que ya no muestra el “falso” pico en azul tras analizar 8,9 /fb de colisiones en el Tevatrón (en lugar de 4,9 /fb) y mejorar la estimación de los sucesos de fondo (reducir los errores sistemáticos en la estimación teórica). Me permito copiarla aquí, sin más detalles, como coda final.

Dibujo201300619 cdf run ii - preliminary result por diboson fake bump

Francis en Trending Ciencia: El principio de incertidumbre de Heisenberg

Dibujo201300609 Bloch sphere representation of error - disturbance - original heis - osawa

Ya puedes disfrutar de mi nuevo Podcast sobre Física para Trending Ciencia siguiendo este enlace. Como siempre una transcripción del audio, figuras y referencias a artículos y fuentes para profundizar.

Ha llegado a portada en el portal de noticias Menéame una cuyo titular es “Científicos vieneses demuestran empíricamente la violación del Principio de Indeterminación de Heisenberg.” La noticia enlaza un artículo técnico aparecido en ArXiv el 30 de mayo, arXiv:1305.7251, titulado “Violation of Heisenberg’s error-disturbance uncertainty relation in neutron spin measurements,” [Violación de la relación de incertidumbre de Heisenberg tipo error-perturbación usando medidas del espín del neutrón], firmado por Georg Sulyok, de la Universidad Técnica de Viena, y varios colegas. La entradilla en Menéame traduce la última frase del artículo, en la sección de conclusiones: “Conclusión: Así pues, nuestros resultados dan una demostración experimental de que la forma generalizada de la relación error-perturbación de Heisenberg tiene que ser abandonada.” Esta noticia en portada de Menéame ha generado mucho revuelo en Twitter y en varias ocasiones he tenido que aclarar que no se ha demostrado que el sacrosanto principio de indeterminación de Heisenberg es falso, más bien todo lo contrario, se ha reforzado su validez. El titular se puede tachar de sensacionalista y la entradilla parece indicar que el meneante de la noticia no se ha leído en detalle la introducción del artículo técnico. Permíteme una aclaración en este podcast para Trending Ciencia.

Antes de nada, en mi misma línea, quiero destacar que también ha sido portada en Menéame una entrada mi amigo cordobés Enrique F. Borja, físico responsable del blog Cuentos Cuánticos, quien ha aclarado esta cuestión en su nuevo blog “Es Extraño…” en el portal de blogs de la revista Investigación y Ciencia. Su artículo titulando “Heisenberg todavía está tranquilo,” aclara lo que significa el principio de indeterminación de Heisenberg, en qué consiste el nuevo resultado y cómo no viola dicho principio, sino todo lo contrario, lo apoya de forma irrefutable.

Dibujo201300609 error-disturbance and standard deviation formulations heisenbergs uncertainty principle

Yo ya lo dije en Twitter “La formulación original del principio de incertidumbre de Heisenberg sólo es válida para pulsos gaussianos. Verificar que [dicha formulación] es violada para pulsos generales no es [ninguna] novedad. Y no afecta a la validez general del principio. Lo que se estudia [en el nuevo artículo] es la validez de la formulación original de Heisenberg de 1927, que no es la viene en los libros de texto, y que se sabe desde pocos meses después de ser publicada que debe ser modificada ligeramente.” Permíteme aclare estos puntos, porque quizás muchos de los oyentes no me siguen en Twitter y no se enteraron de mis comentarios.

Werner Heisenberg (1901-1976) fue uno de los padres de la mecánica cuántica y formuló en 1925 lo que ahora se conoce como mecánica cuántica matricial, en la que las magnitudes físicas, como la posición y la velocidad (o el momento lineal), se describen mediante matrices que no conmutan entre sí. En 1927, Heisenberg escribe el artículo en el que enuncia su famoso principio de indeterminación que afirma que “hay parejas de magnitudes físicas que no están determinadas con total precisión de forma simultánea.” Estas parejas de magnitudes físicas son las representadas por operadores o matrices que no conmutan entre sí. Sin embargo, en la formulación matemático original, Heisenberg formuló su principio utilizando un ejemplo particular, la medida de la posición y el momento lineal de un electrón en el estado fundamental de un átomo utilizando fotones. Heisenberg presenta su famosa desigualdad para la influencia del error cuadrático medio en las medidas experimentales de la posición en la incertidumbre del momento lineal, también medida como error cuadrático medio. Dicha formulación original del principio que le llevó a recibir el Premio Nobel de Física en 1932, no corresponde a lo que todos los estudiantes de física estudian durante la carrera ya que asume que el error en las medidas experimentales está equidistribuido (es decir, sigue una distribución gaussiana o campana de Gauss). Muy pocos libros de texto de física cuántica, salvo los que presentan la historia original de esta teoría, describe la formulación del principio de Heisenberg utilizando el error cuadrático medio en las medidas de posición y momento lineal, pues dicha expresión matemática tiene una validez limitada, ya que en el caso general la función de onda no es un paquete gaussiano, es decir, no implica una distribución de probabilidad de tipo campana de Gauss.

W. Heisenberg, “Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik,” Zeitschrift für Physik 43: 172-198, 1927 [traducción al inglés “The actual content of quantum theoretical kinematics and dynamics,” NASA TM-77379, 1983].

La formulación del principio de incertidumbre de Heisenberg que todos los físicos estudiamos en los libros de texto es la que presentó el físico norteamericano Earl H. Kennard en 1927, pocos meses después de la publicación del artículo original de Heisenberg. Esta formulación está basada en la dispersión típica de los operadores de posición y momento lineal. De hecho, en la mayoría de los libros de texto de mecánica cuántica el principio de Heisenberg se presenta en su formulación general publicada en 1929 por el físico norteamericano Howard P. Robertson, que relaciona la dispersión típica de dos observables que no conmutan con su conmutador. Ni Kennard ni Robertson tienen su nombre asociado al de Heisenberg, aunque sus formulaciones matemáticas son más correctas que la de Heisenberg pues son válidas para una función de onda general; pero ello no quita que la formulación física del principio de incertidumbre de Heisenberg sea la correcta. Esto algo muy habitual en los trabajos pioneros de física; las ideas físicas son correctas pero la formulación matemática original tiene una validez limitada.

E. H. Kennard, “Zur Quantenmechanik einfacher Bewegungstypen,” Zeitschrift für Physik 44: 326-352, 1927; H. P. Robertson, “The Uncertainty Principle,” Phys. Rev. 34: 163-164, 1929.

Dibujo201300609 Normalized intensity of the successive measurements carried out by apparatus A1 and A2

¿Se puede corregir la formulación original de Heisenberg para paquetes gaussianos y obtener una formulación completamente general siguiendo su línea de razonamiento? Por supuesto, aunque quizás sorprenda a muchos oyentes que esta cuestión ha sido poco estudiada. Aunque desde pocos meses después de la formulación original de Heisenberg en 1927 se sabe que su formulación original basada en el error cuadrático medio no es válida en el caso general y ha de ser corregida, se considera que el valor de esta corrección tiene interés sólo para los físicos aficionados a la historia de la física. A mi pesar, la mayoría de los físicos no están interesados en la historia de la mecánica cuántica e ignoran este tipo de cuestiones de importancia menor, por no decir de importancia nula. Sólo a los físicos que somos apasionados a la historia de nuestra ciencia nos interesan este tipo de detalles históricos.

El físico japonés Masanao Ozawa, de la Universidad de Tohoku, reformuló en el año 2002 las ideas originales de Heisenberg y descubrió cómo corregir su formulación original utilizando errores cuadráticos medios para que sea aplicable a funciones de onda generales. Por supuesto, su formulación incluye dos términos adicionales que dan cuenta de la contribución de la desviación típica de los operadores involucrados. Sin entrar en detalles técnicos, la formulación de Ozawa del principio de incertidumbre de Heisenberg pasó sin pena ni gloria, hasta que ahora el propio Masanao Ozawa ha visitado Viena para solicitar a sus colegas de la Universidad Técnica de Viena que verifiquen de forma experimental su formulación del principio de incertidumbre. De hecho, el artículo técnico cuyo primer autor es Georg Sulyok incluye a Ozawa como quinto autor.

Masanao Ozawa, “Physical content of Heisenberg’s uncertainty relation: Limitation and reformulation,” Phys. Lett. A 318: 21-29, 2003 [arXiv:quant-ph/0210044].

Dibujo201300609 Experimentally determined values of error A - disturbance B - Heisenberg - Osawa relations

No quiero entrar en los detalles técnicos del experimento realizado por Sulyok y sus colegas, que utiliza dos componentes del espín de un neutrón en lugar de la posición y el momento lineal de un electrón en un átomo. Lo más importante en dicho experimento es que se han medido de forma separada los errores cuadráticos medios de ambas componentes del espín y las desviaciones típicas de los correspondientes operadores cuánticos, demostrándose que el principio de incertidumbre de Heisenberg en su formulación convencional, con desviaciones típicas se cumple, pero que también se cumple en la formulación de Ozawa. Como la contribución de los términos introducidos por Ozawa en la formulación original de Heinsenberg ha sido demostrada con precisión, el artículo técnico proclama que se ha demostrado por primera vez de forma empírica que la formulación original de Heisenberg para los errores cuadráticos medios es incorrecta. Ninguna novedad para los físicos, que ya lo sabían desde que en 1927 se publicó el artículo de Kennard.

Georg Sulyok, Stephan Sponar, Jacqueline Erhart, Gerald Badurek, Masanao Ozawa, Yuji Hasegawa, “Violation of Heisenberg’s error-disturbance uncertainty relation in neutron spin measurements,” arXiv:1305.7251, 30 May 2013. También recomiendo consultar Jacqueline Erhart, Stephan Sponar, Georg Sulyok, Gerald Badurek, Masanao Ozawa, Yuji Hasegawa, “Experimental demonstration of a universally valid error-disturbance uncertainty relation in spin-measurements,” arXiv:1201.1833, 9 Jan 2012.

El físico japonés Ozawa ya tiene su pequeño momento de gloria, que será olvidado rápidamente por todo el mundo. Pues ya se sabe que no es noticia que un perro muerda a una persona, sino que una persona muerda a un perro. Y tampoco es noticia verificar de forma experimental que está mal lo que todo el mundo sabía que está mal. Eso sí, para mí es un artículo técnico muy interesante que recomiendo a todos los profesores de física cuántica. Pues recordar la historia de nuestra ciencia es una de las grandes asignaturas pendientes de la educación en la actualidad.

Coda final. Si no lo has hecho ya, puedes disfrutar de mi nuevo Podcast sobre Física para Trending Ciencia siguiendo este enlace.

PS: Por cierto, acaba de aparecer en ArXiv una nueva reformulación de la versión original de la relación de incertidumbre de Heisenberg de 1927 en Paul Busch, Pekka Lahti, Reinhard F. Werner, “Proof of Heisenberg’s error-disturbance relation,” arXiv:1306.1565, 6 Jun 2013. Esta nueva reformulación se diferencia de la de Osawa en que no utiliza la desviación típica de forma explícita y, por tanto, sigue de forma más fiel el espíritu de la formulación original de Heisenberg.

Dibujo201300610 new formulation of error-disturbance heisenberg relation

PS (28 jun 2013): Recomiendo leer el artículo de Ron Cowen, “Proof mooted for quantum uncertainty. Study confirms principle’s limits on measurement accuracy,” Nature 498: 419–420, 27 Jun 2013.

Francis en ¡Eureka!: El genoma de Copito de Nieve, el gorila albino

Dibujo201300608 gorilla gorilla - copito de nieve - national geographic cover 1967

Ya puedes disfrutar, siguiendo este enlace, del audio de mi sección ¡Eureka! en el programa de radio La Rosa de los Vientos, de Onda Cero. Como siempre una transcripción del audio y algunos enlaces para profundizar.

Esta semana ha vuelto a ser noticia Copito de Nieve, el gorila albino del Zoológico de Barcelona que murió hace diez años. Todo un icono para la ciudad de Barcelona. Copito de Nieve ha sido hasta la fecha el único gorila albino del que se tenga noticia. Comprado por el etólogo Jordi Sabater Pi en 1966 para el Zoológico de Barcelona su fama a nivel mundial nació con una portada de la revista National Geographic en 1967. Murió de cáncer de piel el 24 de noviembre de 2003, pero se conservan muestras de su ADN (quizás pensando en su futura clonación). En humanos el albinismo afecta a una de cada 17.000 personas y es un trastorno hereditario causado por la herencia de genes recesivos de ambos padres. Los albinos se conocen desde la antigüedad. Como curiosidad me gustaría comentar que se cree que el profeta Noé, el constructor del arca de Noé, era albino; al menos así lo indica el libro del profeta Enoc, que forma parte del canon de la Biblia de la Iglesia ortodoxa etíope, pero no es aceptado como canónico por las demás iglesias cristianas.

Más información en José R. Alonso, “¿En qué se parecen Copito de Nieve y Noé?,” UniDiversidad, 08 May 2013.

Hay dos tipos fundamentales de albinismo: el más común es el albinismo oculocutáneo, donde falta el pigmento, la melanina, en ojos, pelo y piel, y el albinismo ocular, presente solo en machos, donde la melanina falta sólo en los ojos. Copito de Nieve presentaba albinismo oculocutáneo. Como el ADN de Copito de Nieve se conserva en el Zoo de Barcelona gracias a una muestra de sangre que fue congelada antes de su muerte, investigadores del Instituto de Biología Evolutiva (centro mixto del CSIC y la Universidad Pompeu Fabra) han secuenciado con éxito su genoma completo y han averiguado la causa genética de su albinismo.

Dibujo201300608 gorilla gorilla - copito de nieve - bmc paper

¿El gen responsable del albinismo de Copito de Nieve es el mismo gen que lo causa en humanos? En humanos y en primates se conocen cuatro genes cuyas mutaciones recesivas pueden causar el albinismo oculocutáneo. Cada uno de los cuatro genes codifican diferentes enzimas en la ruta metabólica de la melanina. La variante OCA1 es causada por el gen TYR que codifica la enzima tirosinasa que cataliza el primer paso de la síntesis de la melanina; la variante OCA2 por un gen que codifica una proteína que regula el pH del melanosoma; la variante OCA3 por el gen TYRI1 que codifica una catalasa relacionada con la tirosinasa; y la variante OCA4 por el gen MATP (también llamado gen SLC45A2) que codifica una proteína de membrana que facilita la síntesis de melanina y que actúa como antigen para la formación de los melanocitos. Comparando el genoma de Copito de Nieve con el de otros dos gorilas no albinos se ha comprobado que en su caso el albinismo oculocutáneo es de tipo OCA4, en concreto, debido a un cambio de un único aminoácido en la proteína de membrana del gen MATP (o SLC45A2). Esta variante del albinismo es muy poco habitual en humanos.

Dibujo201300608 Membrane integration of non-albino wild-type and mutant -Snowflake- G518R sequences

El artículo técnico (de acceso gratuito) es Javier Prado-Martinez et al., “The genome sequencing of an albino Western lowland gorilla reveals inbreeding in the wild,” BMC Genomics 14: 363, May 2013. En esta figura, wt es el gen para un gorila no albino y G518R es el de Copito de Nieve; se ve que el aminoácido glicina (G) está sustituido por arginina (R).

Se ha publicado esta semana que los padres de Copito de Nieve eran familiares cercanos, quizás tío y sobrina, con lo que este gorila albino sería resultado de un incesto (producto de la endogamia). El análisis de la variabilidad del genoma permite estudiar el grado de consanguinidad. En general, las copias materna y paterna del genoma en los gorilas difieren en casi dos nucleótidos cada 1.000 bases. En Copito de Nieve hay regiones de millones de bases en las que no hay ninguna diferencia entre ambas copias, lo que indica que son heredadas de un pariente común como resultado de la endogamia. Alrededor del 12% del genoma de Copito de Nieve es homocigoto. Un porcentaje muy elevado que sólo es posible en caso de que sus dos padres estén muy emparentados.

Recomiendo leer a CSIC, “La endogamia causó el albinismo de Copito de Nieve,” SINC, 4 Jun 2013; y Antonio Madridejos, “Los padres de Copito de Nieve eran familiares cercanos,” elPeriódico.com, 4 Jun 2013.

Hay muchas relaciones de parentesco que permiten explicar una consanguinidad del 12%, como el apareamiento entre hermanos, o entre abuelos y nietos, o incluso entre primos hermanos. Sin embargo, teniendo en cuenta las pautas de comportamiento entre gorilas se cree que lo más probable es una relación entre tío y sobrina, un macho adulto expulsado del grupo, algo muy habitual, que más tarde entra en contacto con una hembra joven que busca una nueva comunidad. Me gustaría destacar que en humanos también es más probable el albinismo en familias consanguíneas.

Una vez conocida cuál es la mutación, el estudio abre la puerta a cruzar a los descendientes de Copito que sean portadores con el objetivo de obtener un nuevo gorila albino. Como el albinismo es una característica genética recesiva, para manifestarse en un individuo es necesario que sus dos padres sean portadores de la mutación. Copito de Nieve tuvo 21 hijos, de los cuales 3 le sobreviven; también están vivos 11 nietos, de un total de 21, y 4 bisnietos. Ninguno de ellos ha nacido albino. Cruzar dos descendientes de Copito de Nieve portadores del gen recesivo descubierto permitiría, según las reglas de la herencia, lograr un albino con una probabilidad del 25%. Sin embargo, esto no forma parte de los planes del zoo de Barcelona. Hoy en día los zoos europeos buscan todo lo contrario, aumentar la diversidad genética mediante apareamientos de individuos muy alejados.

En 2009 se publicó un estudio sobre la endogamia en los Austrias, en concreto, el estudio genético indicó que la consanguinidad del rey Carlos II era similar a la de un hijo incestuoso. Carlos II El Hechizado fue resultado de los repetidos cruces entre parientes próximos que se dieron en sus antepasados. Su coeficiente de consanguinidad era mayor del 25%, similar al del fruto de una relación entre padre e hija, o entre hermano y hermana. Esta alta consanguinidad fue un factor clave en la desaparición de la dinastía de los Austrias en España porque cuando murió Carlos II en 1700 no dejó descendencia. Este resultado fue obtenido por Gonzalo Álvarez Jurado, catedrático de Genética en la Universidad de Santiago de Compostela, y varios colegas que analizaron la consanguinidad de 16 generaciones en el árbol genealógico de Carlos II desde que Felipe el Hermoso inauguró la dinastía al casarse con Juana La Loca. Como no se disponía del ADN de estos personajes se realizó un análisis de la mortalidad infantil en los descendientes de cada rey hasta los 10 años, que está en relación directa con el coeficiente de consanguinidad. También estudiaron las enfermedades achacables a mutaciones genéticas recesivas, que necesitan heredarse de los dos progenitores. Por ejemplo, Carlos II padecía raquitismo, por lo que no pudo tener hijos y a los 30 años parecía un viejo. En los Borbones el grado de consanguinidad es mucho menor.

Más información en M. Ruíz de Elvira, “La endogamia mató a los Austrias,” El País, 15 Abr 2009; María Valerio, “La endogamia acabó con los Austrias,” El Mundo, 15/04/2009. El artículo técnico es Gonzalo Alvarez, Francisco C. Ceballos, Celsa Quinteiro, “The Role of Inbreeding in the Extinction of a European Royal Dynasty,” PLoS ONE, 4: e5174, April 15, 2009 [acceso gratuito].

Para acabar, hay muchos animales blancos en los zoológicos, como los leones blancos, los tigres blancos o incluso los pavos reales blancos, ¿también se trata de albinos? En la mayoría de los casos no se trata de albinismo, sino de leucismo, que a diferencia del albinismo, no produce ningún cambio de coloración, ni defectos de visión en los ojos del animal. Estos animales leucísticos son capaces de producir melanina y por ello tienen los ojos con un color normal. Sólo se tratará de albinismo oculocutáneo cuando no existe melanina en el iris. Los oyentes deben fijarse si los ojos son de color violeta o incluso rojo, porque la luz penetra por el iris y se refleja de los vasos sanguíneos de la retina.

Más información en Biogeocarlos, “Leones blancos,” La Ciencia de la Vida, 24 Mar 2008.

Si aún no has escuchado el audio, sigue este enlace.

Francis en ¡Eureka!: El bosón de Higgs gana el premio Príncipe de Asturias

Dibujo20130602 peter higgs and francois englert

Ya puedes disfrutar del audio de mi sección ¡Eureka! en el programa La Rosa de los Vientos de Onda Cero, basta que sigas este enlace. Como siempre una transcripción del audio.

El físico escocés Peter Higgs y el belga François Englert han recibido el premio Príncipe de Asturias como pioneros de la física del bosón de Higgs [también lo ha recibido el CERN pero el objetivo es discutir el papel de Englert, un físico desconocido para el gran público]. Hay un tercer físico que también merece este premio que ya ha fallecido. Junto a Peter Higgs y François Englert, también merece el premio el físico belga Robert Brout, que falleció en el año 2011. Muchos físicos creemos que la partícula de Higgs debería llamarse partícula de Brout-Englert-Higgs, en este orden. La partícula de Higgs es un claro ejemplo de la ley de los epónimos de Stigler, que afirma que las leyes y los descubrimientos científicos nunca reciben el nombre de sus auténticos descubridores.

Dibujo20130602 robert Brout

Podemos recordar la historia del descubrimiento de la teoría de la partícula de Higgs. ¿Qué fue lo que hicieron estos físicos hace 50 años? La teoría actual que describe la física de partículas, llamada el modelo estándar, surgió en su forma actual en 1973, pero sus orígenes se remontan a 1954 cuando dos físicos llamados Yang y Mills introdujeron la formulación matemática correcta. El problema de la teoría de Yang-Mills es que predice que ninguna partícula tiene masa, como los fotones, pero sabemos que casi todas las partículas tienen masa. En 1960 se propuso una manera de arreglar este problema, usando una idea de la teoría de la superconductividad, romper la simetría de la teoría de Yang-Mills. Dos físicos Yoichiro Nambu y Jeffrey Goldstone demostraron en 1961 que en física de partículas esta idea no funcionaba porque predecía la existencia de nuevas partículas que no habían sido observadas. El físico Philip Anderson, experto en superconductividad, que es una teoría no relativista, sugirió en 1963 que podría funcionar una variante llamada rotura local de la simetría. Pocos físicos de partículas prestaron atención a esta solución hasta que en junio de 1964, el físico Walter Gilbert publicó que el método de Anderson no podía funcionar porque violaba la relatividad. Pero su artículo tenía un error matemático que descubrieron Peter Higgs y otros físicos. Si no hubiera cometido ese error quizás hoy en día hablaríamos de partícula de Gilbert en lugar de partícula de Higgs.

Entonces Peter Higgs no fue el único físico que descubrió el error, el otro ganador del Premio Príncipe de Asturias también lo descubrió. ¿Fue Higgs el primero en darse cuenta del error de Gilbert? Peter Higgs tras leer el artículo de Gilbert el 16 de julio de 1964, descubrió su error y escribió un artículo que decía cómo se podía corregir el error de Gilbert, pero sin dar detalles, que envío el 24 de julio a la revista de física europea Physics Letters. El artículo fue aceptado de inmediato. Higgs decidió escribir un segundo artículo con todos los detalles y lo envío el 31 de julio a la misma revista, donde fue rechazado porque “el artículo no aportaba nada realmente nuevo al anterior.” Higgs quedó muy sorprendido. Habían aceptado un artículo que decía lo que había que hacer, sin hacerlo, y rechazado el artículo que lo hacía. En agosto añadió un par de párrafos, entre ellos uno que proponía la existencia de una nueva partícula y lo envió a la revista estadounidense de física Physical Review Letters, que lo recibió el 31 de agosto. Ese mismo día, en dicha revista se publicaba otro artículo muy parecido escrito por los físicos belgas François Englert y Robert Brout, que fue enviado el 26 de junio, casi un mes antes que Higgs leyó el artículo de Gilbert. El artículo de Higgs podría haber sido rechazado, pero el editor le pidió a Higgs que citara el artículo de Englert y Brout y que aceptaría su artículo porque las técnicas matemáticas usadas en ambos artículos eran diferentes, aunque su conclusión era la misma. El artículo de Higgs apareció el 19 de octubre de 1964.

Más información en “Higgs y el vino, de mayordomo hasta bibliotecario, directo hacia el Nobel,” y en “La teoría electrodébil, el bosón de Higgs y su historia.”

Esto quiere decir que los físicos belgas Brout y Englert publicaron el trabajo antes que el escocés Higgs. ¿Por qué se usa el nombre “partícula de Higgs” en lugar de un nombre históricamente más correcto, como partícula de Englert-Brout? La razón es muy curiosa. En 1967, el famoso físico coreano Benjamin Lee habló con Peter Higgs en una conferencia sobre el descubrimiento de su teoría. Acompañado por una copa de vino, Higgs le contó sus propias contribuciones, olvidando hablar de los belgas Brout y Englert, y de los demás físicos que trabajaron en este tema. Quizás Higgs quería abreviar su historia o quizás quería ponerse algunas flores delante de Lee, que era muy famoso. Casi nadie conocía la teoría de Higgs hasta que varios experimentos pusieron de moda en 1972. Entonces, en una conferencia de física de partículas en el Femilab, en EEUU, invitaron a Lee para que contara esta teoría. Lee tuvo poco tiempo para preparar la charla y recordó su conversación con Peter Higgs. Por ello, en su discurso habló de “mecanismo de Higgs,” de “bosón de Higgs.” y de “teoría de Higgs.” Desde entonces, se habla de la “partícula de Higgs” en lugar de la partícula de “Brout-Englert-Higgs.”

Más información en “Por qué el bosón de Higgs no se llama bosón de Brout-Englert-Higgs-Hagen-Guralnik-Kibble.”

Quisiera recordar que en el año 2010 recibieron el Premio Sakurai de la Sociedad de Física Americana para contribuciones a la Física de Partículas Teórica 6 físicos: además de Peter Higgs, Robert Brout y François Englert, también lo recibieron Carl Hagen, Gerald  Guralnik y Tom Kibble. Los seis pueden ser considerados padres de la partícula de Higgs.

Más información en “El sexteto de Higgs, Premio de la APS en honor a J.J. Sakurai, y la historia del mecanismo de Higgs” y en “Atención, pregunta: ¿Quién debe recibir el Premio Nobel de Física por el descubrimiento del Higgs?

El famoso físico británico Stephen Hawking tenía dudas sobre la existencia del bosón de Higgs, aunque al final admitió el descubrimiento del 4 de julio y declaró por perdida su apuesta con Lawrence Krauss, famoso autor del libro “La física de Star Trek.” ¿Por qué tenía dudas Hawking sobre el Higgs? Las apuestas de Hawking contra otros físicos son muy famosas y en mi opinión tienen mucho de marketing. Hawking es un gran defensor de la llamada teoría de cuerdas que predice la existencia de una simetría, aún no observada en la Naturaleza, llamada supersimetría. En la supersimetría en lugar de una sola partícula de Higgs tiene que haber una familia de cinco partículas. Uno de los expertos en teoría de cuerdas, Gordon Kane, Universidad de Michigan, EEUU, apostó 100$ contra Hawking a favor de que el bosón de Higgs existe. El 4 de julio de 2012, tras el descubrimiento del Higgs, Hawking dio por perdida la apuesta. ¿Por qué Hawking no creía en la existencia del Higgs? Bueno en realidad no es que lo creyera, ya que Hawking ha apostado muchas veces contra sus propias creencias. Por ejemplo, apostó en 1974 contra Kip Thorne que no existían los agujeros negros y en 1990 dio por perdida la apuesta. En mi opinión, no hay que hacerle mucho caso a las apuestas de Hawking.

España como país de la Comunidad Europea es miembro del CERN. Sin embargo, se ha publicado que aún debe dinero. ¿Cómo está este asunto? España aún debe 36 millones de euros de su contribución de 2012 y ha reservado sólo 51 millones de los 76,5 millones que debería pagar en 2013, con lo que se espera que adeude otros 25,5 millones adicionales. El Gobierno de España quiere saldar la deuda de 2012 antes de de finales de este año. Muchos físicos españoles están muy preocupados por este escabroso asunto y la participación española podría sufrir algún tipo de infracción.

Como siempre, si aún no has escuchado el audio, sigue este enlace.

Carnaval Matemáticas: El artículo matemático más corto de la historia

Dibujo20130521 counterexample to euler s conjecture on sums of like powers

Este artículo matemático con un solo párrafo, una sola referencia bibliográfica, título, autores y afiliaciones, podría ser el artículo matemático más corto (L. J. Lander and T. R. Parkin, “Counterexample to Euler’s conjecture on sums of like powers,” Bull. Amer. Math. Soc. 72: 1079, 1966), pero existen otros aún más cortos (dependiendo de la definición de longitud que decidamos tomar). El más parco en palabras (sólo dos palabras) es el siguiente.

Dibujo20130521 can n2plus1 unit equilateral triangles cover an equilateral triangle

Dicen que decía Paul Erdös que “un matemático es una máquina de convertir café en teoremas” (en realidad lo decía su amigo Alfred Rényi; gracias @ClaraGrima por recordarlo). Alexander Soifer decidió retar a sus colegas en Princeton, durante la hora del café, a resolver el siguiente problema: ¿cuál es el mínimo número de triángulos equiláteros necesarios para recubrir un triángulo equilátero de lado n+ε? John H. Conway tenía que volar en avión a una conferencia y durante el trayecto descubrió una solución con n²+2 triángulos. Tras retornar, a la hora del café, Conway compartió su descubrimiento con Soifer. Mientras viajaba en avión a otra conferencia, Soifer logró construir una demostración gráfica a partir de la solución de Conway. A su regreso decidieron escribir un artículo conjunto. Conway quiso que su artículo fuera el récord absoluto en el número mínimo de palabras. Por ello, su artículo sólo tendría dos palabras “n²+2 can” y dos figuras (con la demostración gráfica). Nada más y nada menos. Lo enviaron el 28 de abril de 2004 a la revista American Mathematical Monthly, exactamente como aparece en la figura de arriba.

El 30 de abril, la asistente del editor, Mrs. Margaret Combs, les indicó que, por favor, añadieran alguna frase al texto explicando su artículo.

The Monthly publishes exposition of mathematics at many levels, and it contains articles both long and short. Your article, however, is a bit too short to be a good Monthly article. . . A line or two of explanation would really help.

Conway envió una carta el editor principal protestando y preguntando si “¿existe alguna relación entre la cantidad y calidad?”

I respectfully disagree that a short paper in general—and this paper in particular—merely due to its size must be “a bit too short to be a good Monthly article.” Is there a connection between quantity and quality?. . . We have posed a fine (in our opinion) open problem and reported two distinct “behold-style” proofs of our advance on this problem. What else is there to explain?

Conway era muy famoso y quizás por ello Bruce Palka, el editor principal, decidió proponerle lo siguiente el 4 de mayo de 2004:

The Monthly publishes two types of papers: “articles,” (…) from about six to twenty-five pages, and “notes,” which are shorter, (…) typically in the one-to-five page range. (…) The standard way in which we use such short papers these days is as “boxed filler” on pages that would otherwise contain a lot of the blank space that publishers abhor. . . If you’d allow us to use your paper in that way, I’d be happy to publish it.

Conway respondió que aceptaba que su artículo apareciera rellenado una de las páginas blancas entre artículos. El artículo apareció en el número de enero de 2005 de dicha revista, aunque el editor les cambió el título (J.H. Conway, A. Soifer, “Covering a triangle with triangles,” American Mathematical Monthly 112: 78-78, Jan. 2005).

Nos cuenta la historia con más detalles el propio Alexander Soifer, “Building a Bridge III: from Problems of Mathematical Olympiads to Open Problems of Mathematics,” Mathematics Competitions 23: 27-38, 2010.

Coda final: Esta entrada participa en la Edición 4.1231 del Carnaval de Matemáticas cuyo anfitrión es Matemáticas Interactivas y Manipulativas.

Nota dominical: Einstein nunca dijo que su “mayor error” fue la constante cosmológica

Dibujoa20130517 albert einstein smiling

Mucha gente cree que Einstein dijo que introducir la constante cosmológica fue el “mayor error de su vida.” Pero se trata de un mito. Einstein nunca lo dijo. O si lo dijo en privado no existe ningún documento que lo acredite. La frase “el mayor error” o “la mayor metedura de pata” (en inglés “the biggest blunder“), en relación a la constante cosmológica y Einstein, fue escrita por primera vez por el físico George Gamow en un artículo publicado en septiembre de 1956 en la revista Scientific American (recuerda que Einstein murió en abril de 1955). Gamow repitió esta frase varias veces en otros textos y gracias a ello se popularizó esta cita apócrifa como si fuera del propio Einstein.

Por supuesto, el mito no quita que Einstein se sintiera descontento con haber introducido la constante cosmológica y que en una carta al cosmólogo Georges Lemaître le dijera que “soy incapaz de creer que una cosa tan fea pueda ser real en la Naturaleza” (“I was unable to believe that such an ugly thing should be realized in Nature”). Pero, la frase en inglés “the biggest blunder” fue acuñada por Gamow a modo de hipérbole y atribuida a Einstein por otros. Hay muchos mitos alrededor de la figura de Einstein que se propagan con el tiempo, nadie sabe muy bien el porqué. Me ha recordado este hecho, bien conocido por los que hemos leído biografías rigurosas de Einstein, el artículo de Mario Livio, “Lab life: Don’t bristle at blunders,” Nature 497, 309–310, 16 May 2013.

En su artículo, Livio nos recuerda también que en julio de 1991 se publicó en la revista Nature un artículo de los astrónomos Andrew Lyne, Matthew Bailes y S.L. Shemar que anunciaba el descubrimiento del primer planeta extrasolar; yo recuerdo este artículo porque entonces yo estaba suscrito a Nature en papel y la recibía con placer todas las semanas. Para sorpresa de todo el mundo no estaba orbitando una estrella similar al Sol, sino un pulsar (una estrella de neutrones residuo de la explosión de una supernova). Pocos meses más tarde, en enero de 1992, los autores tuvieron que retractarse de este artículo, pues su error era debido a que no habían corregido de forma adecuada el movimiento de la Tierra alrededor del Sol. Yo recuerdo haber leído dicha retracción con cierta inquietud, pues entonces pensaba que los artículos publicados en Nature eran muy fiables gracias a su rigurosa revisión por pares. Y además, la semana anterior se había publicado otro descubrimiento similar, un sistema planetario con dos exoplanetas.

Livio nos recuerda, yo no lo sabía, que Lyne reveló su error en una reunión de la Sociedad Astronómica Americana, donde recibió una clamorosa ovación por ello. Justo después de su charla, el astrónomo Aleksander Wolszczan anunció que había descubierto otros dos planetas extrasolares orbitando otro púlsar. Su artículo en Nature, junto a D.A. Frail, titulado “un sistema planetario alrededor del púlsar PSR 1257+12,” corrió mucha mejor suerte, pues fue confirmado con un artículo en Science en 1994, titulado “confirmación de planetas de masa terrestres alrededor del púlsar PSR 1257+12.” Gracias a ello, Wolszczan y Frail están en la carrera hacia el Premio Nobel (de hecho, mucha gente afirma que el primer planeta extrasolar se descubrió en 1994, olvidando el descubrimiento de 1992).

Wolszczan siempre ha dicho que el artículo de Lyne fue la “inyección de confianza” que le convenció de que las señales en sus datos sobre el púlsar PSR 1257+12 eran señales reales de exoplanetas. Si su artículo a Nature no hubiera sido enviado antes de la retracción de Lyne, quizás, Wolszczan hubiera descartado dichas señales y no sería uno de los candidatos más firmes al Premio Nobel de Física en los próximos años.

Los errores son una parte esencial del proceso científico. Si te ha picado la curiosidad esta entrada, y tienes acceso a una suscripción a Nature, te recomiendo leer el artículo de Livio en Nature. No te arrepentirás.

La voz de Alexander Graham Bell restaurada por el Berkeley Lab

Este vídeo youtube, que acaba con la frase “in witness whereof, hear my voice, Alexander Graham Bell,” nos permite oír una grabación de hace 128 años de la voz de Bell, gracias a la tecnología de restauración de grabaciones antiguas del Berkeley Lab de la Universidad de Berkeley, California, EE.UU. Oímos la voz de Bell grabada el 15 de abril de 1885 en el Laboratorio Volta de Washington, DC. Bell regaló esta grabación al Smithsonian antes de su muerte en 1922. El proyecto de restauración ha sido financiado por el Museo Nacional de Historia Americana, la Biblioteca del Congreso y el Laboratorio Smithsonian en Berkeley. Más información en ““Hear My Voice”: Smithsonian Identifies 130-Year-Old Recording as Alexander Graham Bell’s Voice,” National Museum of American History, Apr. 25, 2013; Charlotte Gray, “We Had No Idea What Alexander Graham Bell Sounded Like. Until Now,” Smithsonian magazine, May 2013; y Dan Krotz, “What Did Alexander Graham Bell’s Voice Sound Like? Berkeley Lab Scientists Help Find Out,” Berkeley Lab, Apr. 25, 2013.

Sigue leyendo

Nota dominical: Einstein y Ehrenfest discutieron el colapso de la función de onda en 1922

Dibujo20130318 stern gerlach experiment - postcard communicated to niels bohr

Puede parecer increíble, pero el problema del colapso de la función de onda cuántica fue discutido por Albert Einstein y Paul Ehrenfest en un artículo conjunto que se envió en 1922, poco después de la publicación del famoso experimento de Stern y Gerlach. Durante una visita de Einstein a Ehrenfest en Leiden (Países Bajos), entre el 29 de abril y el 13 de mayo de 1922, discutieron el famoso experimento de Stern-Gerlach (enviado a publicación el 1 marzo) y escribieron un artículo conjunto que enviaron a publicación el 21 de agosto. El artículo de Einstein-Ehrenfest discute el problema de la medida en mecánica cuántica y la importancia del colapso de la función de onda si lo leemos desde un punto de vista moderno( ya que el concepto de función de onda aún no había sido introducido por Erwin Schrödinger). “¿Cómo saben los átomos que dirección tomar en el experimento?” Si el proceso fuera clásico, Einstein y Ehrenfest calculan que la desviación de los átomos requeriría miles de millones de segundos, cuando según el experimento el proceso tarda menos de 100 microsegundos. Por ello, afirman que el experimento muestra una transición brusca entre estados cuánticos (hoy diríamos que muestra el colapso de la función de onda) y que se trata de un experimento ideal para ilustrar las diferencias entre la medida en física clásica y en física cuántica. Realmente sorprendente, sobre todo, porque el problema de la medida en mecánica cuántica no se empezó a discutir hasta un lustro más tarde. Nos lo cuenta Issachar Unna, Tilman Sauer, “Einstein, Ehrenfest, and the quantum measurement problem,” Ann. Phys. 525: A15–A19 (2013). El artículo técnico original es A. Einstein, P. Ehrenfest, “Quantum Theoretical Comments on the Experiment of Stern and Gerlach,” Zeitschrift fur Physik 11: 31-34, 1922.

¿Quién inventó el “doble click” con el ratón?

Julián Estévez (@Jeibros) preguntó “¿quién inventó el doble click?” y Ramón Ordiales (@ramoneeza) contestó “el Doble Click es de Microsoft” citando a NewScientist: Microsoft lo patentó el 27 de abril de 2004. Pero yo expliqué a mis alumnos c. 1998 el “Double clicking” del lenguaje Squeak, desarrollado por AT&T Bell Laboratories. De hecho, yo les dije a mis alumnos que el doble click lo inventó William M. Newman (quizás les engañé, pues ahora compruebo que el artículo original de Newman “A system for interactive graphical programming,” de 1968, solo menciona el click, pero no el doble click). Seguramente, el doble click fue inventado por Xerox a finales de los 1970, pero no he encontrado ningún artículo que lo atestigüe. En el artículo de NewScientist se menciona que “Hartmut Pilch apunta que la patente de Microsoft debería ser revocada porque seguro que la idea del “doble click” ya existía antes de 1997 cuando la patente fue solicitada.” Repito, lo más antiguo que un torpe como yo ha encontrado ha sido 1985, pero estoy seguro que a finales de los 1990 cuando yo dije que lo había inventado Newman debía ser porque lo había leído en algún sitio (torpe de mí que ahora soy incapaz de encontrarlo).

“Double clicking. As an example of a Squeak program using timeouts, consider the problem of detecting clicks (mouse button down and up again in a short time) and double clicks (two clicks separated by a longer but finite time) without losing any button transitions.” Pág. 201, SIGGRAPH ’85.

Por supuesto, alguien dirá en los comentarios que lo que Microsoft ha patentado es la semántica (qué hace Windows tras un doble click). Pero mi memoria me debe fallar, pero puedo asegurar que yo eso también lo leí en papel en un artículo de finales de los setenta. Seguramente, mi memoria me falla.

Nota dominical: La “bola de cristal” que descubrió el bosón de Higgs en 1984

Dibujo20130310 crystal ball collaboration 1984 higgs boson fake signal

El detector “Bola de Cristal” instalado en el anillo DORIS de DESY descubrió a principios de 1984, con más de 5 sigmas, un bosón de Higgs con una masa de 8,32 GeV/c² gracias a la desintegración de la partícula úpsilon en fotones; en concreto, con 4,2 sigmas tras analizar 10,7 /pb (inversos de picobarn) de eventos de desintegración de la partícula Υ(1S)→γH, y con 3,3 sigmas tras analizar 64,5 /pb de eventos de desintegración de la partícula Υ(2S)→γH. La señal presentaba un exceso (μ=2) respecto a las predicciones del modelo estándar, lo que hizo que muchos teóricos buscaran de forma urgente una explicación. La señal no fue confirmada por CESR en Cornell. A finales de 1984, cuando DORIS acumuló más colisiones, la señal despareció. Todo quedó en una falsa alarma. ¡¡Una falsa alarma de 5 sigmas!! Para los curiosos, el artículo es Crystal Ball Collaboration, “Evidence for a Narrow Massive State in the Radiative Decay8 of the Upsilon,” SLAC-PUB-3380, DESY 84-064, July 1984.

Dibujo20130311 upsilon decay into photon and higgs via bottom vertex

Muchos físicos teóricos trataron de entender el exceso respecto al modelo estándar, como S.L. Glashow, M. Machacek, “Can ζ (8.3 GeV) be one of two Higgs bosons,” Physics Letters B 145: 302–304, 20 Sep 1984Howard E. Haber, G.L. Kane, “Implications of a Higgs interpretation of the ζ(8.3),” Nuclear Physics B 250: 716–728, 1985; Michael Shin, Howard Georgi, Minos Axenides, “ζ(8.3 GEV) as the lightest scalar in a three-Higgs-doublet model,” Nuclear Physics B 253: 205–215, 1985; James Pantaleone, Michael E. Peskin, S.-H.Henry Tye, “Bound-state effects in ϒ→γ+ resonance,” Physics Letters B 149: 225–233, 13 December 1984; etc.

Más información sobre la historia de la búsqueda del Higgs en Sau Lan Wu (Univ. Wisconsin-Madison), “Historic review of Higgs searches. The long road to the Higgs discovery,” Higgs Quo Vadis, Aspen Center for Physics, 10-15 March, 2013 [slides pptx].

PS (15 Ago 2013): Sau Lan Wu, “Higgs search History,” ISHP, 12 Aug 2013.