La materia oscura ha sido descubierta gracias a sus efectos gravitatorios, sin embargo, nos gustaría saber si corresponde a una nueva partícula y en su caso cuál es su masa, su espín, si es estable o metaestable, cómo se acopla a las interacciones débiles, al campo de Higgs, a los quarks y gluones, a los leptones, incluso si se trata de una reliquia térmica de la gran explosión (big bang). Hay muchos experimentos en curso que buscan rellenar estos detalles durante la presente década (antes de 2020). La charla de Tim M.P. Tait, «Assembling a Theory of Dark Matter,» Snowmass, Jul 29, 2013 [slides], nos propone un cronograma.
Archivo de la etiqueta: Opinión
Prensa rosa: Por qué me interesa una noticia científica y no otra
Yuri S. Kivshar es uno de los popes del campo de investigación al que yo me dedico. Kivshar tiene un índice h de 69 y la friolera de 758 artículos en revistas impactadas (según el ISI Web of Science); entre ellos, 116 Optics Letters y 73 Physical Review Letters. Su artículo más citado («Dynamics of solitons in nearly integrable systems«) ha sido citado 886 veces. En 2005 me sorprendió que empezara a publicar más de 52 artículos al año (más de un artículo a la semana) y el año pasado (2012) publicó 70 artículos, incluyendo 5 Physical Review Letters. Son muchos artículos y no todos pueden ser buenos, pero la mayoría son muy buenos (al menos para los que trabajamos en mi campo).
La teoría de cuerdas, ¿ciencia o pseudociencia?
Permíteme sacar unas frases fuera de contexto de un artículo sobre la falsabilidad como criterio para diferenciar entre ciencia y pseudociencia escrito por mi amigo César Tomé (@EDocet), «Las teorías científicas no son falsables,» Cuaderno de Cultura Científica, 30 Abr 2013: «la llamada teoría de cuerdas, por ejemplo, es una pseudociencia. Lo que implica que debe haber algo más que la capacidad de predicción empírica comprobable si hemos de considerar una hipótesis como la teoría de cuerdas como perteneciente al ámbito de la ciencia, algo que pocos dudan. Por consiguiente, si la falsabilidad debe ser un criterio para considerar una hipótesis como científica, y lo es, pero no así su capacidad de predicción empírica, entonces no es una característica de las hipótesis.» Y concluye su interesante artículo de opinión con: «Por tanto, las teorías científicas no son falsables, son tratadas como tales. La falsabilidad, quede claro, es una actitud.»
Como yo decía en mi artículo «Introducción a la teoría de cuerdas» en el número 1 de la revista Amazings, por cierto, muy criticado tanto por legos como por expertos: «La teoría de cuerdas es un marco teórico [la palabra correcta es modelo], como puede serlo la mecánica clásica. Verificar la segunda ley de Newton (fuerza es igual a masa por aceleración) es imposible de forma general, no se puede demostrar que no haya alguna fuerza clásica que no la cumpla. Sólo se puede verificar esta ley para fuerzas concretas (la gravedad de Newton o la fuerza de Coulomb). Lo mismo pasa con la teoría de cuerdas. Sus predicciones dependen de la compactificación concreta para las dimensiones extra del espaciotiempo utilizada. El desacuerdo con los experimentos de una compactificación concreta no invalida la teoría, pues podría haber otra que sí estuviera de acuerdo con ellos. Por ejemplo, hay compactificaciones que predicen cuatro generaciones de partículas elementales, cuando solo se conocen tres, o que predicen que los neutrinos no tienen masa en reposo, cuando se sabe que la tienen, o que predicen que la constante cosmológica es negativa, de hecho en las teorías con supersimetría es difícil incorporar una constante cosmológica positiva como la implicada por la existencia de la energía oscura. Sin embargo, estas predicciones erróneas no invalidan el marco teórico de las cuerdas. La teoría de cuerdas también realiza predicciones genéricas que son independientes de la compactificación, como la existencia de la gravedad y de la supersimetría, pero hasta que no se conozca la versión definitiva de la teoría será difícil diseñar experimentos para verificar fuera de toda duda este tipo de predicciones generales.»
Permíteme darle más vueltas al argumento, pues muchos lectores no se dieron cuenta en su momento de lo que yo quería decir y me criticaron por ello (supongo que no sin razón). Las dos cuestiones «¿es falsable la mecánica clásica?» y «¿es falsable la segunda ley de Newton?» son muy diferentes en grado y forma. Los experimentos a gran velocidad (momento) y/o energía falsaron los principios de la mecánica clásica (como el principio de relatividad de Galileo) y llevaron a la mecánica relativista (basada en el principio de relatividad de Einstein). Ahora bien, ¿falsan la segunda ley de Newton? Recuerda que en teoría de la relatividad la fuerza se define como la derivada del momento lineal, es decir, igual que en la segunda ley de Newton. Quizás sea una cuestión lingüística, pues la segunda ley de Newton se llama «ley» en la mecánica clásica y se llama «definición» en el mecánica relativista. Pero estarás de acuerdo conmigo con que las evidencias empíricas que llevaron a la mecánica relativista no contradicen la segunda ley de Newton (o si prefieres, la nueva formulación relativista de la segunda ley de Newton).
Una revisión informal de la historia de la partícula de Higgs
Mucha gente dice que mi blog es muy técnico y difícil de entender. La verdad es que para mí no es fácil utilizar un lenguaje sin jerga. Esta entrada es informal y muchos físicos me tirarán de las orejas, pero así es como le conté a un buen amigo, periodista, hace solo unos días, la historia del Higgs. Lo dicho, quizás os guste o quizás no.
El problema original que resolvió Higgs es teórico, buscar los límites de un teorema matemático que entonces conocían (y preocupaba a) muy pocas personas en todo el mundo, el teorema de Nambu-Goldstone. El teorema predecía que el universo estaba plagado de partículas sin masa que nadie había observado. Si así fuera, no existiríamos, pero como existimos, tenía que haber una puerta trasera para salir del entuerto. Planteado alrededor de 1960, la solución se obtuvo en 1964 (por los pocos a los que preocupaba resolver esta tontería, ex-alumnos de Nambu y Goldstone, obviamente).
Como resultado de la solución tenía que existir una partícula (la de Higgs), pero no importaba que nadie la hubiera observado porque su masa era arbitraria y por tanto podía ser tan grande que no afectase en nada en absoluto a toda la física conocida entonces. Problema resuelto, todos nosotros podíamos existir (bueno, ya existíamos, pero me entendéis…)
Para qué servían estas ideas. Para nada. Una chorrada técnica más. Hasta que dos alumnos de Goldstone, llamados Weinberg y Salam aplicaron en 1967 la idea de Higgs a una teoría propuesta por Glashow en 1961. Nadie les hizo ni caso. Imaginaos qué chorrada. Puro exotismo teórico. De hecho, Weinberg abandonó esta línea de trabajo porque no llevaba a ninguna parte y se puso a trabajar en cosmología; muchos habréis leído su famoso libro de divulgación «Los tres primeros minutos del universo.»
Pero resulta que en 1971 uno de los pocos que trabajaban en estas chorradas (había poquísimos en todo el mundo), le mandó a uno de sus alumnos, uno de los mayores genios de la historia reciente, ‘t Hooft, que resolviera un sencillo ejercicio: demostrar lo que todo el mundo sabía, que la teoría de Weinberg-Salam-Glashow era incorrecta y no servía para nada (en lenguaje técnico que no era renormalizable). El ejercicio de Veltman estaba orientado a entrenar a ‘t Hooft en el estudio de la renormalizabilidad de la gravedad cuántica para un gravitón masivo (problema mucho más duro que también resolvió el chaval, que hoy ya es Premio Nobel).
La enorme sorpresa fue que la teoría era renormalizable (gracias a las técnicas inventadas por Veltman y a que ‘t Hooft utilizó un programa de ordenador para hacer los cálculos, el mismo que ahora, mejorado, utilizan muchos físicos jóvenes). Gracias a esta propiedad se podían realizar cálculos con la teoría de Weinberg-Salam-Glashow (antes la teoría no servía para nada porque nadie podía calcular nada con ella). Lo maravilloso fue que los cálculos coincidían con la realidad. En 1973 ya se sabía que tenía que ser la teoría correcta, porque era la única que describe todo lo que conocemos, la única capaz de hacerlo, entonces y ahora, porque aún sigue siéndolo.
Poder calcular las predicciones de una teoría es maravilloso porque permite demostrar que la teoría es incorrecta. Se calcula todo lo que predice, se comprueba que falla y listo, ya nos podemos poner manos a la obra y desarrollar una teoría mejor. Pero aquella teoría, llamada modelo estándar, no ha fallado nunca.
Nunca quiere decir nunca. Eso sí, la teoría permite añadir o quitar ciertas cosas. Los neutrinos pueden tener masa o no tenerla. La navaja de Ockham prefiere que no la tengan, pero nada prohíbe que la tengan. Cuando se descubrió que la tenían, pues nada, ningún problema se mete y punto (todavía no sabemos bien cómo hacerlo porque hay dos opciones, que los neutrinos sean partículas de Dirac o de Majorana, pero no importa en esta historia).
Sin embargo, también hay cosas que no podemos poner o quitar a la ligera. Una de ellas es el llamado mecanismo de Higgs. Sabemos que existe, está demostrado en los experimentos y funciona a las mil maravillas. En palabras sencillas este «mecanismo» es equivalente a que, a baja energía el electromagnetismo y la fuerza nuclear débil están separadas, pero a alta energía están unificadas. Más de 40 años de experimentos (más o menos desde 1973) lo han demostrado fuera de toda duda. A baja energía son dos fuerzas separadas. A alta energía son una única fuerza. Estoy simplificando las cosas, pues a alta energía son también dos fuerzas, pero otras dos diferentes que a baja energía; los detalles no son importantes y el nombre que se usa es fuerza electrodébil, que alude a una unificación con «pegamento» (el mecanismo de Higgs).
La versión más sencilla del mecanismo de Higgs (la original de 1964) predice la existencia de una partícula, el bosón de Higgs. Hay versiones más avanzadas que predicen varios bosones de Higgs, e incluso que no predicen ninguno. Bastan pequeños retoques en la teoría («pequeños» quiere decir que ha costado 40 años dominarlos a la perfección y que los físicos teóricos jóvenes si no los dominan suspenden los exámenes y no reciben su título universitario).
El mecanismo de Higgs es maravillosamente simple pues solo tiene un parámetro libre (en su versión mínima) y todo se calcula a partir de dicho número. Solo un número. ¡Qué maravilla! ¿Cuál es ese número? El número mágico es la masa del bosón de Higgs. Este número puede ser cero, infinito o cualquier otro número. Bueno, ya Higgs sabía en 1964 que no es cero (no existiríamos) y que el número más grande posible es la masa más grande compatible con el modelo estándar, la masa de Planck. Pero para la teoría da lo mismo que el número sea 1 GeV, 100 GeV, 10 TeV, o 1019 GeV (la masa de Planck). He dicho para la teoría, pero no para el experimento.
La existencia del Higgs influye en las demás partículas y esa influencia permite saber más o menos cuál es su masa. Alrededor de 1985 se pensaba que la masa estaba entre 1 GeV (0,001 TeV) y 10.000 GeV (10 TeV), por eso el SSC (Superconducting Super Collider) se diseñó para alcanzar colisiones hasta 40 TeV. En 1995 (tras el descubrimiento del quark top) se pensaba que la masa estaría entre unos 10 GeV y unos 1000 GeV. Por la parte baja, unas decenas de GeV, se pensaba que LEP y luego LEP 2 podrían descubrirlo, pero al final solo descubrieron que la masa es mayor de 114,4 GeV. Por la parte alta, se diseñó el LHC con colisiones hasta 14 TeV para poder explorar hasta los 2000 GeV y se pensaba que el Tevatrón con colisiones de casi 2 TeV podría descubrir el Higgs con una masa hasta unos 200 GeV. No fue así. Resulta que el Higgs tiene una masa alrededor de 120 GeV, la región inalcanzable para LEP2 y la región más difícil para el Tevatrón.
El LHC ha tenido suerte, dentro de la mala suerte que es tener un accidente gravísimo como el de 2009. Funcionando a medio gas, con colisiones a 7 TeV hasta 2011 y a 8 TeV en 2012 puede descubrir un Higgs con una masa alrededor de 120 GeV en poco tiempo (solo unos años). Además, está funcionando a las mil maravillas. Este año, el LHC está explorando el rango de masas entre 110 y 800 GeV. El año pasado explorando entre 100 y 600 GeV observó una señal alrededor de 125 GeV. Si se confirma, conoceremos ese parámetro que nos falta, la masa del bosón Higgs (o de uno de los bosones, pues solo importa que sea el que menos masa tenga, con eso basta para que todo funcione a las mil maravillas).
¿Cuántas colisiones hay que analizar en el LHC para descubrir el Higgs? El número es «fácil» de calcular (un físico teórico joven debería ser capaz de calcularlo tras unas semanas de trabajo hasta segundo orden (de la teoría de perturbaciones), es decir, hasta NLO). Por supuesto, calcular a tercer orden NNLO (u otros cálculos más avanzados, como los NLL) son temas de investigación en la actualidad; para sorpresa de muchos, yo entre ellos, los cálculos NLO y NNLO difieren casi en un 50% cuando se esperaba una diferencia menor del 5%. No es que sea difícil realizar estos cálculos, pero requiere mucho tiempo de ordenador, mucho tiempo, y por tanto se requiere cierta «experiencia» para guiar los cálculos del ordenador y hacerlos en un tiempo razonable.
Cuando se realiza este cálculo (que a NLO está publicado por doquier) lo que se descubre es que aún no hay colisiones suficientes para un descubrimiento (del bosón de Higgs del modelo estándar mínimo). Hay muchos primos del bosón de Higgs para los que sí hay colisiones suficientes y muchos otros para los que nunca habrá colisiones suficientes en el LHC.
¿Qué se dirá el 4 de julio? No lo sé. Pero quien piense que se publicará el descubrimiento definitivo del Higgs debe saber que no puede ser el Higgs del modelo estándar, será uno de sus primos. La estadística nunca miente. Siento decepcionarte, pero no quiero engañarte. El anuncio no será más gordo que el de diciembre de 2011. La razón es muy sencilla, se han analizado un número insuficiente de colisiones para asegurar 100% un descubrimiento. A lo más, se ratificará la señal ya observada, lo que para los físicos es muy importante, pero recuerda mis palabras, desde el CERN en la rueda de prensa dirán que todavía no se puede asegurar al 100% que el Higgs existe.
Hay muchos rumores, pero siendo realistas, 5 sigmas de significación local no es suficiente para que los directores del CERN proclamen un descubrimiento. Ellos son así. No quieren volver a cometer el error de Carlo Rubbia en 1984 (cuando proclamó con un número de colisiones insuficiente que el quark top había sido descubierto con una masa de unos 40 GeV). La significación global es imposible que alcance 5 sigmas, los números no salen (esto es como sumar 2+2, por mucho que quieras no da 22), al menos antes de diciembre de 2012 (y siempre que todo vaya viento en popa y a toda vela en el LHC; crucemos los dedos).
Recuerda que esto es como cuando se supo que la Tierra era «redonda» y se le podía dar la vuelta. Maravilloso. Un gran descubrimiento. Pero hasta que alguien no intentó darle la vuelta no se hicieron descubrimientos de verdad. Aquí pasa lo mismo. Una partícula que parece ser el Higgs es solo eso, un candidato a ser el Higgs. Estudiar su física en detalle requiere una fábrica de Higgs que produzca miles al año (no bastan unos pocos, menos que los dedos que tenemos para contarlos).
Atención, pregunta: ¿Puede una universidad española convertirse en un referente a nivel mundial?
Un amigo me recomendó leer a José Canosa, «Una universidad española de nivel mundial,» FAES, Cuadernos de Pensamiento Político, octubre/diciembre, 2011. Permíteme un breve resumen para incentivar su lectura a todos los interesados en una crítica razonable al Proceso de Bolonia y su efecto sobre la Universidad Española.
«El Proceso de Bolonia ha formulado un modelo de educación superior basado en tres niveles –grado, máster y doctorado–. Este modelo concuerda exactamente con el estadounidense, en el que de los tres títulos equivalentes –Bachelor, Master y Ph.D.– sólo el primero tiene una duración establecida de cuatro años. [Con todo ello] se pretende formular políticas universitarias comunes [a toda la Unión Europea], para lo cual se requieren muchas reuniones, muchos viajes, muchos documentos, mucho dinero: todo inútil. No es posible elevar y homogeneizar la calidad de las universidades por medidas legislativas y políticas. Harvard y Stanford, dos de las cinco mejores universidades del mundo, son muy distintas y han desarrollado su excelencia y tradiciones propias de forma autónoma, sin que ningún Gobierno o instancia política interviniese en dicho desarrollo.»
Podemos comparar a España con Corea, que arrancó desde cero al terminar la guerra (1950-53) y ahora tiene dos universidades (una privada y una pública) entre las 100 mejores del mundo. «Esta evolución extraordinaria fue gracias a la voluntad de cambiar las cosas por parte del Gobierno y de la industria; Corea pasó de ser un país en vías de desarrollo a una de las naciones líderes mundiales en industrias de alta tecnología. Corea se planteó: ¿no son estadounidenses las mejores universidades del mundo? Pues fundemos una o dos universidades siguiendo este modelo. Pidieron ayuda al Gobierno de EE.UU. que envió a Fred Terman (1900-1980), vicepresidente jubilado de Stanford y conocido como el padre de Silicon Valley; Terman evaluó el proyecto del KAIST (Korea Advanced Institute of Science and Technology) e informó al Gobierno coreano de sus recomendaciones: que el Instituto no estuviera bajo el control del Ministerio de Educación, que se abolieran los títulos oficiales (es decir, los títulos son concedidos y refrendados por la universidad y no por el Gobierno) y autogobierno de la universidad con autonomía plena para el nombramiento de profesores y selección de estudiantes. Esto fue lo realmente difícil: tener el coraje y la voluntad política para implementar las recomendaciones de Terman y renunciar al control político y burocrático de la universidad. Los coreanos en los años sesenta, con una sociedad mucho menos desarrollada que la española, tuvieron el coraje de intentar la creación de universidades investigadoras de nivel internacional al margen de su sistema universitario convencional.»
«Las universidades anglosajonas de élite (privadas y públicas) tienen seis características fundamentales: (1) son instituciones sin fines de lucro; (2) tienen plena independencia del poder político; (3) se financian con dinero público y privado; (4) no expiden títulos oficiales; (5) los profesores no son funcionarios y se nombran de acuerdo con normas propias de la universidad; y (6) reclutan a profesores y alumnos con talento sin considerar su origen nacional. Estas seis características tienen una importancia profunda, son condiciones necesarias para que una universidad pueda alcanzar la excelencia mundial.»
«La Junta de Gobierno, órgano ejecutivo único de la universidad, desarrolla e implanta políticas autónomas y flexibles de contratación del profesorado basadas en el mérito. Los nombramientos de profesores permanentes (associate professors o full professors con tenure) se hacen por medio de un proceso riguroso y transparente. La esencia de este proceso es un sistema de control que impide que cualquier departamento o facultad pueda nombrar a un profesor permanente, ya que los nombramientos están sujetos a la aprobación de la Junta de Gobierno, la cual tiene y ejerce un poder de veto inapelable sobre los mismos. En las universidades americanas de élite se exige que los profesores permanentes sean investigadores de nivel internacional. Las necesidades de docencia son cubiertas por los profesores permanentes y por los profesores ayudantes (assistant professors). Estos últimos obtienen un nombramiento tenure track –es decir, con posibilidad de ascenso– por un periodo estipulado de entre tres y cinco años, durante los cuales tienen la oportunidad de demostrar su potencial como investigadores. Si dan el nivel, se les nombra profesor permanente; en caso contrario, su contrato se extingue. Este modelo se conoce como “up or out” (o asciendes en el periodo estipulado o fuera). No se conoce un medio mejor para desarrollar y captar el talento investigador joven.»
«La capacidad de las universidades de atraer profesores de reputación internacional es uno de los indicadores de su calidad. Esta característica no puede existir en países como Alemania, Francia y España, en donde los profesores son funcionarios.» Además, «en las universidades anglosajonas de élite, los alumnos son admitidos por un proceso riguroso de selección basado en el mérito, porque la calidad de los alumnos también es determinante para asegurar la calidad de una universidad. En Harvard y Stanford son admitidos alrededor del 7% de los solicitantes para los estudios de grado (Bachelor). Una vez admitido en Harvard por el sistema de blind admissions (en donde no se considera el nivel económico del solicitante), el estudiante recibe una beca a su medida que depende de la renta familiar. En las universidades públicas europeas (Alemania, Francia, España) todos los alumnos que tengan el título correspondiente de secundaria son admitidos en la universidad más próxima a su domicilio, aunque hay selección según la carrera elegida.»
En opinión de José Canosa, «la solución del problema universitario español empieza por la creación de una universidad pública o privada siguiendo el modelo anglosajón. En el presente, las universidades públicas están reguladas por el Gobierno central en algo tan esencial como es el sistema de nombramiento y promoción del profesorado. Esto, por definición, no puede funcionar. El control político de la Universidad y la investigación españolas mantiene al país en un callejón sin salida. Los estatutos de Harvard o Stanford no aparecen en ningún Boletín Oficial; de hecho Harvard no tiene estatutos, sólo un sistema de gobierno que data de la mitad del siglo XVII y que sigue vigente sin ninguna modificación.»
«Una universidad de élite tiene que gozar de un autogobierno pleno, contar con los mejores profesores y alumnos posibles y tener un nivel de financiación adecuado. El sistema de gobierno de Harvard fue establecido en 1650. Consta de dos organismos, la Junta de Gobierno integrada por el presidente, el tesorero y cinco asociados más (fellows) que se designan The President and Fellows of Harvard College o the Corporation; los cinco fellows no cobran y tienen puestos en otras universidades o en el sector privado. Lo peculiar de este organismo es que se perpetúa a sí mismo; sus miembros son vitalicios y, cuando se produce una vacante (por dimisión –lo normal– o por fallecimiento), ellos mismos nombran al substituto, y así durante 360 años. Todas las decisiones importantes de the Corporation tienen que ser aprobadas por el otro organismo de gobierno, the Board of Overseers (Junta de Control), que consta de 30 miembros elegidos por sufragio de los ex-alumnos para mandatos de duración fija.»
«Una universidad de élite debe tener aproximadamente el mismo número de estudiantes de grado y de posgrado (máster y doctorado), como es el caso, por ejemplo, en el California Institute of Technology (Caltech). Tiene aproximadamente el mismo número de estudiantes que hace 35 años: 967 de grado y 1.208 de posgrado, unos 2.175 en total. El número de profesores es 1.201, es decir, un profesor por cada dos alumnos. El total del personal no docente se eleva a 2.600, por lo que hay 1,7 empleados (docentes y no docentes) por estudiante. Este supremo despliegue de medios ha dado sus frutos: 31 premios Nobel ganados por sus profesores a lo largo de la historia. Caltech es el exponente máximo de que en las universidades los números no hacen la fuerza.»
«El problema al que se enfrenta España en el ámbito universitario es principalmente político y de organización institucional, no es económico. Lo que hay que hacer es adoptar la organización, sistemas de gobierno y valores de las universidades estadounidenses, porque son las mejores del mundo. Es una cuestión de voluntad y coraje políticos, y en menor grado de medios económicos.»
¿Qué opinas al respecto de las ideas de José Canosa? Usa los comentarios si te apetece.
Qué puede haber pasado con el cable de fibra óptica en OPERA
No hay aún un comunicado oficial de carácter técnico sobre los problemas que han sido detectados en el experimento de OPERA para medir la velocidad de los neutrinos muónicos entre el CERN (CNGS) y Gran Sasso (LNGS). A partir del comunicado oficial y de lo que han dicho Antonio Ereditato (portavoz de OPERA) y Caren Hagner (coordinadora del grupo alemán de OPERA) lo único que se puede hacer es conjeturar lo que ha podido pasar. Por lo que parece al mover un cable de fibra óptica se introduce un retraso en el momento en el que se estampa el instante de tiempo en los eventos de los neutrinos, un retraso que podría llegar a ser tan alto como 100 ns. Eric Shumard nos ofrece una posible conjetura en un comentario en el blog de Matt Strassler, que aclara en un segundo comentario. Permíteme traducir de forma libre dichos comentarios, aunque quiero dejar muy claro que son conjeturas y que puede que no tengan nada que ver con la verdad. Hasta que no haya comunicación oficial (si la hay) todo lo escrito en esta entrada podría ser mentira.
Shumard cree que se utiliza un fotodiodo que detecta los pulsos que se reciben a través del cable de fibra óptica, cuando la señal del fotodiodo supera cierto umbral la electrónica activa la estampación del instante de tiempo asociado al evento. Si el cable no está perfectamente alineado con el fotodiodo, el ángulo del cable afectará al instante en el que se supera el umbral, introduciendo un retraso. Como la información sobre el instante de tiempo se codifica en 80 bits que han de ser transmitidos en una ventana de tiempo de 1 ms, Shumard cree que es razonable pensar que se utilizan pulsos con una pendiente (o un borde) bastante suave, lo que acentuaría el efecto y permitiría entender por qué desalinear el cable de fibra y el fotodiodo puede introducir un retraso tan alto como 100 ns.
Un convertidor optoelectrónico digital está diseñado para dar una salida en binario (dos tensiones que representan un cero o un uno) cuando la luz entrante es mayor que cierto umbral. Según Shumard, el instante en el que se recibe la señal del GPS se determina integrando la señal óptica que pasa de un valor cero a un valor uno, es decir, en el borde de subida de un pulso óptico. La primera sección del convertidor optoelectrónico estará formada por un fotodiodo más un amplificador. Supongamos que el umbral de aceptación de esta primera sección es de 1000 fotones/ns. Si la señal óptica entrante se inicia en el instante t=0 con 0 fotones/ns y luego aumenta linealmente hasta 100000 fotones/ns en un intervalo de tiempo de 100 ns (la pendiente es de 1000 fotones/ns por ns), el convertidor detectará la señal supera el umbral a partir de T=1 ns. Si la señal óptica es atenuada en un factor de 10, entonces la pendiente de la señal óptica entrante será de solo 100 fotones/ns por ns y el convertidor detectará que la señal ha pasado el umbral después de T=10 ns.
Esta explicación parece razonable, pero, repito, es una conjetura concebida por alguien que está fuera de la colaboración OPERA y puede ser completamente errónea, aunque a mí me parezca razonable. Hasta que no haya un comunicado oficial de carácter técnico no podemos decir más al respecto.
La gran cuestión que cualquiera se plantea al leer una explicación de este tipo es la siguiente (Matt Strassler también se la plantea en esta entrada). Se tomaron medidas de los neutrinos en 2009, 2010 y 2011, ¿ha estado el cable en la misma posición durante 3 años? ¿Por qué las medidas de los 3 años son, más o menos, consistentes entre sí en cuanto al retraso de unos 60 ns en la llegada de los neutrinos? ¿No se puede reconstruir el efecto del cable a partir de los datos ya obtenidos? Esta figura está extraída del artículo en ArXiv de OPERA (he añadido la línea roja donde se esperaba que llegaran los neutrinos); como cualquier resumen estadístico de una serie de datos muestra una verdad sesgada, pero oculta muchas otras. Mirando el año 2009 en esta figura da la sensación de que la calibración del sistema de tiempos que hizo a principios de 2010 era muy necesaria. Los datos de 2010 parecen sesgados hacia abajo, o los de 2011 sesgados hacia arriba. En cualquier caso, como bien dice Strassler, se diría que o bien el cable no se movió mucho durante la ejecución del experimento, o bien no es la causa principal del resultado obtenido por OPERA. Solo lo sabremos en mayo; como muy bien ilustra la figura de abajo diseñada por M. Strassler, ahora mismo el resultado del experimento OPERA es solo un interrogante. En mayo o junio, cuando se publiquen las nuevas medidas, quizás salgamos de dudas.
El hombre es el único animal que tropieza dos veces con la misma piedra
La semana pasada se detectó yodo-131 de Fukushima en Ucrania, cerca de la planta nuclear de Chernóbil, donde ocurrió el peor desastre nuclear civil del mundo. Una prueba incorrecta de la seguridad de la planta provocó una enorme explosión que extendió material radioactivo por toda Europa. ¿Qué consecuencias tiene sobre la población las emisiones radiactivas de baja intensidad como las del reactor de Fukushima? ¿Qué consecuencias tuvieron las del desastre de Chernóbil? Las consecuencias a largo plazo de la exposición a bajos niveles de radiactividad aún no son conocidas con detalle. Los reactores nucleares de Fukushima han liberado cantidades significativas de radioisótopos y algunos trabajadores se han enfrentado a exposiciones severas de radiación en su intento de enfriar el combustible nuclear de la planta. Como nos recuerda el editor principal de Nature en «Lessons from the past,» Nature 471: 547, 31 March 2011, todavía no hemos aprendido todo lo que se debería haber aprendido sobre las consecuencias de Chernóbil. Todos los países pronucleares del mundo deberían tomarse muy en serio la labor de financiación de este tipo de estudios en aras a lavar la cara a la industria nuclear. Los interesados en más información disfrutarán con Mark Peplow, «Chernobyl’s legacy. Twenty-five years after the nuclear disaster, the clean-up grinds on and health studies are faltering. Are there lessons for Japan?,» News Feature, Nature 471: 562-565, 29 March 2011. Más información sobre Fukushima en Declan Butler, «Radioactivity spreads in Japan. Fallout is localized, but could persist for years in some regions,» News, Nature 471: 555-556, 29 March 2011 (fuente de la última imagen de esta entrada).
Las consecuencias de Chernóbil fueron de amplio alcance, incluso contribuyeron a la caída de la Unión Soviética. Miles de niños desarrollaron cáncer de tiroides después de beber leche contaminada. Miles de millones de dólares de las economías de Ucrania y Bielorrusia fueron invertidos en atención sanitaria a los afectados por la radiación. Recuperarse de un desastre nuclear es una tarea de varias generaciones. Harán falta muchas décadas para que Chernóbil se convierta en sólo un recuerdo lejano.
El gran problema de la recuperación de los alrededores de Chernóbil ha sido su alto coste para Ucrania que se queja de la falta de financiación por parte de otros países. El reactor número 4 todavía se encuentra debajo de un sarcófago de hormigón que fue levantado de forma frenética pocos meses después del accidente. Los trabajos de mantenimiento lo mantienen seguro, por ahora, pero las paredes presentan manchas de óxido y el techo está en mal estado; a los amantes de las cifras hay que informarles que al lado del sarcófago del reactor los niveles de radiación son a fecha de 2011 de unos 5 μSv/h, lo que significa que en 10 minutos de exposición se recibe la misma dósis que al tomar una radiografía de rayos X de un brazo. Los ingenieros quieren construir un arco de confinamiento seguro que les permita desmantelar el reactor pero su costo estimado es muy alto, unos 1400 millones de dólares americanos; hay que construir una estructura en forma de arco con 105 metros de altura y 257 metros de largo. El Fondo de Protección de Chernóbil, gestionado por el Banco Europeo de Reconstrucción y Desarrollo, hasta el momento ha recabado unos 800 millones de dólares gracias a las donaciones de 30 países. Esta falta de financiación ha retrasado el inicio del proyecto durante años y se cree que no podrán emprenderse las labores necesarias hasta el año 2015, como pronto. Ucrania necesita más dinero de la comunidad internacional. Quizás la catástrofe Fukushima fomente que este dinero fluya hacia Ucrania. Los accidentes nucleares tienen repercusiones mundiales, y aunque el interés de todo el mundo es impulsar una energía nuclear segura, también debemos ser conscientes que hay que asumir sus riesgos y que se deben manejar de manera adecuada su legado perjudicial cuando las cosas van mal.
Hoy en día se están construyendo nuevas centrales nucleares en más de una docena de países. China es el país que acapara casi la mitad de los 65 reactores actualmente en construcción. De hecho, existe un interés creciente en esta tecnología en los países en vías de desarrollo. Pero no hay que olvidar que todas las naciones del mundo deben invertir en órganos como el Organismo Internacional para la Energía Atómica que garanticen que tanto los viejos como los nuevos reactores sean suficientemente seguros y que estén preparados para lo peor. Además, los gobiernos y la industria nuclear deben mejorar su relación con el público general, cada día más escéptico, ofreciendo información abierta y transparente sobre los costos reales de la seguridad de esta industria.
Hoy en día es muy difícil precisar los sutiles efectos sobre la salud de una exposición de bajo nivel a la radiactividad, como el incremento del riesgo de enfermedades cardiovasculares, cáncer de mama y otras enfermedades. Hay que financiar estudios de un gran número de personas expuestas a dosis muy bajas de radiación (Chernóbil y Fukushima son una gran oportunidad para hacerlo) que permitan responder a las preguntas que plantea el futuro de la energía nuclear. ¿Son seguros los niveles de radiación tan bajos a los que estamos expuestos debido a la radiactividad que ha escapado de Fukushima? La mejor respuesta actual es «probablemente.» Pero a todo nos gustaría conocer con seguridad la respuesta. Todavía no hemos aprendido de Chernóbil todo lo que se podía haber aprendido. El editor de Nature opina que le gustaría que no tuvieran que pasar otros 25 años para que se financie adecuadamente la investigación que permita obtener la respuesta.
La diferencia entre las «verdades científicas» y las «afirmaciones ecologistas»
Extractos del Discurso de Gerardo Pardo Sánchez, «Contaminación Electromagnética,» E.T.S.I. Industriales, Universidad de Málaga, 17 marzo 2011. Mi selección de estos extractos puede cambiar el sentido de las palabras originales y del discurso del Dr. Pardo Sánchez. Cualquier crítica a esta entrada debe ser dirigida a mí y no al Dr. Pardo Sánchez, cuyo discurso hemos disfrutado todos los asistentes.
«Las verdades científicas conllevan un pequeño nivel de riesgo experimental (ignorancia), mientras que las afirmaciones ecologistas enfrentadas se presentan como indiscutibles. La ciencia avanza mediante la investigación, que siempre conlleva cierto grado de incertidumbre experimental. Hay que asignar un cierto grado de probabilidad a los resultados, nivel de confianza o de incertidumbre, nivel de riesgo. La forma científica de entender una cuestión es relacionar directamente verdad y probabilidad. El público está expuesto a niveles de radiación tan bajos que no se han detectado efectos directos. Este tipo de situaciones (la ausencia de efectos directos), aunque parezca contradictorio, es el clima ideal para la controversia pública. Sorprende que sea normal que se discuta «sobre lo que se sabe y sobre lo que se ignora,» cuando los resultados científicos deberían admitirse sin más y los que no lo son, ignorarse. Cuando se trata de exposiciones a niveles de intensidad muy bajos, la ciencia no puede asegurar la ausencia de daño. Para la ciencia no existen normas de riesgo cero. Siempre hay una probabilidad despreciable de que un suceso ocurra.
Las investigaciones sobre los efectos biológicos de la radiación a niveles muy bajos resultan de experiencias erróneas y son efectos gato (el gato es un animal sigiloso que aparece y desaparece de la escena, sin dejar rastro). Estos resultados de estudios epidemiológicos y de investigaciones biomédicas no se pueden confirmar por otros científicos. Hay muchos ejemplos que ilustran que probar la presencia de efectos a dosis bajas es difícil, pero todavía lo es más demostrar la ausencia de peligro, siendo imposible probar el riesgo cero, es decir, la ausencia de riesgos. En las ciencias de la salud las pruebas concluyentes son difíciles. Ni siquiera es fácil determinar las dosis umbrales o límites. La clave de un plan de experiencias es la reproducibilidad de los resultados. La ausencia de esta última garantía es la causa común de las controversias.
Las normas internacionales son el instrumento, o fórmula social, que equilibra los beneficios del uso de la tecnología con los costes medioambientales que ese uso conlleva. Para el ingeniero es esencial saber el riesgo potencial del uso de cualquier tecnología. Este riesgo debe ser del mismo orden de valor que los ya aceptados en otras situaciones. El ingeniero sabe bien que menor riesgo implica un mayor coste y un riesgo próximo a cero equivale a un coste próximo a infinito. En fin lo ético y razonable debe ser mantener unos niveles de riesgo que estén dentro del intervalo de aceptación de una sociedad sostenible que, por principios, respeta el presente y tiene en cuenta el futuro de la humanidad.
El sentido común del buen Ingeniero no debe olvidar comparar la radiación de origen antropogénico con la de origen natural, los campos ambientales. Vivimos rodeados de radiación. Ingenieros, recordad que en todas las situaciones contaminantes se deben establecer límites cada vez más precisos que legitimen vuestras actuaciones. Se trata de dosis para las cuales el riesgo para el público o para el trabajo no es serio y siempre del mismo nivel o inferior al de otras situaciones de riesgo: pasear en bicicleta, atravesar un paso de cebra, ir en coche durante 10 minutos, etc. Las Normas deben considerar los riesgos conocidos e incluir un «factor de seguridad» de forma automática. El problema social y legal reside en las dosis bajas, inferiores a los límites. Los que desconocen que el riesgo cero no existe, muchos grupos ecointransigentes, tampoco tienen en cuenta el carácter limitado de los presupuestos (nacionales, regionales, etc.). Todo ello acaba endeudando a las generaciones futuras. Siempre se debería tener en consideración que algunos gastos con la sana finalidad de evitar contaminaciones presumibles son los que impiden actuaciones necesarias para la población presente y futura.
La abundancia de mitos en relación a los temas de ingeniería ambiental justifica la importancia que tiene en el mundo tecnológico tener ideas precisas sobre los fundamentos científicos de los problemas ambientales. En ingeniería ambiental es esencial funcionar con sentido científico común, que por cierto hoy es muy poco común en la sociedad actual. Las decisiones ambientales (algunas discutibles y superfluas) se financian con impuestos y en ocasiones a expensas de necesidades estructurales imperiosas: educativas, sanitarias, de I+D+i, etc. Es imprescindible la contraposición entre la necesidad de usar dispositivos industriales, médicos y energéticos mejores y el terror social contra estas instalaciones. La mejor defensa contra los mitos y contra el marasmo en el que está sumida la sociedad actual es la formación científica continua.»
«Si de noche lloras por la ausencia del Sol, nunca verás las estrellas.» R. Tagore, poeta hindú.
Simplemente una estupidez…
Mucha gente piensa que el cine en 3D es «simplemente una estupidez» [1]. El séptimo arte es complicidad, una historia que nos entretiene, unas emociones que nos excitan y unas imágenes que nos seducen. «Quien es sincero consigo mismo debe admitir que regresa al cine para seguir maravillándose de lo que ve, para mantener intacta la capacidad de asombro. Uno ve cine por entretenimiento, por simple y llana diversión. […] Aunque todo cinéfilo sabe que 95% del cine que se hace en el mundo es un producto espurio, técnicamente pobre, mal concebido y mal realizado» [2]. El cine 3D todavía no es el sensorama de Aldous Huxley en «Un mundo feliz» en el que los espectadores sienten las sensaciones físicas de los actores en pantalla (sobre todo en películas X) [3]. Pero ha llegado para quedarse. La discusión sobre el cine 3D siempre me recuerda a la maravillosa obra maestra de Victor Fleming «Lo que el viento se llevó» (1939).
«Lo que el viento se llevó» fue una de las primeras películas realizadas en color con (casi) la primera técnica de color de la historia, el Technicolor. Era un procedimiento muy caro y con los años fue substituido por otras técnicas peores pero mucho más baratas (como el Eastmancolor). La pureza de colores del Technicolor era maravillosa, comparable a la que se obtiene en la actualidad. El Technicolor surgió alrededor de 1920, pero no fue conocido por el gran público hasta que Walt Disney lo utilizó a principios de los 1930 (en cortometrajes de animación tan famosos como «Los tres cerditos»). Mucha gente decía en aquella época que el «color» solo servía para películas «infantiles» y que era «simplemente una estupidez…»
Las primeras películas de acción real en Technicolor se rodaron entre 1934 y 1935. Los buenos aficionados al cine afirmaban que el color no aportaba nada a una película y que solo servía para encarecer el precio de la entrada. Solo era recomendable para producciones infantiles como «El Mago de Oz» (1939), dirigida por Victor Fleming, que tuvo gran éxito. Los directores de cine serio debían basar sus películas en la la trama y en las actuaciones… el color era «simplemente una estupidez…»
Todo cambió con la película más cara y más larga de la historia (hasta aquel año). Una de las mejores películas de la historia. «Lo que el viento se llevó» se estrenó en diciembre 1939. El color tiene una importancia capital en esta película. El color de cada vestido, de cada detalle del escenario, fue elegido con absoluta precisión para adecuarse a la trama. Los colores van cambiando conforme las escenas así lo demandan. Para Victor Fleming el color era una herramienta más en la película, igual que lo eran la trama, los actores, el escenario… El público en las salas se quedó alucinado. Era la primera película de la historia que utilizaba el color «de verdad» como parte íntegra, indisoluble de la película. ¿Recuerdas alguna escena de «Lo que el viento se llevó»? ¿Te la puedes imaginar en blanco y negro? Es imposible. Imposible. «Lo que el viento se llevó» demostró que el color no era «simplemente una estupidez…»
En los premios Oscar de 1939, «Lo que el viento se llevó» arrasó con 10 estatuillas (tenía 13 nominaciones). Fue la primera ocasión en la que el Óscar a la Mejor Fotografía se separó en dos categorías «Blanco y negro» y «Color» (en 1967 se unificaron de nuevo). El color fue poco utilizado durante los 1940. Sobre todo por la guerra, porque era caro y porque la mayoría de los directores no sabían explotarlo. Pero durante los 1950 el color se convirtió en algo necesario y obligatorio. Solo los directores de películas de autor siguieron usando el blanco y negro. Pocos de los que usaron el color llegaron a ser maestros en el uso del color. Pero hay muchas películas que tenemos grabadas en nuestra memoria en color. En las que el color es fundamental. Imprescindible. Sin el color serían otra película diferente. Durante los 1960 la diferencia más importante entre el cine y la televisión era que el cine era en color. Los que veían «Lo que el viento se llevó» en la televisión sabían que no estaban viendo «Lo que el viento se llevó» faltaba algo muy importante, el color. Sabían que el color no era «simplemente una estupidez…»
¿Qué pasará con el 3D? En mi opinión todavía no hay directores y profesionales del cine que sepan usar el 3D como debe ser usado, que exploten todo lo que puede ofrecer. Yo vi «Avatar» (2009) de James Cameron en 3D (la película más cara de la historia y la película de mayor recaudación). Volví a verla en el cine, por razones que no vienen al caso, en 2D. También la he visto en vídeo en casa (en 2D). En mi opinión, en la película «Avatar» el 3D está «forzado» y la película cambia muy poco si la ves en 2D. La trama argumental es sencilla y la película es previsible. Los efectos especiales en «Avatar» son muy espectaculares pero, en mi opinión, el 3D no es parte íntegra de la película, indisoluble a ella. Algún día veremos en el cine una película que vista en 2D ya no sea la misma película. Una película en la que cada detalle, cada minucia en 3D esté perfectamente elegida para la trama y las actuaciones de los actores. Una película en 3D cuyo impacto en el cine 3D iguale al impacto de «Lo que el viento se llevó» en el cine a color. Así lo creo. Aunque quizás me equivoque, porque el «3D es simplemente una estupidez…»
[1] Yo odio el cine en 3-D…,» Manuel moore’s Blog, Julio 28, 2010.
[2] Gabriel Trujillo Muñoz, Cine eres y en cine te convertirás,» Estudios sobre las culturas contemporáneas, 2: 125-136, 1996.
[3] Aldous Huxley en Un mundo feliz» (1932).
René Rutten, del Gran Telescopio de Canarias, «mete la pata» opinando sobre la tecnología española en Nature
Debe estar sacado fuera de contexto, pero las palabras en Nature, hoy, de René Rutten, jefe de operaciones astronómicas del Gran Telescopio de Canarias (GTC) pueden doler a muchos. Como Francisco Sánchez, director del Instituto Astrofísico de Canarias (IAC) proyectó el GTC en 1998 para que estuviera listo en 2003 y se ha inaugurado en 2009, afirma René que «cuando un reparador de bicicletas anuncia que va a construir un Porsche, lo natural es que no te lo creas» (“When a bicycle repair man announces he’s going to build a Porsche, you’re naturally unconvinced”). ¿Por qué? Porque la experiencia española en la construcción de telescopios no iba más allá de construir uno con un espejo de 80 cm. En su descargo, René también afirma que «sin embargo, ahora creo que superará en calidad a los telescopios Keck, gracias a una mejor estabilidad y una mejor óptica» (“However, I now believe it will surpass the quality of the Keck telescopes, thanks to better stability and better optics”). La fuente es Govert Schilling, «Spain unveils its eye on the sky. World’s largest optical telescope inaugurated,» Nature, 460: 674, Published online 3 August 2009.
No sé a vosotros, a mí me duelen este tipo de comentarios por parte de investigadores extranjeros contratados por instituciones españolas para ocupar altos cargos y que tendrán buenos sueldos.
Más aún cuando el propio Sánchez acaba con una puntilla «mi mayor preocupación es lo rápido que podremos dotar (al GTC) de la mejor instrumentación posible» (“My main worry is to quickly provide the best possible instrumentation”). La friolera de 105 millones de euros, un 90% contribución española, y le preocupa al «jefe» si tendrá los mejores instrumentos posibles.
¡Pero qué le pasa a estos señores!
Acaba el artículo de Schilling sugiriendo que la mayor preocupación de Sánchez es que el Telescopio Europeo Extremadamente Grande (European Extremely Large Telescope, E-ELT), de 42 metros, acabe siendo construido en el Observatorio Roque de los Muchachos (“It’s only natural to host the E-ELT here”).
No sé qué pensar, o los británicos de Nature nos quieren poco, o nosotros mismos nos queremos poco.