Recordar es fácil para los viejos, olvidar es fácil para los jóvenes. A principios de los 1990 se pensaba que había una plétora de partículas supersimétricas con una masa inferior a la masa del bosón Z que resolvían de forma natural el problema de la jerarquía. Gracias a LEP sabemos que no es así. A principios de los 2010 muchos físicos pensaron que esas partículas tenían una masa al alcance del LHC, pero las colisiones a 8 TeV c.m. del año 2012 nos han mostrado que no es así. Sólo los más optimistas esperan una plétora de partículas supersimétricas al alcance del LHC con colisiones a 14 TeV c.m. aunque aún no tengamos ningún indicio. Los más realistas pensamos que a lo sumo cabe esperar una o dos partículas nuevas. ¿Por qué la supersimetría tiene que resolver el problema de la jerarquía? ¿No es más razonable que resuelva el problema de la inestabilidad del vacío del campo de Higgs? En dicho caso no podemos esperar que la escala de la supersimetría sea muy inferior a diez millones de TeV, un millón de veces más energía que la que se podrá alcanzar con el LHC. Nos lo cuenta, como no, Luis Ibáñez (Instituto de Física Teórica UAM-CSIC, Madrid), «The Scale of SUSY Breaking, the Higgs Mass and String Theory,» SUSY 2013, ICTP, Trieste, Aug 28, 2013 [slides pdf]. Algunas de las figuras de esta entrada están extraídas de Savas Dimopoulos (Stanford University), «States of BSM Theorists after LHC 8,» SUSY 2013, ICTP, Trieste, Aug 28, 2013 [slides pdf].
Archivo por meses: agosto 2013
Superconductores cuya temperatura crítica es insensible a la densidad de portadores
El secreto de los superconductores de alta temperatura es uno de los problemas más importantes de la física teórica actual. Cada año se descubren nuevas e inesperadas propiedades de los cupratos y pnicturos. Se publica en Nature que hay cupratos cuya temperatura de transición Tc es insensible a la densidad de portadores. Se ha estudiado una estructura bicapa formada por una película de un cuprato aislante, La2CuO4, y otra de uno metálico, La2-xSrxCuO4, en la que se ha variado el porcentaje de dopado x entre 0,15 y 0,47; la sorpresa para los autores del estudio es la temperatura crítica Tc no cambia (aunque otras propiedades como la resistencia Hall cambian en un orden de magnitud). Nadie tiene una explicación a algo tan exótico e inesperado, que además pone en problemas varias teorías prometedoras para explicar los superconductores de alta temperatura. Lo apasionante de este campo es que conforme crece el número de experimentos, el número de incógnitas a resolver también crece. Sin lugar a dudas quien idee una teoría que explique el comportamiento superconductor de cupratos y pnicturos observado en los experimentos merecerá un Premio Nobel inmediato, pues habrá logrado explicar muchas más cosas que la mayoría de los laureados con este premio; aunque quizás no haya una única teoría, sino una red compleja de diversas teorías que explican la superconductivdad a alta temperatura en diversos materiales y en diversas circunstancias. El artículo técnico con el nuevo descubrimiento es J. Wu et al., «Anomalous independence of interface superconductivity from carrier density,» Nature Materials, Published online 04 August 2013.
Por qué Sgr A* acreta materia de forma tan ineficiente
Sgr A*, el agujero negro supermasivo en el centro de la Vía Láctea, ha sido observado por el telescopio espacial Chandra de rayos X. Hay una fuente puntual rodeada por una región de 2″ (segundos de arco) con estrellas muy débiles y nubes de gas. El 99% de este gas no alcanza el horizonte de sucesos de Sgr A*, porque el flujo de entrada es casi equilibrado por un flujo de salida, impidiendo que la materia capturada en esta región llegue a acercarse al horizonte. Por ello el brillo de Sgr A* en rayos X es un millón de veces menor del esperado (pues su tasa de acreción debería ser de 10-5 masas solares por año). Que la materia cercana a Sgr A* sea eyectada es una predicción de los modelos teóricos RIAF (por Radiatively Inefficient Accretion Flows) para agujeros negros que acretan materia de forma muy ineficiente. En los próximos meses una gran nube de gas colisionará con Sgr A* y debería provocar un incremento de su luminosidad en un factor de un millón confirmando estos modelos teóricos. Habrá que estar al tanto. Nos lo cuenta Jeremy D. Schnittman, «The Curious Behavior of the Milky Way’s Central Black Hole,» Science 341: 964-965, 30 Aug 2013, que se hace eco de Q. D. Wang et al., «Dissecting X-ray–Emitting Gas Around the Center of Our Galaxy,» Science 341: 981-983, 30 Aug 2013.
Diferentes teorías sobre qué son el espacio y el tiempo
Zeeya Merali ha entrevistado al físico Mark Van Raamsdonk (Univ. Columbia Británica en Vancouver, Canadá), uno de los padres de la idea ER=EPR, sobre qué es el espaciotiempo. Su respuesta es sencilla: «pura información codificada en un holograma» cual una película de ciencia ficción como Matrix. El «principio holográfico» puede parecer extraño, pero según Van Raamsdonk es fundamental para entender la relación entre la relatividad general, que explica cómo la gravedad es resultado de la curvatura del espaciotiempo, y la mecánica cuántica, que gobierna el mundo subatómico. Recomiendo la lectura de Zeeya Merali, «Theoretical physics: The origins of space and time,» Nature 500: 516–519, 29 Aug 2013. Me permito un traducción libre en forma de resumen para quienes no tengan acceso a este interesante artículo.
Descubierta una red de autocitas entre cuatro revistas brasileñas
Cuatro revistas brasileñas han perdido su índice de impacto en el último Journal of Citation Reports JCR 2012 de Thomson-Reuters y han sido puestas en cuarentena. Mauricio Rocha-e-Silva pensó que había descubierto la gallina de los índices de impacto. Desde 2009, junto a otros tres editores de revistas han estado publicando artículos que contienen cientos de citas a artículos de las revistas de los demás, cuyo único objetivo es incrementar su factor de impacto. Los algoritmos de análisis de autocitas de Thomson Reuters fueron engañados hasta el 19 de junio de 2013, el día que alguien descubrió la trampa. Con los nuevos algoritmos de análisis de autocitas se evitará que esto vuelva a ocurrir en el futuro. Por supuesto, Rocha-e-Silva, médico ya jubilado, ya no es editor de su revista, con sede en São Paulo (ha sido despedido por la editorial); sin embargo, los otros tres editores siguen en su puesto. Nos lo cuenta Richard Van Noorden, «Brazilian citation scheme outed. Thomson Reuters suspends journals from its rankings for ‘citation stacking’,» News, Nature 500: 510–511, 29 Aug 2013.
El campo de Higgs, el inflatón, la energía oscura y los monopolos magnéticos
Para algunos el descubrimiento del bosón de Higgs ha sido un jarro de agua fría, para otros una diversión sin límite. Como es una partícula escalar (de espín cero) y se han propuesto campos escalares como solución a muchos de los problemas actuales (energía oscura, materia oscura, etc.), extender la física del campo de Higgs para que se comporte en cierto régimen como uno de esos campos es fácil y además se publica fácil en muchas revistas. Por ello, muchos medios publican noticias que afirman que el bosón de Higgs puede explicar la energía oscura, la materia oscura, la inflación cósmica, etc. Hay que tener cuidado con estas noticias. El bosón de Higgs está hasta en la sopa, pero se trata de ideas especulativas que extienden la física del campo de Higgs más allá de lo que está demostrado y los autores de estos trabajos no estudian todas las consecuencias de sus teorías, por lo que en muchos casos contradicen la física conocida (al centrarse en explicar cierto fenómeno, olvidan que su idea tiene consecuencias en otros fenómenos en apariencia alejados). Permíteme poner unos ejemplos de actualidad. Sigue leyendo
Por qué el ordenador «cuántico» D-Wave Two no es cuántico
Lo he dicho en varias ocasiones en este blog, pero conviene repetirlo. Un ordenador montado a base de conectar 512 cubits (bits cuánticos) superconductores no es un ordenador cuántico. Para serlo además debe demostrar que durante su operación estos cubits están entrelazados entre sí; si no lo están, estos cubits se comportan como bits probabilísticos y es un ordenador clásico no determinista sin paralelismo cuántico. La compañía canadiense D-Wave no ha demostrado que su ordenador D-Wave Two con 512 cubits sea un ordenador cuántico, por tanto es un ordenador clásico no determinista. Esta hipótesis queda confirmada al analizar con ojos críticos los resultados de D-Wave Two que han sido publicados por la propia compañía. Más aún, ni siquiera es un ordenador de propósito general, capaz de ejecutar un algoritmo no determinista arbitrario; se trata de un ordenador de propósito específico que ejecuta un único algoritmo, el recocido cuántico, la versión con cubits del recocido simulado (simulated annealing). Esta entrada viene a colación por el artículo de Jesse Dunietz, «Quantum Computing Disentangled: A Look behind the D-Wave Buzz,» Scientific American, Aug 27, 2013.
El consumo de chocolate y el número de premios Nobel en un país
En octubre de 2012 fue noticia un artículo en la prestigiosa revista New England Journal of Medicine que relacionó el consumo anual per capita de chocolate en un país con el número de ganadores de un Premio Nobel. Como es obvio, este resultado no implica que haya una relación de causalidad entre tomar chocolate y recibir un Nobel, aunque haya estudios que prueban que el consumo de chocolate mejora las funciones cognitivas. La revista Nature ha consultado a 23 laureados con el Nobel y les ha preguntado su opinión. Todos opinan que no tiene nada que ver. Sin embargo, el 43% toma chocolate al menos dos veces a la semana, mientras que sólo lo hace el 25% de los 237 científicos sin Nobel consultados. Nos lo contó Beatrice A. Golomb, «Lab life: Chocolate habits of Nobel prizewinners,» Nature 499: 409, 25 Jul 2013; en español pudiste leer el año pasado Muy Interesante, BBC Mundo, El Mundo Salud, ABC Salud, etc.
Naturalidad y nueva física más allá del modelo estándar
En física, cuando los experimentos no marcan la pauta, hay ideas y gurús que marcan el camino. La última década ha estado dominada por la idea de la naturalidad, cuyo gran gurú es Nima Arkani-Hamed. Esta idea afirma que la solución «natural» a varios problemas del modelo estándar es la existencia de nueva física en la escala de energía de los TeV (entre 100 GeV y 1000 GeV), la escala que explorará en detalle el LHC del CERN. Natural significa que no se requiere un ajuste fino de los parámetros. Si la idea de la naturalidad es correcta, la nueva física más allá del modelo estándar está a la vuelta de la esquina (supersimetría, dimensiones extra y demás física exótica). El LHC entre 2010 y 2012 no ha encontrado nueva física. ¿Significa eso que la naturalidad es una idea errónea? Quizás no, pues también es «natural» que la nueva física esté entre 1 TeV y 10 TeV, o incluso más allá; por qué es «natural» un parámetro del orden de la unidad, pero lo es menos uno que sea del orden de una décima o de una milésima. Nos lo recuerda Raman Sundrum, uno de los organizadores del workshop SEARCH (Susy, Exotics And Reaction to Confronting Higgs) [slides, video]. Más charlas en la web del SEARCH workshop. Un buen resumen en Matt Strassler, «SEARCH day 1,» Aug 21, 2013, «SEARCH Day 2,» Aug 22, 2013, y «Final Day of SEARCH 2013,» Aug 23, 2013.
Qué significa nueva física más allá del modelo estándar
El modelo estándar (SM) nació en 1973 con dos generaciones de fermiones (SM2), la segunda aún incompleta (el quark charm se descubrió en 1974). La tercera generación de partículas (SM3) fue física más allá del modelo estándar, en su momento (el quark botttom y el leptón tau se descubrieron en 1977, el quark top en 1995 y el neutrino tau en 2000), pero hoy en día se asume que el modelo estándar tiene tres generaciones. ¿Será nueva física más allá del modelo estándar el descubrimiento de una cuarta generación de fermiones? En mi opinión, el modelo SM4 será llamado así durante pocos años y acabará volviendo a ser llamado SM, a secas.