Publicado en Science: Un estudio neurocientífico analiza cómo la interacción social moldea nuestros propios recuerdos

 

De mi infancia temprana solo recuerdo algunos hechos puntuales. No sé si los he vivido o me los han contado. Junto a estos recuerdos y sensaciones también recuerdo a alguien en mi infancia tardía que me relató estos hechos como si yo los hubiera vivido y me surge la duda. Mi mujer se sorprende porque no sé si mis recuerdos tempranos son vividos o contados. Un nuevo artículo en Science aclara que no soy el único “raro” de la fiesta. Los recuerdos son sociales y pueden cambiar cuando un individuo se expone a los recuerdos de los demás. Así lo ratifican los experimentos de Edelson et al. que muestran que la actividad de dos regiones involucradas en la memoria de un individuo, el hipocampo y la amígdala, pueden variar en función de su interacción con los demás. Los contadores de historias las embellecen con objeto de reflejar mejor los intereses de su audiencia y se permiten licencias poéticas que distorsionan los hechos. Los psicólogos cognitivos le llaman “contagio” a este proceso social que altera la memoria de los oyentes. Lo que puede ser negativo en las declaraciones de testigos en tribunales de justicia tiene un papel positivo en nuestras relaciones sociales que no podemos desdeñar. Nos lo ha contado Henry L. Roediger III, Kathleen B. McDermott, “Neuroscience: Remember When?,” Perspective, Science 333: 47-48, 1 July 2011, que se hace eco del artículo técnico de Micah Edelson, Tali Sharot, Raymond J. Dolan, Yadin Dudai, “Following the Crowd: Brain Substrates of Long-Term Memory Conformity,” Science 333: 108-111, 1 July 2011.

La resonancia magnética funcional permite registrar la actividad cerebral de una persona mientras es sometida a un test psicológico. Edelson et al. la han usado para estudiar a 30 adultos en un experimento en el que, tras ver una película de tipo documental, se pusieron a prueba sus recuerdos del documental durante 2 semanas. Los investigadores trataron de inducir errores en la memoria de algunas personas diciéndoles lo que los demás recordaban sobre el documental, pero en realidad falsearon estos “recuerdos” colectivos de forma aleatoria e intencional. Sus resultados muestran vías neurales separadas para los errores “transitorios” de memoria (que reflejan la conformidad social) y los errores “persistentes” de memoria (que reflejan lo que se recuerda de verdad). En concreto, la activación neural del hipocampo es mayor para los errores de memoria persistentes que para los transitorios. También han sido capaces de distinguir entre los errores en los recuerdos debidos a la influencia social (los expuestos por otras personas) y los otros (los debidos a las respuestas a un cuestionario hecho mediante ordenador), los primeros presentan una mayor activación de la amígdala.

Estos resultados son sorprendentes, aunque todavía no se entienden sus causas de forma completa. Investigaciones futuras serán necesarias para clarificar la situación, aunque la hipótesis de Edelson et al. es que actúa un proceso llamado inhibición social que moldea los recuerdos propios en función de los relatos de los recuerdos por parte de otras personas. Este proceso neural es un arma de doble filo. Por un lado es beneficioso para cada miembro del grupo social, que si olvida alguna información importante (sobre recursos alimenticios o posibles peligros) puede recuperar dicha memoria gracias a la información de otros miembros del grupo. Por otro lado es perjudicial ya que, al igual que las ilusiones perceptivas, puede generar contradicciones entre recuerdos propios interrelacionados que conduzcan a falsear los recuerdos propios fiables. El estudio científico de la memoria tiene ya más de 125 años, pero el estudio de los aspectos sociales en la memoria está en fase emergente. El artículo de Edelson et al. es un prometedor primer paso en el estudio de las bases neurales de la psicología social de la memoria.

Se publica el primer análisis epidemiológico de las lesiones cerebrales en los cómics de Astérix

Por qué una revista de Springer llamada Acta Neurochirurgica, que tiene un índice de impacto de 1,329 en el JCR 2010, ha publicado un artículo que analiza la epidemiología y los factores de riesgo específicos de las lesiones cerebrales traumáticas en los 34 cómics de Asterix. Parece una broma del editor. Quizás busquen aparecer en prensa o ganar un Ig Nobel con objeto de incrementar su índice de impacto. No sé a tí, pero a mí me ha llamado mucho la atención esta “chorrada” escrita por neurocirujanos alemanes del Departamento de Neurocirugía de la Heinrich-Heine-Universität Düsseldorf; por cierto, la he visto gracias a Bee de Backreaction. El artículo técnico para los fans de Astérix es Marcel A. Kamp, Philipp Slotty, Sevgi Sarikaya-Seiwert, Hans-Jakob Steiger and Daniel Hänggi, “Traumatic brain injuries in illustrated literature: experience from a series of over 700 head injuries in the Asterix comic books,” Acta Neurochirurgica153: 1351-1355, 7 April 2011. No soy el único que se ha hecho eco de este trabajo: Ángel Díaz, “Los benévolos efectos del traumatismo craneal en ‘Asterix’,” Salud, El Mundo, 17 junio 2011; José Manuel López Nicolás, “Astérix…un troll en la neurocirugía científica,” Scientia, 21 junio, 2011. Como nos dice José Manuel: “Al principio creía que se trataba de una broma de un amigo…”

“Estamos en el año 50 antes de Jesucristo. Toda la Galia esta ocupada por los romanos… ¿Toda? ¡No! Una aldea poblada por irreductibles galos resiste todavía y siempre al invasor…”

Estos neurocirujanos alemanes han buceado en los 34 libros de cómics de Astérix buscando cada personaje que sufre un traumatismo craneal y han realizado un exámen neurológico detallado de dicha lesión siguiendo la escala de coma de Glasgow (GCS), que evalúa el nivel de consciencia de los pacientes que sufren un traumatismo. Una lesión leve tiene un valor GCS superior a 12, una moderada un valor entre 9 y 12, y una grave un valor inferior a 9. Han encontrado 704 casos de lesiones en la cabeza; la gran mayoría de las víctimas sufrió repetidas lesiones traumáticas en uno o más libros de historietas. Casi todos los personajes heridos eran hombres (99,1%; 698 hombres y 6 mujeres) y adultos. La lesión cerebral traumática fue causada por fuerza bruta en 696 casos (98,8%). Las lesiones fueron graves (GCS entre 3 y 8) en 390 casos (55,4%), mientras que fue moderada (GCS entre 9 y 12) en 89 casos (12,6%). La pérdida de consciencia fue muy leve (GCS entre 13 y 15) en 225 casos (31,9%)

Entre los 704 casos de lesión cerebral, el grupo más numeroso estaba compuesto por romanos (n = 450, 63,9%); la mayoría eran miembros del ejército imperial romano (n = 414), tanto soldados (n = 365; 88,2%) como suboficiales (n = 49; 11,8%). Entre los ciudadanos galos se identificaron 120 casos de traumatismo craneal y entre los piratas 21 casos. Para el resto de las lesiones en la cabeza las víctimas tenían diversos orígenes socioculturales (belgas, británicos, egipcios, indios, nativoamericanos, normandos, vikingos o suizos). Además, 4 personajes extraterrestres también sufrieron lesión cerebral traumática. El casco fue utilizado como protección en 497 de los 704 casos  (un 70,5%), pero la gran mayoría de los cascos se perdió durante el evento traumático (436/497 casos, 87,7%) y por lo tanto fue ineficaz. La mayoría de los personajes que provocó los traumatismos (n = 588, 83,5%) habían tomado “la poción mágica.” Esta sustancia contiene muérdago y se cree que da fuerza sobrehumana.

En resumen, un curioso estudio que merece a su vez otro estudio. ¿Por qué han aceptado los editores de esta revista un artículo de este calado? Se aceptan sugerencias en los comentarios.

Publicado en Nature: Cómo se defiende el virus del SIDA de las proteínas que luchan contra él dentro de las células inmunitarias

 

Una proteína llamada SAMHD1 impide que el virus del SIDA tipo VIH-1 infecte a las células del sistema inmunitario. Sin embargo, el virus VIH-2 sintetiza una proteína vírica llamada Vpx que logra esquivar a la proteína antiviral SAMHD1 permitiendo la infección del virus; el virus VIH-1 no es capaz de sintetizar Vpx. La proteína Vpx logra que se degrade SAMHD1 gracias a su acoplamiento al complejo protéico CUL4–DDB1–DCAF1, que logra producir una ubiquitina, molécula marcadora que se une a las proteínas que deben ser destruidas dentro de la célula para inducir su degradación. Más aún, reducir la concentración de SAMHD1 en la célula facilita que sea infectada por el VIH-1. Estos resultados indican que SAMHD1 es un factor necesario y suficiente (como diría un matemático) para proteger a ciertas células del sistema inmunitario de la infección por VIH-1 (en concreto las células dendríticas y los macrófagos). Estos descubrimientos se publican en sendos artículos que aparecen en el número de hoy de Nature. La proteína SAMHD1 es el producto de un gen relacionado con el síndrome de Aicardi-Goutieres en seres humanos, un trastorno (encefalopatía) hereditario caracterizado por la autoinmunidad y anormalidades en el cerebro. La biología del virus del SIDA sigue ofreciendo muchas incógnitas, aún así el descubrimiento de Vpx como diana celular permitirá entender mejor la respuesta del sistema inmune ante la infección del virus y quizás en un futuro no muy lejano pueda ser explotada para la fabricación de vacunas contra el VIH. Los artículos técnicos son Nadine Laguette et al., “SAMHD1 is the dendritic- and myeloid-cell-specific HIV-1 restriction factor counteracted by Vpx,” Nature 474: 654–657, 30 June 2011, y Kasia Hrecka et al., “Vpx relieves inhibition of HIV-1 infection of macrophages mediated by the SAMHD1 protein,” Nature 474: 658–661, 30 June 2011. Nos lo han contado Efrem S. Lim & Michael Emerman, “HIV: Going for the watchman,” Nature 474: 587–588, 30 June 2011. Como no soy biólogo no os puedo contar muchos más detalles técnicos sobre este interesante descubrimiento.

Publicado en Nature: Descubierto el cuásar más distante con un corrimiento al rojo de z=7,085

Mortlock et al . publican hoy en Nature el descubrimiento del cuásar más distante observado hasta ahora, con un corrimiento al rojo de 7,085, es decir, que observamos como era este cuásar cuando el universo solo tenía 770 millones años después de la gran explosión (big bang). Este cuásar es un superagujero negro con una masa de unos dos mil millones de veces la del Sol que está rodeado de un enorme disco de acreción. Las estimaciones teóricas indican que la acreción de masa por parte de este agujero negro ocurre a la tasa máxima permitida por las leyes de la física. El descubrimiento de ULAS J112001.48+064124.3 (así se llama el nuevo cuásar) es importante tanto porque permite estudiar uno de los primeros agujeros negro supermasivos, como porque su espectro luminoso tiene características que apuntan a que se está observando este cuásar justo antes del fin de la época de reionización, lo que indica que su estudio nos dará información muy valiosa sobre esta temprana época del universo que precedió a la formación de las primeras galaxias. Nos lo ha contado Chris Willott, “Cosmology: A monster in the early Universe,” Nature 474: 583–584, 30 June 2011 [gratis en ArXiv], haciéndose eco del artículo técnico de Daniel J. Mortlock et al., “A luminous quasar at a redshift of z = 7.085,” Nature 474: 616–619, 30 June 2011 [gratis en ArXiv]. También es interesante leer J.S. Bolton et al., “How neutral is the intergalactic medium surrounding the redshift z = 7.085 quasar ULAS J1120+0641?,” Accepted in Mon. Not. R. Astron. Soc., ArXiv, 1 July 2011.

Todas las galaxias masivas, incluyendo la nuestra, contienen en su centro un agujero negro con una masa mayor de un millón de veces la del Sol. ¿Cómo surgieron estos agujeros negros? Los detalles aún se desconocen. Se cree que en los inicios de la formación de estrellas en el universo la mayoría eran mucho más masivas que las actuales y que muchas explotaron en forma de supernova con una edad muy temprana formando los primeros agujeros negros con masas entre 10 y 100 veces la masa del Sol. Estos agujeros negros interaccionaron entre sí y se fueron fusionando hasta formar agujeros negros aún mayores, que se cree pudieron ser los gérmenes de los primeros cuásares. La escala de tiempo típica para estos procesos de fusión de agujeros negros es muy rápida y se estima que los agujeros negros duplicaban su masa cada 50 millones de años. Por tanto, un cuásar como el observado debe ser el resultado de la fusión de varios miles de estrellas masivas del centro de la galaxia anfitriona. Sin embargo, estas ideas sobre la formación de los primeros cuásares, aunque sugerentes, son todavía una simple hipótesis de trabajo (y hay otras  hipótesis alternativas). La única manera de decidir si esta hipótesis es correcta es mediante la observación detallada de los primeros cuásares.

El nuevo cuásar se ha observado en una época muy interesante del universo. La reionización cósmica es la época en la que el universo sufrió una transición entre un medio intergaláctico neutro a uno ionizado y se cree que ocurrió para desplazamientos al rojo entre 6 y 15; de hecho, las observaciones de otros cuásares y del cósmico de microondas parecen indicar que la mayor parte de la reionización ocurrió en desplazamientos al rojo superiores a 6,4 (menos de 880 millones de años tras la gran explosión). Por ello el nuevo cuásar es ideal para estudiar la fase final de esta interesante época cósmica. El espectro del nuevo cuásar presenta características diferentes a las de otros cuásares con z≈6 que apuntan a que se encuentra en medio de la fase de reionización con un porcentaje cercano al 10% de hidrógeno neutro (aún sin reionizar) en su entorno. Futuras observaciones de este cuásar serán necesarias para investigar en detalle la reionización cósmica, así como el agujero negro y la galaxia en la que reside. Por supuesto, un caso único no permite hacer ciencia en detalle y habrá que esperar que el proyecto United Kingdom Infrared Telescope (UKIRT) Infrared Deep Sky Survey (que se inició en 2005) encuentre nuevos ejemplos de cuásares de alto corrimiento al rojo para estudiar sus propiedades estadísticas con más detalle, así como las de la época de reionización cósmica.

Ya se ha publicado el nuevo JCR 2010 (Journal of Citation Reports Edition 2010)

Hoy se ha publicado el nuevo Journal of Citation Reports correspondiente al año 2010. Este año hay 8005 revistas impactadas cuando en 2009 hubo 7347 y en 2008 solo 6620. España tiene 73 revistas impactadas (en 2009 tuvo 59 y en 2008 solo 37); listado en pdf de las nuevas revistas impactadas. En cuanto a las revistas multidisciplinares de alto impacto, Nature (36,101) vuelve a vencer a Science (31,364), como muestra la figura que abre esta entrada. La revista con mayor índice de impacto de todas, A Cancer Journal for Clinicians (94,262), vuelve a liderar el listado con una ventaja cada día más amplia. Acta Crystallographica Section A continua viviendo de las citas a un solo artículo, aunque el año que viene (JCR 2011) volverán las aguas al río. La figura de abajo muestra estos resultados.

Physical Review Letters sube ligeramente, lo que indica que su política de reducir el número de artículos aceptados y endurecer la revisión por pares todavía no ha dado los efectos deseados (recuerda que PRL agradeció a los autores por enviar menos artículos y a los revisores por aceptar menos artículos). Nature Physics continúa subiendo como muchas otras revistas del NPG (Nature Publishing Group), como Scientific American que ya está en el primer cuartil. Parece que ellos (NPG) sí están haciendo bien las cosas. En los listados de física destaca Reviews of Modern Physics que con 51,695 ha pegado una subida increíble (como muestra la figura de abajo), seguida por Advances in Physics (21,214) que sube pero de forma más moderada.

En óptica, lidera Nature Photonics (26,442) con diferencia respecto a Laser Photonics Review (9,297); Optics Express (3,749) vuelve a estar por delante de Optics Letters (3,316). En Matemática Aplicada, vuelve a liderar SIAM Review (6,580) y ha habido bastantes cambios entre el primer y segundo cuartil (la región en la que yo publico, pero creo que detallarlos aburrirá a la mayoría). Quizás hay que comentar que dos revistas con un factor de impacto alto gracias a la ingeniería del factor de impacto de sus editores, Chaos Solitons & Fractals (ex-editada por El Naschie) e International Journal of Nonlinear Sciences and Numerical Simulation (ex-editada por He) han bajado su índice de impacto al cambiar de editores principales (en mi opinión el nuevo índice de impacto es más realista en primer caso y tiene que seguir bajando en el segundo). Por cierto, yo ya estoy pensando en enviar algún artículo a estas revistas ahora que los editores principales parecen más honestos (científicamente hablando, claro).

PLoS ONE mantiene su posición con un 4,411 (el año pasado tuvo 4,351) en la categoría de Biología y no aparece en ciencias multidisciplinares. Hablando de biología, la revista china con mayor índice de impacto, y que además lo ha obtenido por primera vez en esta edición, es el Journal of Molecular Cell Biology que ha logrado 13,400 siendo la #13 de 177 revistas en la categoría Cell Biology; la segunda revista china por índice de impacto es Cell Research (9,417), también en la misma categoría y en el primer cuartil, puesto #21 (el índice de impacto de esta revista ha crecido mucho en el último lustro). 

Me ha sorprendido que lidere la categoría de matemáticas (Mathematics) la revista Acta Mathematica (4,864 que casi duplica su impacto en 2009, que fue 2,619), por encima del Journal of the American Mathematical Society (3,411) y de Annals of Mathematics (3,179); el Eigenfactor pone a esta revista en su lugar, la #61 de 277, cuando las otras dos logran unos honrosos #15 y #10, resp.

Por cierto, cuidado con el nuevo JCR 2010, algunas revistas cambiarán de o ajustarán su factor de impacto en septiembre, según comunica Thomson Reuters; los cambios se harán durante este verano y serán anunciados justo cuando se produczcan. ¡Increíble, pero cierto! Literalmente “2010 JCR Data Updates: After JCR data are published, there are some journals that require adjustments to the published metrics. The 2010 JCR Web data will be reloaded in September to reflect any necessary updates and to fully incorporate all new data in the category and network metrics. In order to make these important data available with all possible speed, we will include in this notices file a list of the journals that will receive updated metrics when JCR data are reloaded. The list will be updated weekly.”

Supongo que esto último se debe referir a revistas como Nature Communications que aparecen en el listado pero sin índice de impacto; he contado en la cola unas 46 revistas con un índice de impacto vacío; también otras 12 con un índice de impacto 0,000 (algunas con cierto número de citas que indica que dicho número está mal calculado). Espero que los cambios en el factor de impacto afecten solo a estas revistas de la cola, sino más de uno se va a llevar alguna sorpresa.

Hay muchas más cosas que se pueden contar del nuevo ISI JCR 2010, pero supongo que la mayoría son de poco interés para muchos y esta entrada tiene que acabar en algún momento.

Edición 2.5 del Carnaval de Matemáticas: Algunos artículos de matemáticas sobre la obra de Antoni Gaudí

El 25 de junio de 1852 nació Antoni Plàcid Gaudí i Cornet, más conocido como Gaudí. El 25 de junio se inició la Edición 2.5 del Carnaval de Matemáticas, albergada por José Luis Rodríguez Blancas (del Área de Geometría y Topología en la Universidad de Almería) en su blog “Juegos topológicos.” Como no podía ser menos, esta edición conmemora el nacimiento de Gaudí y finalizará el 1 de julio. Obviamente, no podía ser de otra forma, tengo que hablar de Gaudí, la geometría, la topología y las matemáticas de este genial arquitecto. Como ya se ha escrito mucho al respecto y no tengo tiempo de enrollarme mucho, recopilaré un conjunto de artículos (la mayoría de acceso gratuito) para que los interesados puedan profundizar en este interesante tema.

“Soy geómetra, es decir, sintético.” Gaudí.

Tenemos que empezar recordando que en 2002 se cumplieron los 150 años del nacimiento de Gaudí y que “La Gaceta de la RSME” dedicó un número especial a dicho aniversario (voumen 5.3 de 2002, páginas 523–558) con dos artículos (pdf gratis de ambos). El primero del genial Claudi Alsina (junto a Josep Gómez Serrano), “Gaudí, Geométricamente” y el segundo de Rafael Pérez Gómez, “Gaudí y la Proporción.” Claudi Alsina ha dedicado varios artículos a la geometría de Gaudí, de los que yo destacaría “Geometría gaudiana” (también junto a Josep). Según Claudi, “el número secreto del templo de la Sagrada Familia de Gaudí es el 12. Todas las proporciones de los elementos constructivos involucran a los divisores de 12, un guarismo que permite una factorización muy rica y su división en mitades y terceras partes. La explicación filosófica de por qué lo usó es que 12 es el número de los apóstoles de Jesucristo. Además, Gaudí era un gran geómetra. Es un fenómeno que estoy comprobando, porque colaboro en un estudio sobre la forma exacta que deberán tener los pináculos de las torres del templo que faltan por construir.” Entrevista en Muy Interesante.

El desarrollo de gráficos por ordenador al estilo gaudiano ha sido objeto de varias investigaciones. Destaca el artículo de Cameron Browne, “Gaudí’s organic geometry,” Chaos and Graphics, Computers & Graphics 32: 105-115, February 2008. Ha desarrollado una serie de operadores geométricos elementales que aplicados en secuencia permiten obtener figuras de estilo gaudiano con teselas de azulejos similares a las del parque Güell. El artículo incluye códigos en POV-Ray para generar las figuras. Una idea parecida ha utilizado Carlos Roberto Barrios Hernandez, “Thinking parametric design: introducing parametric Gaudi,” Design Studies 27: 309-324, May 2006, pero sus resultados son mucho menos espectaculares (gratis podéis acceder a un extracto en “Parametric Gaudi“). 

Hay mucha más información sobre Gaudí y las matemáticas, pero como no tengo mucho tiempo, te animo, si conoces fuentes interesantes, que utilices los comentarios para divulgarlas para todos los demás. Gracias de antemano.

Todo un éxito la primera inyección de 1380 paquetes de protones en el LHC del CERN

Hoy martes se inyectaron por primera vez 1380 haces protones en el LHC del CERN separados por 50 ns, el número máximo posible de paquetes permitido por dicha separación entre paquetes. Esta inyección (fill #1901) ha sido bastante larga, se pasó a modo colisiones sobre las 02:15 y se ha abortado el modo colisiones de forma programada alrededor de las 16:07 (el fill #1900 también se abortó de forma programada). Se han suministrado 46,5 /pb, 45,3 /pb y 14,5 /pb de colisiones a ATLAS, CMS y LHCb, resp. No se trata de un récord pero es una buena señal de que las cosas van bien. Por cierto, ayer tras 20 horas en modo colisión se logró suministrar 62/pb. Como 1380 paquetes de protones es el máximo previsto para este año, creo que convendría recordar el significado del esquema de esta inyección: 50ns_1380b+1small_1318_39_1296_144bpi. Este código parece más críptico de lo que es. El primer término es 50ns, el espaciado en tiempo para la inyección de cada paquete de protones; 50ns significa 50 nanosegundos; aunque no está planificado usarlo este año, 25 ns es el espacio mínimo para haces a 7 TeV. El segundo término 1380b, es el número de paquetes de protones que depende de la separación; para 50 ns el número máximo de paquetes es de 1380. El tercer término es 1small, el nombre para la configuración que sigue. El cuarto término es 1318, el número de paquetes que colisionarán en los puntos IP1 e IP5, donde se encuentran los grandes detectores ATLAS y CMS, resp. No estoy seguro del significado de 1small, pero creo que se refiere a que este número (1318) es menor de 1380. El quinto término es 39, el número de paquetes que colisionarán en el punto IP2 donde se encuentra ALICE. El sexto número es 1296, el número de paquetes que colisionarán en el punto IP8 donde se encuentra LHCb. Finalmente, aparece 144bpi; los paquetes se inyectan en trenes (secuencias) y este número indica el número de paquetes por tren. La siguiente figura ilustra lo que significan todos estos números en relación a la inyección de los haces.

La figura de abajo muestra el comportamiento de los haces en los últimas 24 horas (ahora son las 16:30). En mi opinión es una muy buena noticia que dos fills seguidos (1900 y 1901) hayan sido parados intencionadamente. De forma muy ilustrativa empieza el informe del LHC de hoy por la mañana: “1900: the fill they couldn’t kill.” Lo mejor es que el informe de mañana también podría empezar de la misma forma “1901: another fill they couldn’t kill.” No han estado exentos de problemas, todo lo contrario, pero los técnicos han logrado superar todas las trabas y mantener los haces estables en modo colisión. Todo un éxito del que nos alegramos todos los que seguimos los progresos del LHC con regularidad.

Hoy es el último día de colisiones (y todavía queda tiempo para otra inyección larga que permita batir algún rércord). Mañana miércoles por la mañana se iniciarán labores de mantenimiento programadas que durarán hasta el próximo lunes. Cuando volverá a reanudarse el modo colisiones. Ya os contaré mañana por la mañana qué ha pasado esta tarde y noche (si pasa algo que merezca la pena comunicar).

PS: En relación a los trenes de paquetes de protones, el número 144bpi, Philip Gibbs ofrece una explicación muy buena en su entrada “New LHC Records and bunch splitting,” viXra log, June 28, 2011 (el “bunch splitting” en el título de la entrada). Recomiendo leerla a los interesados y también su entrada anterior “New luminosity record for LHC + Injector Chain,” viXra log, May 29, 2011.

Los primeros 25 años de la gravedad cuántica de bucles contados por Carlo Rovelli

Carlo Rovelli fue invitado por la revista Classical and Quantum Gravity para resumir los primeros 25 años de la gravedad cuántica de bucles (LQG por Loop Quantum Gravity), porque fue en 1986 cuando se usó por primera vez la representación basada en un espacio de bucles para la versión cuántica de la relatividad general. El resultado ha sido el artículo “Loop quantum gravity: the first 25 years,” Classical and Quantum Gravity 28: 153002, 7 Aug. 2011 (gratis en Arxiv).

Rovelli empieza resumiendo la LQG en solo tres ecuaciones cuánticas (ver la figura, omito tratar de explicarlas aquí) que son invariantes Lorentz, que se pueden acoplar a campos de fermiones y de bosones de Yang-Mills, e incluso a una constante cosmológica. Tres ecuaciones sencillas en apariencia pero que representan una física difícil de interpretar. Los símbolos que aparecen en estas ecuaciones tienen connotaciones físicas, pero todavía nadie sabe qué significan realmente. La conjetura de los expertos en LQG es que estas tres ecuaciones se reducen a las ecuaciones de Einstein en el límite clásico, no presentan divergencias ultravioletas y describen la geometría cuántica del espaciotiempo. Hay que aclarar que las tres ecuaciones que presenta Carlo son una formulación posible de la LQG y que según él son equivalentes a cualquier otra formulación de dicha teoría.

Una teoría cuántica del espaciotiempo requiere definir un espacio de Hilbert adecuado para los estados de dicha teoría y encontrar una base de dicho espacio que represente los estados con n partículas, los “cuantos de espacio” en el caso de la LQG. Un “cuanto de espacio” es la excitación básica de un campo gravitatorio en LQG, de la misma forma que un fotón lo es de un campo electromagnético. La gran diferencia entre ambos conceptos es profunda y sutil: el fotón “vive” en un espaciotiempo fijo (de Minkowski), sin embargo, los “cuantos de espacio” representan el propio espaciotiempo. El fotón tiene asociado un momento lineal, lo que equivale a tener un operador cuántico de posición, por lo que un fotón es una partícula que “vive en el espacio,” pero los “cuantos de espacio” en LQG no están localizados en el espacio y definen el propio espaciotiempo. Los “cuantos de espacio” están localizados respecto a otros “cuantos de espacio” gracias a los arcos en un grafo de adyacencia que determina “quién está a lado de quien” (ver la figura de arriba, izquierda). Los “cuantos de espacio” son como “granos” y su adyacencia mutua determina los “gránulos” del espaciotiempo (ver la figura de arriba, centro). Estos “granos” no tienen asociado un momento lineal (ni una posición), sino que tienen asociados números cuánticos que definen la geometría cuántica del espaciotiempo. En este sentido son una versión cuántica de la métrica (el tensor métrico) en la relatividad general de Einstein. La manera en que lo logran se basa en un teorema de Roger Penrose sobre la geometría de espín (spin-geometry theorem). Rovelli nos presenta una versión del teorema basada en ideas de Minkowski de 1897 que ilustra cómo dotar de una noción de “superficie” a los “gránulos” (la unión de dos “granos”) de espacio y gracias a dicha noción dotarles de una métrica asociada a cada “grano.” Las componentes de la métrica no son conmutativas entre sí, por lo que la geometría resultante es una “geometría cuántica” genuina. El operador de área presenta un espectro discreto con un valor mínimo (el “salto de área” o “area gap”) que se cree que es la clave de la finitud ultravioleta de la teoría.

Las propiedades claves de la “geometría cuántica” del espaciotiempo son: (1) es discreta en esencia; no se obtiene de una discretización de un espacio continuo; además está dotada de operadores de área y volumen que tienen un espectro discreto; (2) las componentes del operador métrico de Penrose no conmutan entre sí y definen una red de espines; además solo ciertos observables geométricos son diagonalizables; y (3) un estado genérico de la geometría no es una red de espines sino una superposición lineal de redes de espines; gracias a ello se pueden definir estados semiclásicos que son análogos a estados con n partículas y que se parecen a los estados con n partículas de las teorías de Yang-Mills en retículos (lattice YM). Según Rovelli la “geometría cuántica” es la base de la gravedad cuántica de bucles. Además, LQG combina expresiones formales análogas a las de la QED con otras análogas a la QCD en retículos. Gracias a estos análogos se ha dado un sentido formal a las integrales de camino de Feynman en LQG y los diagramas de Feynman para “cuantos de espacio.” 

La teoría LQG es adimensional y no tiene ningún parámetro de escala, no hay ninguna unidad física que permita medir áreas y volúmenes en la geometría cuántica del espaciotiempo. Para introducir dicha escala se iguala el “salto de área” a un valor de área “natural” asociado a las unidades de Planck, que introduce la constante de la gravitación G en la teoría, así como la velocidad de la luz y otras constantes. El “salto de área” se convierte en el cuadrado de la longitud de un “bucle” (loop) en unidades de Planck. Esta igualdad permite introducir un parámetro libre (llamado γ) cuyo valor permite ajustar la región de energías a las que es válida la LQG (la energía de Planck, energía algo mayores o energía algo menores). La relación exacta entre la longitud de un bucle y la longitud de Planck sólo puede ser obtenida mediante su medida experimental (gracias a la cosmología). La gran diferencia entre QCD en retículos y la LQG es que en la primera hay una escala natural, la distancia entre los nodos de la red, cuyo valor en el límite continuo tiende a cero, pero en LQG no hay tal parámetro de escala. Rovelli nos dice que pasa lo mismo que con las coordenadas en teoría general de la relatividad, no tienen significado métrico como tal, sólo lo tienen las distancias (diferencias entre coordenadas) vía el tensor métrico.

La presentación de Rovelli de la LQG no se basa en cuantizar la teoría general de la relatividad (la gravitación clásica) sino que parte de conceptos cuánticos. Esta aproximación se parece a la formulación moderna de la electrodinámica cuántica (QED) en muchos libros. En lugar de tomar el campo electromagnético de Maxwell y presentar un procedimiento que permite cuantizarlo (cuantización canónica o mediante integrales de camino), se definen los diagramas de Feynman y cómo construirlos y luego se demuestra que en cierto límite se reducen al electromagnetismo clásico. En LQG el problema es que partir de una formulación basada en la “geometría cuántica” todavía no hay una demostración rigurosa de que se obtiene en un límite apropiado la gravitación clásica.

 ¿Qué problemas resuelve la teoría LQG? Rovelli empieza recordando qué problemas no resuelve la LQG (en esto se diferencia de otros defensores de dicha teoría): (1) no resuelve el problema de la unificación de todas las fuerzas; es una teoría cuántica de la gravedad igual que la QED lo es del electromagnetismo; (2) no explica el significado de la mecánica cuántica; es una teoría cuántica regida por las leyes de la física cuántica y en LQG aparecen todos los misterios cuánticos sin explicación;  y (3) no resuelve los problemas cuánticos cosmológicos; los problemas asociados a la ausencia de un observador externo al universo o sobre cómo realizar física cúantica para el universo en su conjunto en la ausencia de observadores. Según Rovelli, los problemas que resuelve la LQG son: (1) explica la geometría cuántica del espacio; (2) elimina las divergencias ultravioletas en la gravedad cuántica; y (3) logra una teoría cuántica de campos covariante (como la teoría general de la relatividad). Los problemas que logrará resolver son: (1) cosmología de la gran explosión (big bang); en los primeros instantes del universo la geometría del espaciotiempo es cuántica y LQG ayudará a entender sus propiedades; (2) termodinámica de los agujeros negros y la explicación de la radiación de Hawking; y (3) estructura física del espacio a pequeña escala y las propiedades que la diferencian del límite clásico.

El resto del artículo de Rovelli trata de resumir lo que se ha avanzado en cada uno de estos problemas. Yo me limitaré a resumir la parte relativa a la entropía de los agujeros negros, explicar la fórmula de Bekenstein−Hawking S = (1/4)A/(h G). El origen microscópico de esta fórmula se puede entender gracias a la teoría LQG. La expresión “agujero negro” se utiliza en física con cierta ambiguedad para referirse a un agujero negro estacionario (caracterizado por su masa, carga y momento); sin embargo, todo agujero negro es dinámico (no estacionario) que no está caracterizado por solo 3 parámetros sino por una infinidad de ellos; según Rovelli estos parámetros caracterizan las fluctuaciones de la geometría del horizonte de sucesos, los momentos multipolares de la “forma” del horizonte. Los grados de libertad del agujero negro que cuenta su entropía son los que determinan la forma del horizonte de un agujero negro no estacionario, porque según Rovelli un agujero negro no puede ser estacionario. Los estados macroscópicos del agujero negro sí pueden ser estacionarios, pero sus estados microscópicos no pueden serlo, como un gas encerrado en una caja tiene una presión y una temperatura constantes, pero sus moléculas están en movimiento continuo. Las “moléculas en movimiento” del agujero negro son los grados de libertada que caracterizan la forma del horizonte de sucesos. La entropía del agujero negro cuenta este número de grados de libertad. Para la teoría clásica de la gravedad este número es infinito, sin embargo, en LQG la geometría cuántica implica un número finito de grados de libertad. El cálculo es complicado y sutil pero conduce al siguiente resultado S(LGQ) = (1/4) (γ/γo) A/(h G), donde γo es un número del orden de la unidad que depende de ciertos cálculos combinatorios, cuyo valor más actual es γo = 0,274 067 . . .  Para que esta fórmula coincida con la fórmula de Bekenstein–Hawking es necesario que el parámetro libre γ = γo (conjetura de Barbero–Immirzi). El único parámetro libre de la LQG que debe determinarse gracias a su comparación con el experimento, puede calcularse gracias a los agujeros negros. Este resultado no es del todo satisfactorio, ya que no se conoce en detalle la razón por la que γ = γo. Según Rovelli, aquí hay algo importante que aún nadie entiende. ¿Cuál es la gran diferencia entre el cálculo de la entropía de los agujeros en LQG y en teoría de cuerda? El valor en LQG se puede calcular para diferentes tipos de agujeros negros, sin embargo, en teoría de cuerdas solo se sabe calcular para agujeros negros extremales y casi-extremales.

¿Qué tiene que decir Rovelli sobre las críticas recientes a la LQG por no ser invariante Lorentz a todas las energías? El satélite Fermi observó un solo fotón (el más energético observado en una fuente de rayos gamma) que reafirmó la invarianza Lorentz a energías por encima de la escala de Planck, lo que condujo a ciertas crícitas a la LQG. Según Rovelli, es un error interpretar este fotón como una evidencia en contra de la LQG. Esta teoría no implica una violación de la invarianza Lorentz a la energía de Planck. Interpretar que la existencia de una longitud mínima es incompatible con la invarianza Lorentz es erróneo, según Rovelli, ya que no tiene en cuenta efectos cuánticos. Sería lo mismo que interpretar que la existencia de un momento angular mínimo es incompatible con la invarianza ante rotaciones, una conclusión que contradice la mecánica cuántica del momento angular. Según Rovelli, la evidencia teórica en LQG apunta a que dicha teoría no viola la simetría Lorentz a la energía de Planck (aunque no hay demostración todavía de este hecho).

En resumen, a los interesados en LQG les recomiendo encarecidamente que lean el artículo de Rovelli. Merece la pena y su visión que combina la de un prosélito y la de un crítico me gusta. Muchos ya sabéis que yo soy más aficionado a la teoría de cuerdas, pero de vez en cuando hay que leer sobre la competencia. Por cierto, en el mismo número de la revista que publica este artículo aparece un artículo sobre ella de Sunil Mukhi, “String theory: the first 25 years,” Classical and Quantum Gravity 28: 153001, 7 Aug. 2011 (pero que no está gratis en Arxiv, así que le dedicaré una próxima entrada).

Una semana tranquila y un fin de semana estupendo en el LHC del CERN

Como ya va siendo habitual en este blog trato de informaros cómo va el progreso del LHC del CERN semana a semana. Esta semana pasada ha sido bastante tranquila (hasta ayer viernes noche). Los primeros cinco días se han dedicado a resolver varios pequeños problemas (relacionados con unos filtros en los sistemas criogénicos); para resolverlos se ha tenido que calentar parte de la máquina y luego volverla a refrigerar. La única vez que se pasó a modo colisiones (Fill #1883, el 20 de junio) se logró todo un récord, una luminosidad integrada en ATLAS de 47,7 /pb y en CMS de 46,3 /pb, en cada uno de ellos se han obtenido más colisiones en un solo fill que durante todo el año 2010 (el récord ha merecido una nota de prensa de CMS). El récord se ha obtenido con 1092 paquetes de protones separados 50 ns. Ayer viernes por la noche se reanudaron las colisiones pero con 1236 paquetes de protones (la mayor luminosidad instantánea hasta el momento). Cruzo los dedos, pero el Fill #1890 está siendo todo un hito (ya lleva 12 horas sostenidas de colisiones y sigue y sigue… cual conejito de Duracell). Os recuerdo que con una separación de 50 ns lo máximo que se pueden lograr son 1380 paquetes por haz (144 más que los que se utilizan ahora mismo). Más noticias sobre el estado del LHC casi en tiempo real en “LHC 2011 – latest news.” Las imágenes que acompañan esta entrada son del LHC coordination vistar (arriba página 1 y abajo página de luminosidad).

Esta última figura indica que a las 10:44 horas ATLAS había recibido 39,3 /pb de colisiones y CMS de 38,5 /pb, números que están un poco por encima de lo que se almacena en disco pues la eficiencia no es del 100%. Ahora mismo, 11:15 horas, ATLAS ya ha alcanzado 40,7 /pb y CMS 39,9 /pb. Todo apunta a nuevo récord para un solo fill. Crucemos los dedos. Esta figura también indica que los objetivos de este fill son lograr suministrar a los detectores pequeños ALICE y LHCb luminosidades instantáneas de 1,8 Hz/μb y 300 Hz/μb y se está logrando con completo éxito (fijaros que los histogramas rojo y verde para dichos detectores están planos).

PS (26 jun. 2011): El fill #1890 aguantó hasta las 13:09, acumulando una luminosidad integrada de 45 /pb; luego no se alcanzó un nuevo récord, hubiera sido necesaria una horita más. La luminosidad integrada día a día (algunos días se han acumulado varios fills) en ATLAS y CMS durante 2011 aparece en la siguiente figura.

 

PS (28 jun. 2011): Se lo comenté a un lector de este blog en persona y quizás deba comentárselo a todos. La mayoría de los fills en el LHC, durante este año, son más cortos de lo deseado, aunque de vez en cuando hay uno más largo de lo esperado. La figura/tabla de abajo resume los fills de 1883 a 1900; los que no aparecen son intentos fallidos en los que no se llegó a lograr la estabilidad de los haces para pasar a modo colisiones. Como muestra la tabla el fill #1890 duró 14,1 horas y el #1883 hasta 18 horas, sin embargo, la mayoría son demasiado cortos (“super short”). El objetivo de los controlan los haces del LHC es aprender a mantener la máquina en una situación estable sin altibajos (bajo control) y al mismo tiempo garantizar una alta luminosidad (número de colisiones por segundo); por ahora no lo están logrando como les gustaría. El objetivo de esta semana en la que estamos es lograr colisiones con 1380 paquetes por haz, el máximo número de paquetes que permite una separación de 50 ns como la que se está usando. Una vez lo hayan logrado se dedicarán a ajustar otros parámetros para garantizar mantener los haces estables y bajo control durante el mayor tiempo posible. El LHC es la máquina más compleja que ha construido la humanidad, así que requiere cierto tiempo aprender a controlarla.

XX Carnaval de Física: La física del hula hoop

Un soriano llamado Francisco J. H. H., físico, (casi) matemático, neurocientífico y autor del blog Resistencia Numantina organiza la XX Edición del Carnaval de la Física. El Carnaval de la Física de este mes acaba mañana, 25 de Junio. Como es habitual en este blog mi participación se basará en un artículo publicado en la revista de docencia de la física llamada American Journal of Physics. Para empezar un vídeo que descubrí gracias a Antonio M. R., “Perspectiva desde un hula hoop,” Fogonazos, 07 junio 2011.

El hula hoop es un popular juguete compuesto de un aro (hoop) delgado de plástico que se hace girar alrededor de la cintura, aunque los malabaristas circenses también usan las piernas o el cuello. Para lograr que el aro gire es necesario que la cintura del jugador describa un movimiento periódico en el plano horizontal. Para modelar este problema lo más fácil es considerar un modelo en dos dimensiones, despreciando el movimiento vertical del hula hoop. Además, conviene suponer que la cintura es un círculo y su centro se mueve a lo largo de una trayectoria elíptica cercana a un círculo. Bajo dichas condiciones es fácil obtener un modelo matemático sencillo de la dinámica de este divertido juego. Los interesados en los detalles técnicos disfrutarán con Alexander P. Seyranian and Anton O. Belyakov, “How to twirl a hula hoop,” American Journal of Physics 79: 712-715, July 2011 [gratis en ArXiv]. No ganarán el premio Ig Nobel por su trabajo, ya que el hula hoop ya recibió el Ig Nobel de Física en 2004; en concreto, lo recibieron Ramesh Balasubramaniam and Michael Turvey por su estudio “Coordination Modes in the Multisegmental Dynamics of Hula Hooping,” Biological Cybernetics 90: 176-190, March 2004 [pdf gratis]. Como nos recuerdan en el siguiente vídeo.

El modelo de los rusos Seyranian y Balyakov se basa en dos movimientos armónicos acoplados (como dos péndulos acoplados). Este modelo es tan sencillo que permite obtener la solución exacta de las ecuaciones para el movimiento. No quiero aburriros con las ecuaciones (en ArXiv tenéis copia gratis del artículo), muy sencillas por otro lado. Según estas ecuaciones la clave para la estabilidad del movimiento es que el hula hoop no pierda su punto de contacto con la cintura del jugador. La estabilidad asintótica del movimiento requiere la ausencia de resonancias parámetros en el movimiento. El movimiento es estable en ambas direcciones, tanto en rotación en sentido horario como antihorario.

Para los profesores de primeros cursos de física el modelo del hula hoop será un ejercicio más para añadir a las relaciones de problemas, o para incluir en los exámenes (aunque no sé lo que pensarán los estudiantes al respecto). Para cursos más avanzados, conviene elegir un artículo con un análisis un poco más complejo, como el de Frederic Moisy, “Supercritical bifurcation of a hula hoop,” American Journal of Physics 71: 999-1004, 2003 [gratis en ArXiv].