Publicado en PNAS: Lo que le pasa a una píldora en nuestro estómago

Las píldoras que tomamos por vía oral tienen formas y pesos diferentes. Para mejorar su diseño es necesario saber lo que les pasa dentro de nuestro estómago. Bryan Laulicht et al. han utilizado una píldora magnética para estudiar desde el exterior su trayectoria (posición y orientación) dentro del estómago (tanto en perros como voluntarios humanos) y así reconstruir en tiempo real las fuerzas y momentos de fuerza gástricos responsables de sus movimientos antes de pasar al intestino. Cuando la píldora es administrada después de comer, la fuerzas gástricas sobre la píldora son similares en perros y en humanos. Sin embargo, en ayunas, en promedio las fuerzas gástricas en perros son hasta cinco veces mayores que en humanos. El análisis de los campos de fuerza observados permite cuantificar la retención gástrica y gastroenterológica que ayudará al diseño de píldoras gastroretentivas que permiten una liberación lenta y sostenida de fármacos. Además, el estudio es un primer paso hacia la diagnosis de enfermedades y desórdenes de movilidad gástrica. Un trabajo realmente curioso que se ha publicado en Bryan Laulicht et al., “Understanding gastric forces calculated from high-resolution pill tracking,” PNAS 107: 8201-8206, May 4, 2010.

Propuesta teórica para la simulación del multiverso utilizando metamateriales

La analogía física es clave para el avance de muchos campos de conocimiento. Explorar un agujero negro y verificar la existencia de la radiación de Hawking parece imposible. Sin embargo, se han fabricado análogos ópticos de un agujero negro en los que es posible que algún día observemos dicha radiación (hasta el momento no se ha logrado). Igor I. Smolyaninov, de la Universidad de Maryland, EE.UU., nos propone utilizar un metamaterial (un medio óptico ahora muy de moda) para simular el multiverso y estudiar su naturaleza cuántica. El multiverso se caracteriza por regiones (“universos”) en las que la dimensión efectiva y la topología cambian. En un metamaterial podemos configurar el espacio óptico para que simule regiones cuya geometría y topología corresponda a teorías de Kaluza-Klein efectivas (espaciotiempos con algunas dimensiones compactificadas). Estos metamateriales presentarían transiciones de fase en las que cambiarían sus propiedades topológicas que según Smolyaninov simularían transiciones entre estas teorías efectivas y con ellas el surgimiento de un universo dentro del multiverso. Su trabajo presenta modelos ópticos para espaciotiempos de tipo dS3×S1 (un espaciotiempo tipo de Sitter en 3 dimensiones con una dimensión compactificada en un círculo) y tipo dS2×S2 (un espaciotiempo tipo de Sitter en 2 dimensione con dos dimensiones compactificadas en una esfera). Afirma también, aunque no lo detalla en su artículo, que se pueden obtener análogos de dS4 (de Sitter en 4D) y AdS4 (anti-de Sitter en 4D). Forzando la aparición de transiciones ópticas no lineales entre estos estados en el metamaterial podría permitir estudiar las características cuánticas de las transiciones entre “universos” en un multiverso y la generación cuántica de “universos.” Parece fascinante, aunque por ahora es sólo una propuesta teórica y me temo que se necesitarán muchos años para ponerla en práctica. Para los interesados en más detalles, aunque este tema está todavía muy verde, el artículo técnico es I.I. Smolyaninov, “Metamaterial “Multiverse”,” ArXiv, 6 May 2010.

El tiempo cuántico según John Ashmead

No he tenido tiempo de leer en detalle la tesis de John Ashmead, “Quantum Time,” ArXiv, 5 May 2010 (110 páginas). Sólo he leído un par de capítulos completos y ojeado el resto por encima. La naturaleza cuántica del tiempo es una de las cuestiones que más me interesan en física fundamental y el trabajo de Ashmead parece interesante. Presenta una ecuación de Schrödinger covariante en la que el tiempo y el espacio se tratan en pie de igualdad. Esta ecuación la estudia utilizando el formalismo de integrales de camino de Feynman. Por lo que he visto, la idea, que parte ideas previas de Feynman, se presenta con grandes palabras, pero no se lleva muy lejos. Aún así me ha parecido interesante y curiosa. Por cierto, John es el autor de un blog “Time and Quantum Mechanics. Exploring the intersection of time and quantum mechanics.” Os recomiendo su entrada “Why quantum time?” Habrá que seguir la trayectoria del “tiempo cuántico” de Ashmead.

Observadas ondas de choque en fibras de cristal fotónico no lineales inducidas por el efecto Raman

La observación de ondas de choque en medios ópticos es difícil porque el espectro de las ondas de choque es tan ancho que las propiedades ópticas del medio cambian mucho en una región tan amplia. Las fibras de cristal fotónico son fibras ópticas con agujeros a su largo de su sección transversal. En la propagación de ondas por reflexión total interna se requiere que el índice de refracción del núcleo sea mayor que el del recubrimiento. Gracias a los agujeros en las fibras de cristal fotónico se logra un cambio entre estos índices (apertura numérica) muy pequeña, lo que permite la propagación de señales en régimen monomodo a lo largo de un espectro muy ancho. Las fibras de cristal fotónico además tienen una gran ventaja en régimen no lineal, el control del perfil del índice de refracción gracias a la distribución de agujeros permite amplificar ciertos efectos no lineales y reducir otros, con lo que se pueden estudiar ciertos efectos no lineales específicos mucho mejor que en fibras ópticas convencionales. Para señales ópticas de gran potencia la combinación de efectos no lineales y propagación monomodo de amplio espectro ha permitido la observación de muchos tipos de ondas no lineales, como los solitones y los breathers (“suspiros”). Quiero hacerme eco de un nuevo trabajo que muestra la propagación de ondas de choque en fibras de cristal fotónico no lineales diseñadas para que los efectos dominantes sean el efecto de Kerr y el efecto Raman. Aunque no son ondas de choque tan claras como en el caso hidrodinámico, los investigadores han sido capaces de observar varias ondas de choque en interacción y verificar que se comportan como predice la teoría. Un gran trabajo entre cuyos autores se encuentra, como no, el genial Philip St.J. Russell. El artículo técnico, para los interesados en más detalles, es Claudio Conti, Sebastian Stark, Philip St.J. Russell, Fabio Biancalana, “Multiple hydrodynamical shocks induced by Raman effect in photonic crystal fibres,” ArXiv, 29 Apr 2010.

La teoría de Kurt Ammon sobre el cerebro humano como una máquina creativa

El cerebro humano parece capaz de realizar tareas que no puede realizar ningún ordenador. Un ordenador sólo puede realizar tareas calculables (o computables). Turing (1969) afirmó que la inteligencia se caracteriza por la creatividad o iniciativa para el procesamiento de conceptos informales. ¿Es el cerebro una máquina creativa? ¿Es calculable computacionalmente la creatividad? Kurt Ammon introduce en “Informal concepts in machines,” ArXiv, 4 May 2010, el concepto de máquina creativa como la que es capaz de evaluar funciones más allá de las posibilidades de una máquina de Turing o de un sistema formal. ¿Existen las máquinas creativas? Su definición se apoya en dos teoremas: el teorema 1 afirma que existe un procedimiento efectivo para generar una función calculable que no está contenida en ninguna enumeración efectiva de funciones calculables, que demuestra utilizando un argumento de diagonalización; y el teorema 2 afirma que existe un procedimiento efectivo para generar una función calculable que no está contenida en ningún sistema formal que incluya predicados sobre dichas funciones, que demuestra usando el teorema 1. ¿Qué significan estos teoremas?

Una función calculable de los números naturales es parcial si no es capaz de dar un valor resultado para todos los números naturales (su dominio es un subconjunto de los naturales). Una función calculable es total en el caso contrario, cuando su dominio son todos los naturales. Obviamente, el problema de la parada implica que no existe ningún algoritmo (máquina de Turing) que pueda decidir si una función calculable parcial es total. Para Ammon, una máquina creativa es la que es capaz de transformar en función total toda función (sea parcial o total) que reciba como entrada. En este sentido un sistema creativo es capaz de calcular valores de funciones no calculables más allá de los límites de cualquier máquina de Turing o sistema formal. Según Ammon, sus teoremas afirman que los procedimientos (máquinas) creativos existen, pero como no pueden ser máquinas de Turing, no podemos describirlos en un sistema formal. Para él, una máquina “inteligente” es una máquina creativa, capaz de calcular más allá de la capacidad de procesamiento de una máquina de Turing.

Si Ammon tiene razón, nunca la inteligencia artificial será capaz de construir un algoritmo (máquina de Turing) inteligente, aunque las máquinas “inteligentes” existen. A los matemáticos les encanta demostrar la existencia de objetos que no se pueden construir (algorítmicamente) o describir (formalmente). Para la mayoría de nosotros es obvio que las máquinas inteligentes existen, nosotros somos una máquina inteligente.

Estado actual del LHC del CERN y las previsiones para su futuro según el LHCC Meeting

El miércoles y el jueves no pude ver en directo el webcast del “101st LHCC Meeting Agenda.” Las transparencias de las charlas se encuentran colgadas en la web, lo que nos permite tener una idea de lo que se ha contado en las diferentes charlas. Como resumen general hay que decir que todas afirman que el LHC está funcionando mejor de lo esperado y que nadie duda de que el objetivo de obtener un inverso de femtobarn (1/fb) de colisiones a 7 TeV en el centro de masas para finales de 2011 se logrará. Pero hemos de ser pacientes. En el primer mes de colisiones a 7 TeV (abril de 2010) la luminosidad ha sido muy baja y sólo se ha obtenido un inverso de nanobarn (1/nb) de colisiones. En el segundo mes se espera alcanzar los diez inversos de nanobarn (10/nb). Hay que recordar que un inverso de nanobarn es un millón de veces menos colisiones que un inverso de femtobarn (1/fb = 1000000/nb), el objetivo para finales de 2011. Casi todas estas colisiones se obtendrán durante el año 2011, así que este año se dedicará a ir ajustando poco a poco la máquina con el objeto de garantizar que dicho objetivo se pueda cumplir. Y en opinión de todos, se logrará sin problemas.  

Experimento ALICE del LHC: primer evento a 0'9 TeV (izq.) y a 7 TeV (der.). (C) CERN

Todos los detectores están funcionando bien, aunque no con el 100% de eficiencia, la mayoría ya supera el 96%. Todavía hay que entender muchos detalles de cómo se comportan y ajustar los parámetros de los algoritmos de Montecarlo necesarios para interpretar las colisiones candidatas a física interesante. Permitidme unos números anecdóticos para hacernos una idea de lo que se ha obtenido en el primer mes de colisiones. En el detector CMS se han observado 6 candidatos a bosón W y 1 candidato a bosón Z, números que se ajustan muy bien a la predicción estadística del modelo estándar para 1/nb, observar 8 bosones W y 0’8 bosones Z. En el detector ATLAS se han observado 12 bosones W (las transparencias muestran la “foto” de los 4 primeros para los interesados). Sobre LHCb, ALICE, LHCf, y TOTEM poco hay que contar, salvo recordar que LHCb es el único experimento capaz de desplegar todo su potencial y lograr casi la totalidad de sus objetivos físicos de aquí hasta finales de 2011. En la figura de arriba os he mostrado los dos primeros eventos observados en ALICE con colisiones a 0’9 TeV y a 7 TeV, que ilustran muy bien como a más energía, más complicado es el análisis de las colisiones.  

Las cifras obtenidas en las primeras colisiones no son espectaculares pero corresponden a lo que prevee el modelo estándar para más o menos 1/nb de colisiones. ¿Con qué compararlas? Para finales de 2011, el LHC habrá obtenido 1/fb de colisiones, ¿cuántos W y Z habrá observado entonces? Aproximadamente unos 250 000 bosones Z y unos 2 500 000 bosones W. Estos números los podemos a su vez comparar con los del Tevatrón del Fermilab, por ejemplo, DZero ha observado en toda su historia unos 500 000 W. Por ello la estimación de la masa del bosón W que obtendrá el LHC a finales de 2011 se espera que sea mejor que la obtenida por el Tevatrón, máxime cuando a 7 TeV las correcciones cromodinámicas (QCD) de alto orden son más pequeñas que a 14 TeV y dicho valor será más fácil de estimar

No hay que olvidar que para lograr que a finales de 2011 se haya recopilado 1/fb de colisiones es necesario que a principios de 2011 el LHC pueda funcionar de forma estable y sostenida con una luminosidad instantánea entre 1-2 × 1032 cm-2 s-1, lo que significa unos 700 paquetes (bunches) de protones, cada uno con unos 8 × 1010 protones. Por ahora, alcanzar este objetivo parece bastante realista. Son buenas noticias, pero todavía queda muchísimo trabajo por hacer este año. 

¿Cuándo observará el LHC el primer evento candidato a un quark top (el primero observado en Europa)? Se espera que cuando haya acumulado un inverso de picobarn (1/pb = 1000/nb) de colisiones, es decir, como muy tarde antes de la parada del verano. ¿Cuándo podremos afirmar que se ha “redescubierto” el quark top en Europa? Se estima que cuando se hayan acumulado unos 20 picobarn y entre todos los experimentos se acumulen unos 120 candidatos a quark top. 

  

¿Nueva física más allá del modelo estándar? Todavía es pronto, pero el LHC a 7 TeV es mucho más luminoso que el Tevatrón a 2 TeV. Por ejemplo, unas 15 veces más luminoso para la observación de la desintegración de un bosón de Higgs en un par de bosones vectoriales (WW o ZZ), unas 20 veces más luminoso para la observación del quark top, entre 150 y 200 veces más luminoso para la observación de quarks de cuarta generación (top prima, quark de tipo top de unos 350 GeV), y entre 50 y 100 veces más luminoso para la observación de nuevos bosones vectoriales (un bosón Z prima de 1 TeV). A finales de 2011, sólo el experimento CMS del LHC excluirá un bosón de Higgs con una masa entre 145 y 190 GeV, como muestra la figura de arriba. El descubrimiento más rápido del bosón de Higgs se obtendría si éste tuviera una masa de 160 GeV, que permitiría alcanzar una evidencia de su existencia rayando el descubrimiento (entre 3 y 5 sigma). Combinando los datos de CMS y ATLAS se ampliarán ligeramente estos valores (intervalo de exclusión entre 140 y 200 GeV, y rango para posible descubrimiento entre 160 y 170 GeV). El LHC superará con creces las expectativas del Tevatrón para encontrar un bosón de Higgs con masa mayor de 140 GeV. Sin embargo, por debajo de 140 GeV si no lo encuentra el Tevatrón, tendremos que esperar unos cuantos años para tener noticias del Higgs en el LHC. 

 

Las partículas predichas por la  supersimetría son en su mayoría más pesadas de lo que puede alcanzar el Tevatrón, por lo que el LHC tiene muchas posibilidades de observar señales de su existencia a finales de 2011 (en la figura de arriba hay que comparar la región celeste con la región de otros colores). Para superar todas las búsquedas hasta hoy en el Tevatrón, al LHC le bastan con 50/pb de colisiones (lo habrá logrado a finales de 2010). Si la materia oscura está formada por partículas LSP es muy probable que haya sido descubierta en el LHC a finales de 2011 (según las estimaciones teóricas combinadas con datos astrofísicos y cosmológicos). Según Oliver Buchmüller, con 100/pb el LHC habrá entrado en un nuevo territorio inexplorado de la física y podrá empezar a observar/descartar física exótica como el tecnicolor, nuevos bosones vectoriales, agujeros negros, dimensiones superiores, y otros “esoterismos teóricos.”

Ya para acabar, el LHCC también ha servido para que nos enteremos del anuncio de varios eventos que se organizarán en el LHC, como los mini-workshops de 1 solo día que se organizarán el primer viernes de cada mes. El 7 de mayo ha sido sobre difracción, el 4 junio será sobre nueva física, el 2 julio sobre QCD, etc.