Vídeo de la simulación computacional de la formación de hidrato de metano

El hidrato de un gas es el material que se obtiene al congelar una mezcla de agua y gas, de tal forma que la retícula molecular del hielo encierre a dicho gas. El “hielo de metano” o hidrato de metano es el ejemplo más habitual y se encuentra bajo las capas de lodo marino. Sorprendentemente es un material inflamable, arde al acercar una llama, y podría ser utilizado como combustible, pero el metano es un gas de invernadero. ¿Cómo se forma el hidrato de metano? Matthew R. Walsh y sus colaboradores de la Colorado School of Mines, EEUU, han utilizado simulaciones dinámicas moleculares para estudiar la formación espontánea del hidrato de metano y su crecimiento. Los resultados del ordenador permiten seguir el proceso en detalle en una escala de microsegundos. El proceso se basa en la formación de “jaulas” moleculares en las que se ven encerrados los átomos de metano que se van autoorganizando hasta formar una estructura ordenada similar a un cristal. Este proceso es espontáneo porque es energéticamente favorable. Los dos vídeos que acompañan esta entrada ilustran este proceso de nucleación y “enjaulamiento” del metano en la retícula de hielo. El artículo técnico es Matthew R. Walsh, Carolyn A. Koh, E. Dendy Sloan, Amadeu K. Sum, David T. Wu, “Microsecond Simulations of Spontaneous Methane Hydrate Nucleation and Growth,” Science Express, Published Online October 8, 2009. Los detalles de las simulaciones por ordenador realizadas se encuentran en la Información Suplementaria.

Las simulaciones han requerido un día de trabajo cada 75 ns (nanosegundos) de simulación en un supercomputador de 23 TFLOP (“billones” de operaciones en coma flotante por segundo), constituido por un cluster de procesadores. Se han simulado 512 átomos de metano y 2944 moléculas de agua (hielo) enfriados a una temperatura de 305 K y a una presión de 10 MPa (megapascales). El dominio tridimensional simulado es un cubo con un lado de 5 nm (nanómetros) con condiciones de contorno periódicas. Se ha utilizado un paso de tiempo de 2 fs (femtosegundos).

El vídeo que abre esta entrada muestra un detalle de las fases iniciales de formación de las “jaulas” de hielo que encierran a las moléculas de metano dando lugar al crecimiento y formación del hidrato de metano. Sólo se muestran algunas de las moléculas de agua (esferas pequeñas) y de metano (esferas grandes). Han sido seleccionadas las que acaban formando parte de la estructura que se observa al final. Los enlaces de hidrógeno entre las moléculas de agua se muestran como líneas rojas a trazos.

El vídeo que cierra esta entrada muestra una visualización durante de 2 μs de tiempo real de la nucleación del hidrato de metano y su crecimiento a una temperatura de 250 K y una presión de 50 MPa. Las moléculas de agua se muestran como línes sólidas negras, los enlaces de hidrógeno entre las moléculas de agua se muestran como líneas a trazos rojas y las moléculas de metano como esferas sólidas azules, que cuando quedan “enjauladas” pasan a tener un color verde claro.

PS (20 nov. 2009): Ya se ha publicado el artículo en Science 326: 1095-1098, 20 November 2009, acompañado de una interesante Perspective de Pablo G. Debenedetti y Sapna Sarupria, “Chemistry: Hydrate Molecular Ballet,” Science 326: 1070-1071, 20 November 2009.

Nanotoxicología: Respirar nanotubos de carbono produce fibrosis pulmonar, una causa de cáncer de pulmón

Dibujo20091029_macrophages_engulfed_multiwalled_carbon_nanotubes_carried_them_to_lung_linig

¿Son tóxicos los nanotubos de carbono? Ratones que han inhalado nanotubos de carbono multicapa en una sola dosis presentan rastros de dichos nanotubos en sus pulmones y tras varias semanas han desarrollado fibrosis pulmonar, una de las causas del cáncer de pulmón. James Bonner de la Universidad de Carolina del Norte, Raleigh, EEUU, y sus colegas han expuesto ratones a aerosoles de nanopartículas (nanotubos de carbono multicapa) durante 6 horas tanto en dosis altas de 30 miligramos por metro cúbico como a dosis bajas de 1 miligramo por metro cúbico. En dosis altas, los macrófagos, un tipo de glóbulos blancos que fagocitan elementos extraños, han engullido los nanotubos y los han conducido por los bronquios y bronquiolos. Tras varias semanas después de la exposición, estos ratones han desarrollado fibrosis pulmonar (pequeñas cicratices en las vías respiratorias) de tipo subpleural. En dosis bajas no se observan estos efectos así como tampoco en dosis altas de nanopartículas de carbón. La fibrosis pulmonar está asociada al desarrollo de algunos cáncer de pulmón. Aunque el estudio no lo demuestra directamente, podría ser que la inhalación de nanotubos de carbono puede ser la causa del desarrollo de tumores pulmonares. Los trabajadores de las empresas de nanotecnología que bregan diariamente con nanotubos deberán tener muy presentes estos estudios: deberán tratar en lo posible de no respirar un ambiente cargado de nanotubos. Nos lo cuentan en “Nanotoxicology: Lung penetration,” Nature 461: 1176, 29 October 2009, haciéndose eco del artículo técnico Jessica P. Ryman-Rasmussen et al. “Inhaled carbon nanotubes reach the subpleural tissue in mice,” Nature Nanotechnology, Published online: 25 October 2009.

La evolución en acción observada en 40000 generaciones de Escherichia coli durante 20 años

Dibujo20091029_Rates_genomic_evolution_and_fitness_improvement_in_first_20000_generations

En el año de Darwin, Richard Lenski tenía que demostrar la selección natural en acción. Él y su grupo han cultivado desde 1988 doce poblaciones de un clon de la bacteria Escherichia coli B (clon REL606) llamado ancestro. Cada cultivo se ha mantenido a temperatura constante, 37 °C, con un suplemento fijo de glucosa, 25 mg/l, transferiendo cada día 0.1 ml de cultivo a un cultivo fresco de 9.9 ml. Periódicamente se han criogenizado a –80 °C muestras de las bacterias cuyo genoma ha sido secuenciado y su fenotipo analizado. Durante las primeras 20000 generaciones las mutaciones se acumularon a un ritmo constante, 2 cada 1000 generaciones, siendo la mayoría beneficiosas para el éxito reproductivo (fitness) de los descendientes de REL606. La selección natural en acción. El fitness creció fuertemente, aunque de forma no lineal, a un ritmo relativo de 1.5 en las primeras 5000 generaciones, que más tarde se hizo más lento (ver la figura de arriba). Las 20000 generaciones siguientes una mutación en el gen mutT (que codifica una proteína que repara el ADN) provocó un fuerte incremento en la tasa de mutaciones (de 45 mutaciones en total en las primeras 20000 generaciones se pasó a 600 en las últimas 20000, gráfico insertado en la figura). La mayoría de estas mutaciones no han tenido un impacto en las proteínas codificadas por el genoma de la bacteria luego no han repercutido en su fenotipo. La hipótesis usual de que la selección natural y la evolución progresan a un ritmo constante queda refutada con este experimento, que muestra claramente que la evolución progresa por periodos alternos de rápida evolución fenotípica (con pocas mutaciones que incrementan el fitness) y etapas de mantenimiento de los linajes más exitosos (con muchas mutaciones que no afectan al fenotipo). Nos lo cuenta Paul B. Rainey, “Evolutionary biology: Arrhythmia of tempo and mode,” Nature 461: 1219-1221, 29 October 2009, haciéndose eco del artículo técnico de Jeffrey E. Barrick et al., “Genome evolution and adaptation in a long-term experiment with Escherichia coli,” Nature 461: 1243-1247, 29 October 2009. Las 27 páginas de información suplementaria describen en detalle todas las mutaciones y los polimorfismos de un sólo nucleótido observadas durante este interesante experimento.

 

Y el 29 de octubre de 1969 nació Internet…

Dibujo20091028_L_KLEINROCK_ARPANET_logbook_page_recording_first_computer-to-computer_transmission

Vinton G. Cerf, actualmente vicepresidente de Google y entonces uno de los programadores jefe del proyecto, nos cuenta hoy en Nature como nació la Internet cuando Charley Kline, un estudiante del Network Measurement Center de la Universidad de California, Los Angeles (UCLA), envió el primer mensaje desde un ordenador a otro utilizando la red ARPANET. El otro ordenador se encontraba a 500 km. en el Stanford Research Institute. Kline quería enviar la palabra “login” pero sólo logró teclear la “l” y la “o” momento en que ambas máquinas se colgaron. La red ARPANET es el gérmen de lo que hoy en día es la Internet. Un artículo muy emotivo que podréis leer en Vinton G. Cerf, “The day the Internet age began,” Nature 461:1202-1203, 29 October 2009.

A mitad de los 1960, Robert Taylor, director del Information Processing Techniques Office de la Advanced Research Projects Agency (entonces llamada ARPA, ahora llamada DARPA)  del departamento de Defensa de los EEUU lanzó  como proyecto experimental  el desarrollo de una red de comunicaciones basada en conmutación de paquetes. El proyecto fue liderado por Lawrence Roberts. El 2 de septiembre de 1969, el primer nodo de esta red fue instalado en el Network Measurement Center. El 29 de octubre Kline realizó su primer test del funcionamiento de esta red, que falló estrepitosamente. En diciembre de 1969 ya había 4 nodos de la ARPANET. Vinton G. Cerf era entonces uno de los programadores jefe que desarrollaron el software de comunicaciones para la Internet, programas para el acceso a ordenadores remotos, transferencia de ficheros entre ellos, correo electrónico, etc.

Robert Kahn de la compañía Bolt Beranek and Newman (BBN) encargada de diseñar los protocolos de comunicación (interfaces de procesado de mensajes les llamaban entonces) fue el encargado de la primera demostración pública de la ARPANET en la primera International Conference on Computer Communication, en Washington DC, octubre de 1972. Los programadores del Xerox Palo Alto Research Center decidieron desarrollar una red local de comuncaciones (LAN) inventando la Ethernet.

Kahn y Cerf colaboraron juntos en el desarrollo de un protocolo de control de la transmisión (transmission control protocol o TCP) y la arquitectura básica de la Internet. En septiembre de 1973 presentaron un artículo que se publicó en 1974 (V. Cerf, R. Kahn, “A Protocol for Packet Network Interconnection,”, IEEE Trans. on Communications 22: 637-648, May 1974, gratis aquí) que describía cómo interconectar un número arbitrariamente grande de redes de conmutación de paquetes y ordenadores conectados a ellas. Con financiación de la ARPA el nuevo protocolo empezó a ser implementado en 1975. En noviembre de 1977 se hizo un test en una red con tres concentradores (gateway). En 1978 estos protocolos y otros para e-mail, FTP y acceso remoto a terminales ya estaban completamente operativos en una primitiva Internet. El protocolo actualmente en uso, TCP/IP, fue implementado por primera vez en 1982.

En 1983 la red ARPANET fue dividida en dos redes, una militar MILNET, y otra civil (universidades, ONGs, centros de investigación y centros del gobierno). En 1986 se lanzó la red NSFNET de la National Science Foundation y en 1990 ARPANET oficialmente “murió.” Todos sus nodos y concentradores se incluyeron en la NSFNET. En 1995, NSFNET fue retirada ya que la Internet comercial ofrecía un servicio similar para la comunidad académica norteamericana a mucho menor coste. La Internet actual se “comió” a las redes que fueron sus “padres.”

Ni ARPANET ni Internet se desarrollaron para un propósito en particular. Eran redes abiertas a todo lo que se quisiera colgar en elllas. La filosofía de “la libertad ante todo” ha sido la clave del éxito de Internet.

PS (29 octubre 2009): El artículo de Miquel Barceló, “Internet, un proyecto militar fracasado. La conexión que supuso el inicio de la Red se logró, hoy hace 40 años, entre dos instituciones académicas de Estados Unidos,” El País, 29 otubre 2009, es el complemento ideal a lectura de esta entrada.

La velocidad máxima teórica de un ordenador se alcanzará dentro de 75 años

La ley de Moore afirma que casi cada 2 años se duplica la velocidad de procesamiento de información de los microprocesadores, los cerebros de los ordenadores. Así se ha cumplido en los últimos 40 años. Y seguirá cumpliéndose si nuevos “transistores cuánticos” sustituyen a los transistores actuales. ¿Hasta cuándo? ¿Hay algún límite teórico? Lev Levitin y Tommaso Toffoli de la Universidad de Boston, Massachusetts, EEUU, han refinado los límites teóricos actuales que dependen del tiempo mínimo que necesita una partícula para cambiar de un estado cuántico a otro. Este tiempo depende de la energía involucrada, lo que implica que existe un límite teórico máximo a la velocidad de procesamiento de un ordenador dependiendo de la cantidad de energía que utilice. Si la ley de Moore se sigue aplicando dicho límite indica que entre 75 y 80 años se alcanzará la velocidad máxima físicamente posible para el procesamiento de información (utilizando ordenadores cuánticos si es que llegan a construirse). Nos lo han contado en muchos foros, como “In 75 years will reach the maximum possible processing speed,” ntra-net, 16-10-2009, y en “Physics: Quantum speed limit,” Nature, Research Highlights, October 29, 2009. El artículo técnico es Lev B. Levitin, Tommaso Toffoli, “Fundamental Limit on the Rate of Quantum Dynamics: The Unified Bound Is Tight,” Phys. Rev. Lett. 103: 160502, 2009 [gratis en ArXiv].

Técnicamente los autores han unificado dos desigualdades ya conocidas. Por un lado, una desigualdad obtenida a partir de un resultado de Mandelstam y Tamm (1945), obtenida por Fleming (1973), Anandan y Aharonov (1990) y Vaidman (1992), que afirma que el mínimo tiempo \tau necesario para cambiar el estado cuántico de un sistema está acotado por \tau\geq h/(4\Delta E) donde (\Delta E)^2=\langle\psi|H^2|\psi\rangle - (\langle\psi|H|\psi\rangle)^2H es el hamiltoniano del sistema y |\psi\rangle su función de onda. Por otro lado, una desigualdad obtenida por Margolus y uno de los autores, Levitin, en 1998, dada por \tau\geq h/(4E) donde E=\langle\psi|H|\psi\rangle es la energía media del sistema cuántico (supuesto que el estado de menor energía tiene asignado un valor cero). Levitin y Toffoli en el nuevo artículo generalizan ambas desigualdades demostrando que

\tau_{\min} = \max \left\{ \frac{h}{4E},\frac{h}{4\Delta E}\right\},

donde \alpha = \frac{\Delta E}E. Esta desigualdad generaliza las dos anteriores de una forma aparentemente trivial, pero requiere un análisis cuidadoso. Para \alpha=1 las dos desigualdades anteriores coinciden entre sí. Para \alpha<1 han demostrado que para todo \epsilon>0 existe una familia  de estados |\psi(0)\rangle tales que \frac h{4\Delta E}<\tau\leq\frac h{4\Delta E}(1+\epsilon), y que para \alpha>1 existe una familia  de estados |\psi(0)\rangle tales que \frac h{4 E}<\tau\leq\frac h{4 E}(1+\epsilon). Esto completa el círculo y muestra que la nueva desigualdad comprende a los dos anteriores como casos particulares y las unifica.

Un transistor monomolecular basado en el fulereno C60 y electrodos superconductores

Dibujo20091028_Colored_SEM_image_Schematics_capacitive_tunnel_couplings_Differential_conductance_maps_spectroscopic_gap_on_critical_field

La escala de integración más alta posible para un transistor es utilizar una única molécula. El problema de este tipo de transistores monomoleculares es la presencia de estados cuánticos espurios para la conductancia que penalizan su funcionamiento. Una manera de evitar estos efectos es utilizar contactos superconductores. Investigadores franceses han logrado el primer transistor monomolecular fiable basado en una molécula del fulereno C60 entre dos electrodos de Alumino/Oro cuyo único inconveniente es que funciona a una temperatura por debajo de 1 Kelvin. El artículo técnico es Clemens B. Winkelmann, Nicolas Roch, Wolfgang Wernsdorfer, Vincent Bouchiat, Franck Balestro, “Superconductivity in a single-C60 transistor,” Nature Physics, Published online 25 October 2009 [versión gratis en ArXiv, que no incluye la información suplementaria disponible aquí].

La simulación eficiente del modelo de Hubbard para los electrones en un sólido implicará la igualdad de las clases de complejidad P=NP=QMA

Dibujo20091028_currently_complexity_classes_inclusions_P_NP_QMA_NP-hard_QMA-hard

Las clases de complejidad clásicas y cuánticas se relacionan entre sí de una forma complicada que todavía no conocemos en detalle y por ahora todo son hipótesis. Las clases P y BQP son las clases de problemas resolubles de forma eficiente (polinómica) en ordenadores clásicos y cuánticos, resp. Las clases NP y QMA contienen los problemas de decisión que creemos que son más difíciles para ordenadores clásicos y cuánticos, resp., para los que existen algoritmos eficientes, clásicos y cuánticos, resp.,  que permiten decidir si una solución es correcta o no. Un artículo reciente en Nature Physics ha demostrado que las clases QMA, NP y P colapsarían (serían iguales entre sí), resolviendo la conjetura P versus NP con una igualdad, si se puede resolver de forma eficiente la simulación de sistemas cuánticos descritos por la teoría del funcional densidad (DFT). Por ejemplo, si un modelo concreto, el modelo cuántico de Hubbard, se puede simular en tiempo polinómico. Nadie cree que esto sea posible, pero carecemos de una demostración, todavía. Nos lo cuenta el experto en la teoría de la complejidad cuántica Scott Aaronson, “Computational complexity: Why quantum chemistry is hard,” Nature Physics 5: 707-708, 2009, haciéndose eco del artículo técnico de Norbert Schuch & Frank Verstraete, “Computational complexity of interacting electrons and fundamental limitations of density functional theory,” Nature Physics 5: 732-735, 2009.

La clase de complejidad del Protocolo Merlín-Arturo (MA) es la clase de problemas de decisión resolubles por el protocolo siguiente. Merlín tiene  recursos computacionales ilimitados y envía a Arturo una demostración de tamaño polinómico que prueba que la respuesta es “sí.” Arturo puede verificar dicha prueba en la clase BPP (en tiempo polinómico con un algoritmo probabilístico). Si la respuesta es “sí” existe una demostración que Arturo aceptará como correcta con una probabilidad mayor que 2/3 y si la respuesta es “no” todas las demostraciones serán aceptadas por Arturo con una probabilidad menor que 1/3.

La clase de complejidad cuántica del Protocolo Merlín-Arturo (QMA) es la versión cuántica de MA y corresponde a un Merlín que envía una mensaje con una prueba cuántica que Arturo puede verificar en la clase BQP (en tiempo polinómico utilizando un algoritmo cuántico). Si la respuesta es “sí” existe un estado cuántico (demostración) que Arturo aceptará como correcta con una probabilidad mayor que 2/3 y si la respuesta es “no” todos los estados (demostraciones) serán rechazados por Arturo con un probabilidad mayor que 2/3.

El modelo de Hubbard describe un gas de electrones fuertemente acoplados por potenciales de Coulomb en la retícula de un sólido y permite comprender la transición entre un material conductor y uno aislante. La técnica matemática más utilizada para simular este modelo físico es la llamada teoría del funcional densidad (density functional theory). El nuevo artículo demuestra que si dicho problema se puede simular de forma eficiente, las clases de complejidad QMA y P serán iguales. Esto implica un gran avance en dos frentes. Por un lado, en la propia teoría de la complejidad de algoritmos cuánticos. Y por otro lado, impone un límite fundamental a la propia teoría del funcional densidad ya que una demostración de que P =!= NP (lo que todo el mundo cree) implicaría que nunca podremos simular eficientemente problemas “aparentemente” tan sencillos como el modelo de Hubbard incluso utilizando ordenadores cuánticos.

Esto sorprenderá a muchos ya que la mayoría pensaba que la utilidad más importante de los ordenadores cuánticos (cuando los haya) será la simulación de sistemas cuánticos. Pero si un sistema cuántico tan sencillo como el modelo de Hubbard es tan complejo de simular en un ordenador cuántico como en uno clásico, dicha ventaja se cae por su propio peso. Los avances en computación cuántica no cesan y cada día nos sorprenden más a los que somos aficionados a este “arte,” a esta ciencia.

Adán Cabello de la Universidad de Sevilla concluye que el entrelazamiento cuántico no es necesario para la computación cuántica

Dibujo20091027_9_observables_and_6_measurement_contexts_or_settings_for_verification_kochen_Specker_theorem

La mecánica cuántica ofrece resultados estadísticos para los posibles resultados de una medida. ¿Tienen los sistemas cuánticos valores definidos para ciertos parámetros que nos son ocultos tales que el resultado de la medida es una observación de dichos valores? Es decir, ¿podría existir una descripción estadística subyacente a la mecánica cuántica, digamos una teoría de variables ocultas TVO? No. Todos los experimentos realizados hasta el momento demuestran que no es así. No hay una “realidad” subyacente a la mecánica cuántica. El realismo es la hipótesis que afirma que lo que existe en el mundo físico tiene propiedades que son independientes de la existencia de algún observador que las observe. Filosóficamente la mecánica cuántica no es realista. A muchos no les gusta porque es como si la “realidad” no existiera y se fuera construyendo conforme un observador la va observando.

Hay básicamente dos (tipos de) teoremas que han sido verificados experimentalmente y que demuestran estos hechos. Por un lado, el teorema de Bell, que afirma que dicha TVO no puede ser local (debe permitir viajar más rápido que la velocidad de la luz). Por otro lado, el teorema de Kochen-Specker, que afirma que la mecánica cuántica es contextual, el valor observado depende de cómo sea observado. En una teoría de variables ocultas no contextual, un sistema cuántico tendría una propiedad (un valor para un observable) independiente de cómo dicho valor vaya a ser medido (el contexto de la medida). Las propiedades de un sistema cuántico serían independientes del observador. La evidencia experimental de que la mecánica cuántica es contextual es muy fuerte.

En España tenemos a un experto mundial en este campo (la verificación experimental de los teoremas de Kochen-Specker), el físico español Adán Cabello, catedrático de la Universidad de Sevilla. Recientemente ha publicado un espectacular artículo en PRL (el cuarto en lo que va de año) que merece toda nuestra atención Elias Amselem, Magnus Rådmark, Mohamed Bourennane, Adán Cabello, “State-Independent Quantum Contextuality with Single Photons,” Phys. Rev. Lett. 103: 160405, 2009 [ArXiv preprint]. Pero Adán no sólo se conforma con publicar en PRL, este artículo es una secuela de un artículo previamente publicado en la mismísima Nature también este año, G. Kirchmair, F. Zähringer, R. Gerritsma, M. Kleinmann, O. Gühne, A. Cabello, R. Blatt, C. F. Roos, “State-independent experimental test of quantum contextuality,” Nature 460: 494-497, 23 July 2009 [ArXiv preprint]. He de quitarme la espinita que tengo clavada por no haber tenido tiempo en agosto de comentaros este último artículo.  Así que el nuevo PRL es una magnífica oportunidad para ello. Por cierto, este año Adán está “sembrado,” ya lleva 16 artículos en el ArXiv

El artículo de Nature presenta un experimento realizado en Innsbruck (Austria), demostraba la validez del teorema de Kochen-Specker para el entrelazamiento de pares de átomos. El nuevo artículo en PRL presenta un experimento realizado en Estocolmo (Suecia) que demuestra dicho teorema para un único fotón. No es necesario recurrir al entrelazamiento (como de hecho así ocurre en la demostración matemática) para verificar el teorema de Kochen-Sopecker. Sea cual sea el estado inicial de los fotones, hay 9 observables (medidas) combinadas de 6 formas distintas (contextos de medida) cuyos resultados concuerdan con lo esperado según la no contextualidad de la mecánica cuántica, violando, haciendo la media para los diferentes contextos, unas 655 desviaciones típicas el resultado esperado para una teoría de variables ocultas contextual (en uno de los casos la violación alcanza 1509 desviaciones típicas).

Dibujo20091027_single_photon_source_and_paths_after_beam_splitterLa figura que abre esta entrada muestra los 9 observables y los 6 contextos de medida estudiados. Como sistema cuántico han utilizado un solo fotón que almacena dos cubits de información cuántica. El primer cubit (s en la figura) está codificado por el camino que recorre el fotón tras atravesar un divisor de haz (beam splitter o BS en la figura), el rombo en las figuras, siendo los dos estados posibles (|0> y |1> del cubit) el camino reflejado y el transmitido (r y t en la figura). El segundo cubit es la polarización (p en la figura), siendo los dos estados posibles las polarizaciones horizontal y vertical (H y V en la figura).

Sin entrar en más detalles técnicos, hay que destacar que los resultados experimentales de Adán y sus colaboradores muestran que la violación por parte de la mecánica cuántica del teorema de Kochen-Specker se da incluso para los sistemas cuánticos más simples, sin necesidad de requerir el entrelazamiendo cuántico. Un único fotón permite observalo. Más aún, la violación se ha observado incluso para estados cuánticos con mezcla máxima, usualmente considerados estados “clásicos.” Adán Cabello interpreta sus resultados como que el entrelazamiento no es la característica de la física cuántica que la diferencia de la física clásica. El entrelazamiento cuántico no es el único recurso para el procesamiento de la información cuántica. Un uso adecuado del contexto de la medida permite aprovechar las ventajas de los ordenadores cuánticos. Si gracias a este resultado se desarrollan puertas lógicas cuánticas más sencillas, este artículo habrá sido un gran paso hacia los ordenadores cuánticos en el futuro.

¡Partículas de nuevo recorriendo parte del túnel del LHC este fin de semana pasado!

El fin de semana pasado (23-25 de octubre) haces de partículas han recorrido de nuevo el túnel del LHC (aunque sin lograr una vuelta completa) tras un descanso de un año debido al incidente de septiembre de 2008. Los haces de partículas han sido generados en el Super Sincrotón de Protones (SPS) del CERN. El viernes por la tarde se introdujo en el LHC un haz de iones de plomo que fue guiado con éxito hasta alcanzar el detector ALICE y más tarde, por la noche, hizo lo propio un haz de protones. El sábado por la tarde, otro haz de protones recorrió el túnel hasta alcanzar el detector LHCb. Todos los indicadores han mostrado que la máquina funciona perfectamente. En las próximas semanas nuevos haces de partículas recorrerán el túnel completo. Nos lo ha contado el servicio de noticias del CERN “Particles are back in the LHC!,” CERN News, 26 October 2009. Se han hecho eco varios foros como “Beam is back in the LHC,” Symmetry Breaking, October 26, 2009, y “Beam particles re-enter the LHC,” Physics Today, October 26, 2009. Las noticias están ilustradas con la imagen del haz de iones de plomo justo antes de entrar en ALICE.

La teoría de las cascadas de bifurcaciones de periodo doble: Rutas genéricas para la aparición del caos determinista

Dibujo20091026_attracting_set_logistic_map_with_infinitely-many_cascades_each_with_period-doubling_bifurcations_shown_as_black_curves_for_periods_up_to_six

Una ruta hacia el caos es un mecanismo por el cual un sistema dinámico con un parámetro pasa de un estado no caótico a un estado caótico determinista conforme varía dicho parámetro. La ruta hacia el caos más famosa es una cascada de bifurcaciones de periodo doble. Se conocen muchos ejemplos pero no hay una teoría genérica sobre este tipo de rutas. Sander y Yorke nos presentan el nacimiento de dicha teoría, la  Teoría de las Cascadas de Periodo Doble, en un artículo que acabará siendo publicado en PRL (tiempo al tiempo). Habitualmente un sistema dinámico que presenta una cascada de este tipo presenta también infinitas más. Sander y Yorke lo demuestran en dimensión 1 y 2 y lo conjeturan en dimensión arbitraria. Hay que recordar que el caos no se da en sistemas dinámicos continuos (ecuaciones diferenciales ordinarias) en dichas dimensiones, pero sí en los discretos (aplicaciones o maps, en inglés). Aunque los autores no lo conjeturan explícitamente en su artículo, parece cantado conjeturar dicho resultado también en dimensión mayor de 2. El artículo técnico es Evelyn Sander, James A. Yorke, “The cascades route to chaos,” ArXiv, Submitted on 19 Oct 2009.

En la figura que abre esta entrada se presenta el diagrama de bifurcaciones de la aplicación logística. Conforme mu crece acercándose a un punto de acumulación en 3,5699457… se observa una sucesión infinita de bifurcaciones de periodo doble, que duplica el número de órbitas periódicas de periodo par hasta alcanzar virtualmente un valor infinito, tras el cual aparece una ventana con un periodo impar. La más curiosa de estas ventanas es la ventana de periodo 3 que aparece alrededor de 3,8284… Este comportamiento es bastante genérico y se observa en gran número de modelos discretos con aplicaciones prácticas.

Sander y Yorke han demostrado (en dimensión 1 (como la aplicación logística) y 2) que en un sistema discreto que presenta una cascada de bifurcaciones de doble periodo toda órbita periódica es parte de una cascada, luego hay siempre infinitas cascadas en un sistema caótico. Este comportamiento es genérico bajo hipótesis muy generales en el sistema discreto. Por ejemplo, si un sistema presenta sólo un número finito de cascadas (y cumple las condiciones del teorema), entonces no es caótico. Los resultados de Sande y Yorke muestran que las cascadas de doble periodo son tan fundamentales como las órbitas periódicas. En este sentido este artículo presenta el primer gran resultado de la teoría de las cascadas de doble periodo a la que desde este blog le auguramos un sustancioso futuro.