IV Carnaval de Matemáticas: Homología, redes de sensores inalámbricos y otras aplicaciones de la topología algebraica

Esta semana se celebran dos eventos en paralelo que no puedo obviar correlacionar entre sí. Por un lado, la IV Edición del Carnaval de Matemáticas, cuyo anfitrión es el blog Zurditorium (ya he escrito una entrada). Y por otro lado, la celebración en Málaga de la “Spring School on Applied and Toric Topology,” del 10 al 14 de mayo de 2010, organizada por la Red Española de Topología, que incluye un curso interesantísimo del genial Robert Ghrist, “Applications of algebraic topology to science and engineering,” que nos presenta aplicaciones de la topología en robótica, teoría de redes, procesamiento de señales, etc. Voy a destacar una de ellas, donde Ghrist ha hecho importantes contribuciones, la aplicación de la homología al diseño de redes de sensores inalámbricos y antenas de telefonía móvil.

Para muchos, la topología es la rama de las matemáticas más alejada de las aplicaciones prácticas. Nada más lejos de la realidad, tiene múltiples aplicaciones en ciencia e ingeniería, incluso aplicaciones industriales. Para la mayoría de los lectores de este blog, “homología” es un “palabro” excesivamente técnico, sin significado alguno. La homología es una rama de la topología algebraica. La topología algebraica utiliza herramientas del álgebra (básicamente grupos) para estudiar las propiedades de espacios topológicos (superficies e hipersuperficies en varias dimensiones). Por ejemplo, la clasificación de todas las superficies (bidimensionales) cerradas que se pueden sumergir en un espacio de tres dimensiones se puede realizar en base al número de agujeros que presentan, un resultado clásico y ampliamente conocido de la topología algebraica (obtenido en el s. XIX). Las superficies son topológicamente equivalentes a una esfera (no tiene agujeros), a un donut (tiene un agujero), a un doble toro (tiene dos agujeros), etc. El proceso de contar los agujeros de una superficie es una asignación de una propiedad algebraica a la superficie. La homología utiliza las herramientas del álgebra homológica para asociar una sucesión de grupos abelianos a un objeto matemático dado, por ejemplo, una superficie. Los grupos de homología permiten calcular muchas propiedades de un espacio topológico (superficie), que a veces lo caracterizan completamente o al menos ayudan a clasificarlo.

La homología más famosa y utilizada es la homología simplicial, que asocia una malla triangular a una superficie (una malla de n-símplices a una n-hipersuperficie). La homología simplicial permite generalizar el famoso teorema de la característica de Euler a hipersuperficies. En tres dimensiones, para una superficie con dos dimensiones, la característica de Euler-Poincaré es un invariante topológico que se calcula mediante χ = CA + V donde C, A y V son los números de caras, de aristas y de vértices, respectivamente, de la triangulación (en el caso más sencillo de un poliedro, o politopo en n dimensiones). Si el poliedro no tiene agujeros, es decir, es topológicamente equivalente (u homeomorfo) a una esfera, tenemos que χ(S²) = CA + V = 2 (que es la famosa fórmula de Euler). Por ejemplo, para un cubo tenemos 6 – 12 + 8 = 2, o para un tetraedro tenemos 4 – 6 + 4 = 2. La característica de Euler-Poincaré es aplicable a cualquier triangulación de una superficie y nos permite simplemente contando (caras, aristas, y vértices) determinar si dos superficies son equivalentes entre sí o no.

Los elementos de una triangulación de una superficie (vértices, aristas y caras) están relacionados entre sí por la operación “ser borde de” de tal forma que los bordes de las caras son aristas y los bordes de las aristas son vértices. Este procedimiento define un complejo de cadenas donde el conjunto vacío es borde del espacio de todos los vértices, que son borde del espacio de todas las aristas, que son borde del espacio de todos las caras. Los grupos de homología se definen a partir de estos complejos de cadena, asociando un grupo a cada operación “ser borde de” y gracias a la propiedad de que el borde de un borde es el conjunto vacío. Sin entrar en detalles matemáticos basta pensar un poco para generalizar este procedimiento a “triangulaciones” de superficies en 3D basadas en tetraedros y en general en n dimensiones basadas en n-símplices (el análogo n-dimensional de un tetraedro). Una superficie se caracteriza homológicamente describiendo la sucesión de los grupos de homología de sus triangulaciones. Lo sorprendente es que estos grupos de homología no dependen de la triangulación concreta utilizada para calcularlos sino de las propiedades topológicas de la superficie misma. En este sentido los grupos de homologías son fáciles de calcular. Por todo ello son una herramienta muy poderosa para describir las propiedades topológicas de una superficie lo que los hace muy útiles en la práctica.

Un sensor es un dispositivo que mide alguna característica de un entorno, retornando información sobre ella. Para explorar con detalle un entorno podemos utilizar pocos sensores muy complejos y costosos, o utilizar muchos sensores muy sencillos y baratos. La segunda opción es la preferida en la actualidad, pero requiere resolver el problema de integrar la información “local” de cada sensor en una representación “global” del entorno. El cuerpo humano contiene varios ejemplos de sistemas (o redes) de sensores, por ejemplo, la retina de nuestros ojos que está formada por células fotosensibles (sensores) de tipo cono y bastón, que se conectan gracias a neuronas (nervios) con el cerebro. Somos capaces de ver gracias a que el cerebro es capaz de integrar la información individual de cada cono y bastón obteniendo una representación abstracta de nuestro entorno (que elimina puntos ciegos, pero que sufre ciertas paradojas visuales).

Las técnicas matemáticas necesarias para analizar una red de sensores e integrar la información que proveen en una representación abstracta del entorno requieren realizar una transición entre información local y global. Esta transición es lo que logra la homología (simplicial) con una triangulación de una superficie, transformando números de vértices, aristas y caras (propiedades de carácter local) en propiedades globales (como ser equivalente a una esfera o a un dónut, o el número de agujeros que tiene la superficie). Pongamos un ejemplo, el problema de la cobertura en una red de sensores. Cada sensor recibe información de un región a su alrededor, supongamos que es un círculo de cierto radio. Queremos recibir información de una región grande. ¿Cúantos sensores necesitamos? ¿Cómo hay que distribuirlos para garantizar que no haya huecos sin cubrir? ¿Cómo podemos diseñar esta red de tal forma que sea robusta a los fallos en algunos sensores? Estos problemas se pueden describir matemáticamente como problemas homológicos en redes y grafos, lo que permite diseñar algoritmos por ordenador eficientes para su resolución que se apoyan en las herramientas de la homología.

¿Realmente son necesarias estas técnicas matemáticas? La mayoría de los ingenieros pensará que no, que tener que aprender topología algebraica para resolver este tipo de problemas no merece la pena. Sin embargo, la homología tiene varias ventajas relacionadas con el análisis matemático del algoritmo que se utilice. Las herramientas topológicas son muy abstractas pero permiten realizar cálculos matemáticos, como determinar la complejidad computacional de un algoritmo, que sin ellas se tornan muy difíciles. Un ingeniero puede diseñar un algoritmo que parece eficiente, pero un topológo (o un ingeniero con conocimientos de topología) puede llegar a demostrar que el algoritmo es eficiente. Por supuesto, hoy en día, este trabajo está más en manos de los topólogos que de los ingenieros, limitándose estos últimos ha “copiar y usar” el algoritmo eficiente descubierto por los primeros, sin preocuparse por más detales. Aún así, como estos algoritmos utilizan el lenguaje de la homología, el ingeniero se ve obligado a aprender dicho lenguaje para poder entenderlo y aprovecharse de todas sus ventajas.

Ya hay algoritmos eficientes para muchos problemas, como el problema de la cobertura. Todos hemos padecido el problema de que nuestro teléfono móvil se quede sin cobertura. Las antenas de los móviles que son instaladas en el tejado de ciertos edificios de nuestras ciudades, tienen un cono de cobertura (en función de la potencia que pueden radiar). Nuestro teléfono móvil tiene cobertura si es capaz de alcanzar (“ver” o “sentir”) al menos una de las antenas que se encuentran en su entorno. Las antenas se diseñan de forma estática para garantizar que la cobertura de una cierta región sea completa (no haya “agujeros” sin cobertura). Este diseño es costoso pero se realiza solamente una vez. Los algoritmos utilizados no pueden ser usados de forma eficiente para el diseño de una red de sensores inalámbricos, en la que los pequeños sensores se comunican los unos con los otros y transmiten así la información que obtienen del entorno a través de la red hasta alcanzar un punto en el que es almacenada y procesada. Los algoritmos de comunicación han de ser muy eficientes y al mismo tiempo poco costosos. Por ello, los ingenieros tienen que lidiar con las herramientas matemáticas más avanzadas para poder utilizar los mejores algoritmos disponibles. Hay muchos problemas que le quitarían el sueño a un ingeniero, como las redes de sensores dinámicas, en la que los pequeños sensores son móviles, o las redes de sensores en entornos agresivos que provocan fallos reiterados en muchos de los sensores. Para estos problemas los topólogos algebraicos (computacionales) están diseñado nuevos algoritmos eficientes. Lo abstracto, aún lo más abstracto, acaba siendo útil, siempre.

Los interesados en más detalles disfrutarán del artículo de Vin de Silva y Robert Ghrist, “Homological Sensor Networks,” Notices of the AMS 54: 10-17, January 2007. También os recomiendo el breve apunte de Barry A. Cipra, “Homology:An IdeaWhose Time Has Come,” SIAM News 42, December 2009. Para los amantes de cosas un poco más técnicas recomiendo los artículos de Vin de Silva, Robert Ghrist, Abubakr Muhammad, “Blind Swarms for Coverage in 2-D,” y de Erin W. Chambers, Vin de Silva, Jeff Erickson, Robert Ghrist, “Rips Complexes of Planar Point Sets.” Además, podéis buscar los artículos de Ghrist en ArXiv.

IV Carnaval de Matemáticas: Demostrada la existencia y unicidad de soluciones clásicas de la ecuación de Boltzmann tras 140 años de intentos fallidos

Demostrar la existencia y unicidad de soluciones de una ecuación en derivadas parciales no lineal no es fácil, pero es uno de los logros más perseguidos por muchos analistas (matemáticos que se dedican al análisis matemático). Para las ecuaciones más famosas, ampliamente usadas en física, este tipo de demostración copa titulares en prensa y conlleva premios y fama. Sin embargo, para la mayoría de los físicos que usan dichas ecuaciones, este tipo de demostraciones tiene poco valor y aportan muy poco en la práctica. La ecuación de los gases diluidos introducida por Boltzmann en 1872 es una de estas ecuaciones. Boltzmann “demostró” de forma no rigurosa la existencia de soluciones. Para los físicos es suficiente, pero para los matemáticos su demostración no tiene valor alguno pues nadie ha sabido obtener una versión rigurosa de sus argumentos que convierta su “idea de demostración” en una demostración de verdad. El problema no es fácil.

En 1933, Carleman probó la existencia y unicidad de soluciones con simetría radial y coeficientes constantes. Ukai generalizó dicho trabajo en 1974 a coeficientes no constantes. Illner y Shinbrot (1984), DiPerna y Lions (1989), Alexandre y Villani (2002), Guo (2003) y Liu, Yang y Yu (2004), entre otros, hicieron avances importantes (lograron demostraciones rigurosas en ciertos casos particulares). Hoy he visto en Menéame que la demostración general finalmente ha sido lograda por dos matemáticos de la Universidad de Pennsylvania, Philip T. Gressman y Robert M. Strain, noticia que ha llegado a los medios gracias a su publicación (en forma resumida) en PNAS (Proceedings of the National Academy of Sciences). La noticia de Jordan Reese, “Mathematicians Solve 140-Year-Old Boltzmann Equation,” News & Communications, University of Pennsylvania, May 12, 2010, nos dirige al artículo de Philip T. Gressman y Robert M. Strain, “Global classical solutions of the Boltzmann equation with long-range interactions,” PNAS 107: 5744-5749, March 30, 2010, artículo de 6 páginas a doble columna que resume las 80 páginas de la demostración, que se encuentra en detalle en Philip T. Gressman, Robert M. Strain, “Global Strong Solutions of the Boltzmann Equation without Angular Cut-off,” ArXiv, 4 Dec 2009, y “Global Classical Solutions of the Boltzmann Equation with Long-Range Interactions and Soft Potentials,” ArXiv, 18 Feb 2010. Un caso particular de este teorema ha sido demostrado de forma independiente en Radjesvarane Alexandre, Y. Morimoto, Seiji Ukai, Chao-Jiang Xu, Tong Yang, “The Boltzmann equation without angular cutoff. Global existence and full regularity of the Boltzmann equation without angular cutoff. Part I : Maxwellian case and small singularity,” ArXiv, 8 Dec 2009, quienes a posteriori también han generalizado su demostración.

La ecuación de Boltzmann es clave en la teoría cinética de los gases y describe como un gas (una distribución arbitraria de moléculas cada con una posición y velocidad dadas y que pueden colisionar entre sí de forma elástica) evoluciona hacia un estado de equilibrio que corresponde a un gas ideal. Sin entrar en detalles técnicos, ni de física estadística ni de matemáticas, la ecuación de Boltzmann describe la densidad de partículas en un gas diluido e incluye un término que depende del modelo utilizado para las colisiones entre partículas. Este modelo utiliza un potencial (con simetría esférica) repulsivo que da cuenta del cambio en la velocidad de las moléculas tras cada colisión intermolecular. Lo habitual es utilizar un potencial de tipo Maxwell (1866) que depende de la distancia entre moléculas de la forma r^{-(p-1)}, con p>2

Para demostrar la existencia y unicidad de las soluciones hay que demostrar que una condición inicial suficientemente general para el gas evoluciona gracias a la ecuación de Boltzmann sin producir ningún tipo de singularidad que provoque que la solución se vuelva infinita en un tiempo finito, que la solución explote (técnicamente se usa el término blow up). De esta forma se demustra que toda condición inicial arbitraria (suficientemente regular, diría un matemático) evoluciona hacia un estado de equilibrio. Gressman y Strain han demostrado la existencia y unicidad de soluciones de la ecuación de Boltzmann utilizando técnicas de análisis armónico y de ecuaciones en derivadas parciales no lineales. No han sido los únicos, ya que Alexandre et al. lo han logrado para el caso particular p=5, demostración que utiliza otras herramientas diferentes y que, parece ser, han podido generalizar (aunque a posteriori de la demostración de Gressman y Strain). En ambas demostraciones el teorema H de Boltzmann, que él utilizó para su “demostración” no rigurosa, ha sido clave, pero las herramientas matemáticas utilizadas son modernas (desarrolladas en los últimos 50 años).

Esta entrada es mi participación en la IV Edición del Carnaval de Matemáticas, cuyo anfitrión es el blog Zurditorium. Quizás es más técnica de lo necesario. Tengo un borrador de una entrada más divulgativa, pero no sé si podré tenerla a tiempo para la fecha tope, este domingo.

Publicado en Science: Las aves fósiles Archaeopteryx y Confuciusornis no eran capaces de volar

Las aves fósiles Archaeopteryx (145 Ma., jurásico tardío), y Confuciusornis (120 Ma., cretácico temprano) tenían alas emplumadas parecidas a las de las aves que viven en la actualidad, sin embargo, sus capacidades de vuelo todavía siguen siendo inciertas. Un análisis publicado en Science sugiere que los raquis de sus plumas primarias eran mucho más delgadas y débiles que las de las aves modernas, por lo que sugiere que dichas aves no eran capaces de volar. Os recuerdo que el  cañón o raquis de una pluma típica es la parte central que le sirve de eje y tiene el aspecto de una caña hueca. El raquis es fundamental para dar rigidez a la pluma y mantenerla firme. Un raquis demasiado débil sugiere que las plumas no pueden ser utilizadas para volar, ni batiendo las alas, ni planeando, pues se romperían debido a la fuerza de sustentación. La única posibilidad de que Archaeopteryx y Confuciusornis pudieran volar sería que los raquis de sus plumas primarias tuvieran una sección transversal sólida y no hueca con como en las aves modernas. Este estudio complementa a estudios anteriores que habían mostrado que las alas de estas aves fósiles sí eran capaces de generar una fuerza de sustentación aerodinámica suficiente para permitirles volar. El nuevo estudio sugiere que las primeras aves que fueron capaces de volar divergieron de los Confuciusornis durante el cretácico. El resultado más importante del artículo técnico de Robert L. Nudds, Gareth J. Dyke, “Narrow Primary Feather Rachises in Confuciusornis and Archaeopteryx Suggest Poor Flight Ability,” Science 328: 887-889, 14 May 2010, es la tabla que os presento más abajo en la que se compara el momento (de fuerza) de fractura de las plumas principales con el momento de sustentación de las alas de varias aves fósiles, mostrando que muchas de ellas deberían partirse en vuelo.

PS: La noticia “Las primeras aves, torpes como un pavo,” ABC.es, 13 mayo 2010, incluye una bonita imagen de Todd Marshall de la reconstrucción de un Archaeopteryx [visto en Menéame].

Publicado en Science: El experimento del gato de Schrödinger implementado en un interferómetro de Mach-Zehnder con estados NOON de 5 fotones entrelazados y sus implicaciones en la detección de ondas gravitatorias

El famoso experimento mental del gato de Schrödinger puede ser implementado en la práctica utilizando sistemas cuánticos con múltiples partículas. Con fotones se pueden usar estados NOON, estados entrelazados de N fotones en los que cada fotón puede estar en dos posibles estados. Puede parecer sorprendente, pero el récord actual se acaba de publicar en Science.Afek et al. han logrado implementar este experimento con un estado NOON de cinco fotones. ¿Sólo cinco fotones? Sí, todo un logro, ya que implementar este tipo de experimentos con más de tres fotones es muy difícil. ¿Para qué sirve lograrlo? Tiene múltiples aplicaciones en interferometría óptica, como en detectores de ondas gravitatorias. Sanders introdujo en 1989 los estados NOON como modelo óptico de un gato de Schrödinger y cómo podrían ser implementados utilizando los dos brazos de un interferómetro. Cada fotón puede estar en uno u otro brazo, cada uno representando uno de sus dos posibles estados cuánticos. En el año 2000 se lograron estados NOON con 2 fotones, en 2008 se lograron estados NOON con 4 fotones, y ahora Afek et al. alcanzan estados NOON con 5 fotones. ¿Un avance parco? Quizás no, ya que Afek et al. proclaman, pero no demuestran, que su experimento es escalable y que próximamente podrán incrementar dicho número. ¿Hasta dónde? Por ahora no lo saben. Afek et al. han utilizado un interferómetro de Mach-Zehnder (matemáticamente equivalente al famoso interferómetro de Michelson-Morley). ¿Por qué se publica en Science este avance? Porque fabricar estados NOON con más de 3 fotones y una fidelidad próxima al 100% es muy difícil. La novedad de Afek et al. es que han utilizado fotones “comprimidos” (squeezed) y que su resultado implica que los efectos cuánticos permiten mejorar la sensibilidad de los detectores de ondas gravitatorias, como LIGO (Laser Interferometer Gravitational Wave Observatory), si se substituyen los interferómetros láser tipo Michelson-Morley por interferómetros tipo Mach-Zehnder. Además, se necesitan detectores de fotones individuales de gran eficiencia (actualmente los mejores son capaces de detectar hasta 20 fotones con una eficiencia mayor del 95%). El trabajo de Afek et al. nos muestra lo entrelazada que está la física cuántica con la física clásica, cómo los avances en física cuántica tienen implicaciones prácticas en física clásica, como la teoría general de la relatividad de Einstein. Nos lo cuenta Christoph Wildfeuer, “Managing Multistate Quantum Entanglement,” Science 328: 835-836, 14 May 2010, haciéndose eco del artículo técnico de Itai Afek, Oron Ambar, Yaron Silberberg, “High-NOON States by Mixing Quantum and Classical Light,” Science 328: 879-881, 14 May 2010.

PS: La noticia de Clay Dillow, “New Method Lets Researchers Entangle Five Photons For the First Time, and That’s Just the Start,” Popular Science, 13 may 2010, ha sido meneada por mezvan, aunque con un titular no muy acertado.

BodyLab está realizando una encuesta por internet para determinar el cuerpo diez tanto de hombre como de mujer

BodyLab está realizando una estadística por internet para determinar el cuerpo diez, el más atractivo, tanto de mujer como de hombre. Es una encuesta anónima, si te apetece sigue el siguiente enlace. Podrás comprobar tus preferencias sobre el cuerpo de un hombre/mujer relativas a las preferencias de la media (hasta el momento en que realices la encuesta). El proceso es simple, das tu edad, sexo y preferencias sexuales y te mostrarán una serie de imágenes como la de arriba, que tendrás que calificar con un grado de atractivo para tí en una escala de -3 a +3. Visto en “Shape of Things To Come?,” Science 328: 797, 14 May 2010.