Posible detección de dos partículas de materia oscura en el experimento francés EDELWEISS-II

Las partículas WIMP son un firme candidato a materia oscura y el experimento EDELWEISS-II del Laboratorio Subterráneo de Modane (Francia) ha publicado sus resultados finales de su búsqueda directa: tras 14 meses de operación continua han observado 5 candidatos, cuando se esperaba observar sólo 3. ¿Han observado dos partículas WIMP? La significación estadística de este resultado todavía no es suficiente para proclamar un descubrimiento, más aún porque el año pasado CDMS anunció la observación de otras dos WIMP que no corresponden a estas dos nuevas (la energía de retroceso de los núcleos para las de CDMS fue de 12 y 15 keV, pero las de EDELWEISS tienen energía mayor de 20 keV); tampoco coinciden con ninguno de los 3 eventos observados a finales del año pasado por CDMS II. Os recuerdo que EDELWEISS-II está compuesta de una serie de 10 detectores criogénicos cada uno con 400 gramos de germanio. Se espera mejorar este detector este año pasando de 400 a 800 gramos e introduciendo barreras adicionales que reduzcan el posible ruido de fondo (se han observado eventos espurios debidos a una contaminación por polonio en uno de los materiales de protección del experimento). ¡Habrá que estar al tanto de EDELWEISS en los próximos años! El artículo técnico para los interesados en los detalles es EDELWEISS Collaboration, “Final results of the EDELWEISS-II WIMP search using a 4-kg array of cryogenic germanium detectors with interleaved electrodes,” ArXiv, 21 Mar 2011. Recomiendo la lectura de Eugenie Samuel Reich, “Dark matter signal sparks interest, but falls short of discovery,” The Great Beyond, March 24, 2011.

Posible detección de radiactividad de Fukushima en la Universidad de Washington (Seattle, EE.UU.)

Físicos nucleares norteamericanos de la Universidad de Washington en Seattle (Estado de Washington, Costa Oeste de EE.UU.) afirman que han detectado trazas de la radiactividad originada en la central nuclear de Fukushima. La figura compara el espectro observado en filtros de aire en su universidad los días 16-17 de marzo (rojo) y los días 17-18 de marzo (azul) que muestran un pico muy claro asociado al isótopo 131 del yodo y otros picos asociados a los isótopos 132 del yodo, 132 del telurio, 134 del cesio y 137 del cesio. La actividad más alta detectada ha sido la del yodo 131 con 32 mBq/m³ (milibecquerelios por metro cúbico), es decir, una desintegración nuclear cada 32 segundos en cada metro cúbico de aire. Una cantidad muy pequeña (casi ridícula) de radiactividad (100 veces por debajo del límite legal de 3’7 Bq/m³ según la EPA, Environmental Protection Agency), que se ha podido medir gracias a que los detectores de radiactividad actuales son muy precisos. El análisis de estas medidas se presenta en el artículo técnico de J. Díaz León et al., “Arrival time and magnitude of airborne ssion products from the Fukushima, Japan, reactor incident as measured in Seattle, WA, USA,” ArXiv, March 24, 2011.

En mi opinión personal el artículo de J. Díaz León y sus colegas es un poco oportunista y sensacionalista y se inicia recordando que también midieron trazas radiactivas en Seattle tras el accidente de Chernóbil (a 8700 km de distancia).  Fukushima se encuentra a 7600 km de Seattle y los autores han buscado trazas de elementos radiactivos que hayan podido atravesar el Oceáno Pacífico. Para ello han comparado el espectro de rayos gamma en muestras de aire tomadas entre las 12 PM del 16 de marzo y las 2 PM del 17 marzo con muestras tomadas entre las 12 PM del 17 de marzo y las 2 PM del 18 de marzo [la figura que abre esta entrada muestra su resultado]. Los detectores utilizados son mucho más precisos que los utilizados cuando midieron la radiactividad de Chernóbil y según los autores confirman que ha habido emisiones de radiactividad desde Fukushima que han atravesado el Océano Pacífico. Por supuesto, nadie puede asegurar al 100% que provengan de Fukushima y no de otro lugar, pero según los autores la composición relativa entre los isótopos radiactivos detectados es compatible con la hipótesis de que su origen sean reactores nucleares como los usados en Fukushima (si ellos son expertos en física nuclear supongo que ellos conocerán estos detalles).

Un tema tan mediático como Fukushima lleva a acciones curiosas: los autores del artículo, con objeto de informar al público en general, han habilitado una página web con los resultados de su artículo llamada “Air Radioactivity Monitoring at UW Physics,” donde se supone que actualizarán la información que vayan recabando (ahora mismo sólo está la información del artículo y muy poquito más). Abajo tenéis la foto del aparato experimental utilizado para la medida de la radiactividad.

PS (26 mar. 2011): Más información en KFC, “Fission Products in Seattle Reveal Clues about Japan Nuclear Disaster. The first analysis of nuclear fission products in the atmosphere over Seattle provides a unique insight into the nature of the disaster,” The Physics arXiv blog, March 25, 2011.

PS (26 mar. 2011): El siguiente vídeo de youtube de la agencia noruega del aire muestra una predicción para la pluma de radiactividad de Fukushima sobre la costa oeste de EE.UU. Hay que indicar que no son medidas sino predicciones numéricas, lo que puede implicar que estén bastante equivocadas. Aún así, lo muestro aquí porque está relacionado con esta entrada en la que sí se presentan medidas in situ.

Muchos ya conoceréis las predicciones francesas de la evolución de la pluma radiactiva hasta alcanzar Europa, incluyendo España y Francia; esta predicción se ha obtenido mediante simulación numérica de la pluma y en nuestro País puede estar sujeta a enormes errores; aún así se predicen valores un millón de veces menores que los valores máximos en Fukushima (más abajo os he incluido estos valores según TEPCO). Para los que no quieran molestarse en leer cifras, como pueden comprobar los que sí se molesten, si los franceses tienen razón con su simulación numérica la radiactividad que ha llegado a España desde Fukushima es inferior al nivel de radiactividad natural promedio en nuestro País (aunque este pequeño exceso podría ser detectado por los medidores de radiactividad).

PS (26 mar. 2011): Los interesados en conocer las medidas de radiactividad en Japón tanto en las centrales de Fukushima como en Tokio y en varias prefacturas pueden informarse en “Graphing Earthquake and Radiation Data in Japan,” donde todas las figuras presentan la radiación en μSv/h. Según la compañía TEPCO los niveles de radiación más altos alcanzados en la propia central no han superado los 0’012 Sv/h durante una hora y se presentan en la siguiente gráfica (en μSv/h). En Tokio no se han superado en ningún momento los 0’50 μSv/h en ninguna hora y en estos momentos el valor ronda los 0’15 μSv/h (unas 4 veces lo normal para una ciudad como ésta).

El LHC del CERN viento en popa y a toda vela

 

El año pasado en “Conforme la luminosidad crece, las colisiones en el LHC del CERN se complican y ya hay colisiones con cuatro vértices primarios,” 6  junio 2010, nos hacíamos eco de colisiones protón-protón en el LHC con 4 vértices reconstruidas por ATLAS (ver también “colisiones múltiples en el LHC del CERN,” 4 abril 2010). Esta misma semana se ha publicado la reconstrucción de una colisión con 13 vértices observada en el experimento CMS del LHC (la colisión se produjo el lunes 14 de marzo). Una imagen espectacular que ilustra con lo que han de lidiar los físicos en el LHC y que confirma la gran calidad del trabajo que se está realizando. Con fecha 23 de marzo se indicó que sólo CMS ha completado 45 artículos técnicos con los datos de 2010 (ya publicados, ya enviados o próximos a ser enviados) y que hay 23 artículos más en preparación.

Soy optimista, pero no tanto como Philip Gibbs, “LHC could provide up to 14/fb in 2011,” viXra log, March 23, 2011, que ha leído entre líneas en esta charla que en 2011 se podrían llegar a alcanzar hasta 14 /fb de colisiones, cuando el objetivo es superar 1 /fb. La charla ha sido impartida por Steve Myers quien nos ha contado el estado actual del LHC (Large Hadron Collider) y las previsiones para este año. El 22 de marzo se logró superar el récord de luminosidad del año pasado (Tommaso también se ha hecho eco de ello) y se recolectaron 6/pb en 8 horas. En el caso más pesimista, si se mantiene esta luminosidad durante los 124 días de colisiones protón-protón que están planificados para este año se obtendrían 12×124 = 1488 /pb = 1’5/fb, con lo que se superará fácil el objetivo de 1/fb para 2011. ¿Cuál será la luminosidad pico que se alcanzará de forma sostenida durante este año? Se espera poder lograr inyectar 936 paquetes de protones con una separación de 75 ns, lo que significa para un optimista como Philip que el tope máximo alcanzable de colisiones serán 9 /fb. Sin embargo, si todo va bien, podría ensayarse una separación de 50 ns, lo que permite hasta 1404 paquetes de protones, con lo que el tope máximo alcanzable serán 14 /fb de colisiones. Muchas son, pero Philip nos recomienda a todos cruzar los dedos para que todo salga a las mil maravillas. En mi opinión, poniendo los pies en la tierra, no creo que se superen los 5 /fb de datos, lo que no es moco de pavo.

Publicado en Science: Dónde está la materia oscura en el cúmulo de galaxias de Perseo

El cúmulo de galaxias de Perseo (Abell 426) es uno de los cúmulos galácticos más brillantes del cielo en la banda de rayos X y uno de los cúmulos con más masa del universo. Observaciones de rayos X obtenidas con el observatorio espacial Suzaku (misión conjunta NASA + JAXA) indican que este cúmulo tiene más materia ordinaria (bariónica)  de la que predicen los modelos cosmológicos, es decir, falta materia oscura. ¿Por qué Abell 426 contradice los datos cosmológicos de WMAP 7? Nadie lo sabe. Estudios anteriores habían encontrado que faltaba materia en la parte exterior del cúmulo por lo que se pensaba que existía allí materia oscura. Sin embargo, el nuevo estudio demuestra que no es necesaria la materia oscura para explicar la dinámica de este cúmulo. ¿Por qué no hay materia oscura en uno de los mayores cúmulos galácticos del universo? Nadie lo sabe. Se ha logrado determinar la masa bariónica del cúmulo porque sus galaxias están inmersas en un gas caliente a millones de grados que emite rayos X que han sido detectados por Suzaku (Perseo es el cúmulo galáctico que emite en rayos X más cercano a nuestra galaxia). Suzaku ha demostrado que el cúmulo tiene un diámetro de 11’6 millones de años luz (un radio de 1’79±0’04 megapársec) y contiene unos 665 billones de veces la masa del Sol (6’65±0.44 × 10¹² MS). El artículo técnico es Aurora Simionescu et al., “Baryons at the Edge of the X-ray–Brightest Galaxy Cluster,” Science 331: 1576-1579, 25 March 2011 [gratis en ArXiv].

La figura clave del artículo nos muestra la fracción de gas caliente (materia bariónica) en función de la distancia al centro del cúmulo. Para el radio total del cúmulo, eje de abcisas con valor r/r200 = 1, la fracción de gas es del 23%, aunque a mitad de distancia, r/r200 = 0’5, el valor se reduce al 12%. Estudios anteriores (puntos azules y curva verde) estimaron la masa bariónica del cúmulo por debajo del 15%. Como se observa en la figura conforme nos alejamos del centro del cúmulo la cantidad de materia bariónica crece y sorprende que el resultado final ronde el 23%, la predicción de WMAP 7 para la cantidad de materia oscura del universo.

El cúmulo de galaxias de Perseo (Abell 426) es uno de los cúmulos galácticos más brillantes del cielo en la banda de rayos X y uno de los cúmulos con más masa del universo, formado por un grupo de más de mil galaxias enanas (elípticas y lenticulares) colocadas a unos 250 millones de años de luz de distancia de la Vía Láctea. La imagen de arriba muestra el cúmulo en el espectro visible. La galaxia más brillante (en rayos X) y más característica del cúmulo es NGC 1275 (abajo una foto de ella obtenida por el telescopio espacial Hubble). Esta galaxia está colocado más o menos en el centro del cúmulo. Todas las galaxias del cúmulo están inmersas en una enorme nube de gas caliente a varios millones de grados. NGC 1275 es una galaxia activa con un superagujero negro que está engullendo galaxias enteras y que emite una prodigiosa cantidad de rayos X de alta energía. ¿De alguna manera esta enorme emisión ha expulsado la materia oscura del entorno exterior del cúmulo? ¿Qué ha pasado con la materia oscura que debería estar en el cúmulo de Perseo? Muchas preguntas sin respuesta que serán objeto de intensas investigaciones por parte de los astrofísicos y cosmólogos.

Carnaval de Matemáticas 2.2: José Mariano Vallejo y Ortega, el matemático español amigo de Pierre Simon Laplace

Atención, pregunta, dime un nombre de un matemático español de relieve del s. XIX. Venga, vamos. Uno sólo. “Matemáticos haberlos hailos.” Sólo uno. ¡¿Aceptas el reto?! Como tercera contribución para la Edición 2.2 del Carnaval de Matemáticas que se celebra del 14 al 25 de marzo de 2011 en el blog Gaussianos, ofreceré mi respuesta. Lo confieso, lo he descubierto releyendo a José María López Piñero, “Hace… doscientos años,” Investigación y Ciencia, Diciembre de 1979. Mi próxima contribución para Amazings.es es un artículo sobre las peonzas celtas (rattlebacks) y ya que me he leído el artículo de Jearl Walker, “Taller y laboratorio,” sobre este tema, he aprovechado… pero esa es otra historia.

José Mariano Vallejo y Ortega (1779-1846) “nació en Granada y es uno de los escasos matemáticos españoles de relieve durantes las primeras décadas del s. XIX. Estudió en la Universidad de Granada, aunque su formación matemática fue autodidacta. En 1801 fue profesor sustituto de geometría práctica en la Real Academia de San Fernando y colaboró en diversos trabajos técnicos por encargo de dicha institución. Al año siguiente ganó por oposición la cátedra de matemática y fortificación del Real Seminario de Nobles de Madrid, puesto en el que desarrolló la mayor parte de su obra científica.

“En 1823, se exilió, como tantos otros científicos españoles. Recorrió varios países europeos y acabó asentándose en París, donde enseñó matemática y mantuvo una excelente amistad con Pierre Simon Laplace, que se interesó por sus contribuciones. En 1832 regresó a España. Durante las dos décadas siguientes se esforzó en divulgar las nuevas corrientes pedagógicas europeas. Promovió la creación de escuelas normales. Intervino en la fundación de la Academia de Ciencias y en la del Ateneo de Madrid, de cuya sección de matemática y física fue presidente.”

“Vallejo publicó “Adiciones a la Geometría de D. Benito Bails” (1806) en la que, sin estar todavía familiarizado con la obra de los más destacados matemáticos del momento, desarrolló algunos aspectos en una línea semejante a la de éstos. Su obra más importante es “Memoria sobre la curvatura de las líneas” (1807), una monografía original dedicada a las evolutas que concluye con la siguiente afirmación: “De toda curva algebraica se puede obtener la expresión de su radio de curvatura, y las evolutas de estas curvas serán todas rectificables, es decir, se podrá señalar la longitud de sus curvas por una fórmula algebraica.”

La extensa producción de Vallejo incluye “dos obras de síntesis, su “Tratado Elemental de Matemáticas” (1813), que consta de cinco volúmenes en los que se expone desde la aritmética hasta el cálculo diferencial e integral, y su “Compendio de Matemáticas” (1819), un texto mucho más breve  en el que recopila toda su producción anterior.”

“Vallejo concedía gran importancia al proceso del razonamiento y al método de estudio en matemática, por lo que en ambas obras añadió un capítulo de lógica en el que explica el lenguaje que va a utilizar.”

Vallejo fue uno de los encargados de traer a España el sistema métrico decimal: “Explicación del sistema decimal ó métrico francés, que por ley de 4 de julio de 1837, se ha mandado establecer en Francia, y está rigiendo allí desde 1 de enero de 1840 sobre las unidades de pesas, medidas y monedas correspondencia de las expresadas unidades francesas con las españolas, y de las españolas con las francesas y modo de hacer la reducción de unas á otras” [transcripción de esta obra].

Más información biográfica sobre Vallejo para los interesados en profundizar:

José María Gentil Baldrich, “Nuevos datos sobre la vida y la obra de José Mariano Vallejo y Ortega (1779-1846),” Llull: Revista de la Sociedad Española de Historia de las Ciencias y de las Técnicas 22: 381-404, 1999.

Mª Teresa González Astudillo, “El Compendio de Matemáticas de José Mariano Vallejo: su visión del concepto de límite,” IX SIMPOSIO SEIEM, Córdoba 2005.

José-Miguel Pacheco Castelao, F. Javier Pérez-Fernández, Carlos-Oswaldo Suárez Alemán, “Numerical solving of equations in the work of José Mariano Vallejo,” Mathematics and Statistics Archive for History of Exact Sciences 61: 537-552, 2007.

Carlos O. Suárez Alemán, “José Mariano Vallejo como inventor del método de la secante” [vista rápida Google si no funciona el enlace].

Ernesto García Camarero, “El matemático Vallejo y la ciencia en el Ateneo de Madrid,” Ateneistas Ilustres II, ATENEO, 2007, pp. 701-716.

Alexander Maz Machado, Manuel Torralbo Rodríguez, Luis Rico Romero (coordinadores), “José Mariano Vallejo, el matemático ilustrado. Una mirada desde la educación matemática,” Publicaciones Universidad de Córdoba, 2006.

Más información en Google.

La década de la materia oscura

Los experimentos para la detección de la materia oscura son ahora 1000 veces más sensibles que hace 20 años y en la próxima década mejorarán su sensibilidad en un factor adicional de 100. En opinión de muchos físicos, en los próximos años nos despertaremos con la noticia del descubrimiento de la partícula o partículas responsables de la materia oscura (que por ahora sólo ha sido observada gracias a sus efectos gravitatorios a escala cosmológica). Experimentos en curso para la búsqueda directa de la materia oscura como XENON100, DAMA/LIBRA, CDMS II, y CoGeNT, y experimentos que empezarán a tomar datos en 2011, como LUX y XMASS, están poniendo un lazo cada vez más ajustado a las propiedades de la partícula responsable del lado oscuro del universo. Por ahora los resultados preliminares son muy confusos porque la detección no es fácil. El método más utilizado (búsqueda directa) es esperar que una partícula de materia oscura choque contra el núcleo de un átomo del detector dejando una huella perceptible. El problema es que esta huella es máxima cuando la masa del núcleo y la partícula son muy parecidas (cual bolas de billar). Como no sabemos qué masa tiene la partícula buscada, diferentes experimentos utilizan materiales diferentes y exploran con precisión regiones diferentes del espacio de parámetros. Por ejemplo, XENON100 utiliza 161 kg de xenón y CDMS II utiliza 230 g de germanio y 105 g de silicio, explorando ambos el rango de masas entre 10-100 GeV; DAMA/LIBRA utiliza 250 kg de yoduro sódico y CoGeNT utiliza 500 g de germanio, explorando ambos el rango de masas del orden de 10 GeV y menores; LUX y XMASS utilizarán 350 kg y 1000 kg de xenón y explorarán el rango de masas entre 10-100 GeV. Este mes se iba a publicar el nuevo resultado de XENON100 pero parece que el análisis de los datos se ha complicado (por alguna razón aún desconocida) y se publicará próximamente (nadie sabe cuándo será); quizás por ello dedican un artículo de revisión a este tema en el número de Nature de mañana, en concreto, Adam Mann, “Cosmology: The hunting of the dark,” Nature 471: 433-435, 24 March 2011. El artículo no aporta datos nuevos (para el que esto escribe), pero revisa las últimas noticias sobre la materia oscura y quizás sea de interés para algunos lectores con acceso a Nature y con ganas de un repaso rápido de los experimentos de búsqueda directa.

En este blog ya hemos hablado de estos temas: “Por qué hoy no se han publicado los resultados del experimento XENON100 sobre la materia oscura,” 16 marzo 2011; “La partícula responsable de la materia oscura podría haber sido descubierta ya,” 4 marzo 2011; “CDMS II observa tres nuevos eventos tipo WIMP candidatos a materia oscura,” 24 diciembre 2010; “Partículas WIMP de materia oscura ocho veces más pesadas que el protón observadas en el centro de la Vía Láctea,” 24 octubre 2010; “Qué pasó con los dos WIMP observados por CDMS en diciembre de 2009 (han sido descartados por XENON100 en mayo),” 5 julio 2010; etc.

Primera medida de una propiedad cuántica más allá del límite de Heisenberg

La metrología cuántica utiliza el entrelazamiento y otras propiedades cuánticas para lograr medidas de una precisión extraordinaria. Napolitano et al. publican en Nature la primera medida super-Heisenberg, más allá del límite de precisión de Heisenberg, de la magnetización de un conjunto de átomos utilizando un dispositivo de medida no lineal. Han alcanzado un error que escala como 1/√N³, cuando el límite de Heinsenberg es 1/N (si las partículas fueran independientes el límite sería1/√N). Se había predicho en teoría que esto era posible cuando las partículas interaccionan de forma no lineal, pero la verificación experimental de este tipo de medida sorprenderá a propios y a extraños. Una nueva herramienta en metrológica cuántica que tendrá gran número de aplicaciones en el futuro (aunque no espero que así sea en pocos años). El artículo técnico es M. Napolitano et al., “Interaction-based quantum metrology showing scaling beyond the Heisenberg limit,” Nature 471: 486–489, 24 March 2011.

Los instrumentos de medida más precisos están basados en la interferometría y están regidos por las leyes de la mecánica cuántica. Al medir una propiedad cuántica en un conjunto de átomos o fotones preparados en un estado de superposición se ha de aplicar la teoría de la medida cuántica. Si dos propiedades son complementarias, se aplica el principio de incertidumbre de Heisenberg a su medida simultánea (como la velocidad y la posición), lo que implica un límite último a la sensibilidad que se puede lograr con cualquier instrumento de medida. Napolitano et al. han medido la magnetización atómica mediante un magnetómetro óptico que utiliza la interferometría en la polarización de una colección de N fotones polarizados de forma circular (cada fotón tiene dos posibles estados de polarización, sean |+>  y |−>). Si estos fotones son independientes entre sí, el límite cuántico estándar, el mínimo ruido que es imposible evitar en una medida cuántica, se escala con el número de átomos como N−1/2. Este límite puede ser superado si los fotones están entrelazados entre sí; en dicho caso las leyes de la mecánica cuántica indican que el límite de Heisenberg permite limitar la precisión por un factor que escala como N−1. A priori podría pensarse que este límite es imposible de superar, sin embargo, ciertos estudios teóricos han demostrado que si la física del problema es no lineal (el hamiltoniano cuántico tiene términos no lineales o de autointeracción) es posible superar el límite de Heisenberg y obtener una medida super-Heisenberg. En teoría, si el hamiltoniano tiene términos no lineales de orden k, el ruido no se ve afectado pero la señal se multiplica por Nk, con lo que la relación señal/ruido crece y el límite de sensibilidad baja hasta N−k, si se utiliza entrelazamiento cuántico, y hasta N−(k–1/2), si no se utiliza. 

Napolitano et al. han logrado una medida super-Heisenberg de la magnetización total (la suma de los espines) de átomos de rubidio-87 (entre medio millón y setenta millones de átomos) gracias al uso de interferometría óptica con fotones, tanto en el régimen lineal, como en el régimen no lineal. En ambos casos el límite de la sensibilidad que han observado corresponde a lo indicado por la teoría (lo que confirma que en el segundo caso la medida es super-Heisenberg).

PS (25 mar. 2011): Para los que no se hayan enterado mucho de qué va esta entrada quizás les convenga leer “Superan un límite cuántico fundamental,” SINC, 23 mar. 2011 [también en Ciencia Kanija donde recomiendo los comentarios].

Se ha suscitado en las comentarios la pregunta de si el nuevo resultado implica que el principio de incertidumbre de Heisenberg ha sido violado y si se podrá algún día violar para la posición y el momento. Por favor, que nadie se lo plantee. No tiene sentido una medida tipo super-Heisenberg de la posición y el momento; para este tipo de medidas se necesitan propiedades complementarias que interactúen de forma no lineal, que no es el caso en la mecánica cuántica para la posición y el momento. La mecánica cuántica es una teoría intrínsecamente lineal (la función de onda evoluciona de forma unitaria).

En este nuevo artículo el hamiltoniano no lineal utilizado para modelar el experimento es un hamiltoniano “efectivo” con lo que el límite de Heisenberg violado no es un límite fundamental sino un “límite fundamental efectivo” (por llamarle de alguna manera). Las leyes de la medida en la mecánica cuántica son también aplicables a un hamiltoniano “efectivo” pero el límite de Heisenberg para la sensibilidad en las medidas en dicho caso se puede superar (no es un límite inviolable) sin afectar a la validez de la mecánica cuántica.

Carnaval de Matemáticas 2.2: John W. Milnor gana el Premio Abel 2011 y un bien merecido millón de dólares

Hoy a las 12:00, la Academia Noruega de Ciencias y Letras ha concedido el Premio Abel 2011 a John W. Milnor, matemático de la Universidad de Stony Brook en Nueva York, “por sus descubrimientos pioneros en topología, geometría y álgebra.” John Milnor, profundo, imaginativo, sorprendente, ya con 80 años de edad, es todo un “monumento vivo” a la matemática en todas sus facetas. Ha trabajado en todo lo que un matemático puede trabajar: sistemas dinámicos, teorías de juegos, teoría de grupos, teoría de números, etc. Un millón de dólares (6 millones de coronas noruegas o unos 750 mil euros) a quien recibió la Medalla Fields en 1962 por sus contribuciones a la topología diferencial y a las esferas exóticas en particular. Nos lo cuentan la mayoría de los medios, como “John Milnor obtiene el premio Abel de matemáticas. El extenso trabajo de este estadounidense se caracteriza por la perspicacia, la imaginación y la belleza,” EL PAÍS, Madrid, 23/03/2011; Philip Ball, “Maths polymath scoops Abel award. John Milnor wins ‘Nobel of maths’ for his manifold works,” News, Nature, Published online 23 March 2011; “John Milnor, Premio Abel 2011,” Instituto de Ciencias Matemáticas, Madri+d, 23 marzo, 2011; “Premio Abel 2011,” DivulgaMAT, 23 de Marzo de 2011;etc.

Resumir el trabajo de Milnor es casi imposible, pero lo ha intentado Timothy Gowers en “The Work of John Milnor (pdf).” En este blog hablamos de su trabajo en “Carnaval de Matemáticas: Esferas exóticas, el invariante de Arf-Kervaire y la hipótesis del día del juicio final,” 13 febrero 2010. Por ello esto será mi segunda contribución para la Edición 2.2 (año 2, edición 2) del Carnaval de Matemáticas que se celebra del 14 al 25 de marzo de 2011 en el blog Gaussianos.

Si eres matemático disfrutarás con el vídeo de la conferencia sobre Topología Diferencial que John Milnor impartió en 1965 (“Differential Topology,” The Earle Raymond Hedrick Lectures, 1965).

Si eres, o incluso si no eres, matemático disfrutarás con el vídeo de la conferencia de John Milnor, “Geometry of Growth and Form,” Institute for Advanced Study’s celebration of its eightieth anniversary, September 24, 2010. John discute si una transformación conforme permite relacionar la forma de diferentes especies de seres vivos que estén relacionadas entre sí; realmente curiosa.

El Sol hoy y las líneas de campo magnético en la corona solar

En febrero de 2010 la NASA lanzó el satélite llamado Observatorio de la Dinámica Solar (SDO o Solar Dynamics Observatory) para estudiar la atmósfera solar con una resolución espacial y temporal sin precedentes. Desde abril de 2010, cada 10 segundos el SDO’s Atmospheric Imaging Assembly (AIA)toma imágenes de alta resolución de la corona solar en múltiples longitudes de onda, desde el ultravioleta cercano al lejano.

Esta imagen del Sol, tomado hoy mismo por el AIA, corresponde a la composición de las imágenes para tres longitudes de onda, 211, 193 y 171 Å (cada una corresponde a una temperatura diferente, por ejemplo, 211 Å corresponde a una temperatura característica de 2 millones de Kelvin). Esta imagen permite observar la corona solar y es sensible a sus regiones magnéticamente activas. Las líneas negras superpuestas en la imagen son las líneas del campo magnético calculado a partir de la propia imagen. Estas líneas de campo magnético son más densas cerca de las regiones más activas y conectan también otras áreas de la corona solar.

En la página web SunToday de la NASA se pueden contemplar imágenes del Sol obtenidas por el AIA para diferentes longitudes de onda, con y sin líneas de campo magnético, actualizadas todos los días. Merece la pena visitar esta página web de vez en cuando, no te arrepentirás. Mirar el Sol con nuestros ojos es peligroso, deja que el SDO lo haga por tí.

Todo lo que siempre has querido saber sobre la superluna en una sola infografía

Carolina Jiménez, “infografista de profesión [OK Infografía], escéptica de mente y científica de corazón” nos ha traducido al español una infografía publicada en Space.com sobre la superluna. Espero que os guste. Carolina entre sus múltiples virtudes también es músico (Kireina) y ha dedicado una canción a la superluna, que podéis disfrutar en youtube (Kireina fue nominada con su canción “Can’t Walk Over Me” a los Hollywood Music Awards, 2008).

PS (29 nov 2012): Me ha gustado la APOD de hoy.