Estatus actual de la búsqueda del bosón de Higgs (en la reunión de la APS)

Traducción libre de “PHYSICS NEWS UPDATE”, The American Institute of Physics Bulletin of Physics News, Number 861, April 15, 2008, www.aip.org/pnu by Phillip F. Schewe and Jason S. Bardi.

ENCONTRAR EL BOSÓN DE HIGGS es el problema más importante a resolver en los dos aceleradores de partículas más grandes que nunca se han construido: el Tevatrón del Fermilab (EEUU), que ahora está alcanzando sus picos de energía tras décadas de funcionamiento, y el LHC (Gran Colisionador de Hadrones) en el CERN (Europa), donde en los próximos meses se harán circular haces de protones (núcleos de hidrógeno) y antiprotones (sus antipartículas) en un túnel de 27 km de longitud. La partítula de Higgs todavía no ha sido encontrada, pero en la conferencia de la Sociedad de Física Americana (APS), esta semana, en St. Louis, docenas de charlas se han referido al estatus actual de la búsqueda del Higgs.

¿Por qué el Higgs es tan importante? Porque se supone que domina el vacío en el universo; no como el antiguo éter, sustrato material para la propagación de ondas electromagnéticas, sino para interactuar con otras partículas y dotarlas de masa (en reposo) no nula. El campo del Higgs normalmente está oculto en el propio vacío, pero si acumulamos suficiente energía en un volumen de espacio minúsculo, como en el punto en el que dos haces de partículas muy energéticas colisionan, entonces el Higgs aparece como una partícula “real” masiva cuya existencia puede ser detectada.

Los cálculos teóricos usando el Modelo Estándar de la Física de Partículas combinadas con cotas obtenidas de experimentos desarrollados en el pasado nos permiten limitar el rango de masas en reposo de la partícula de Higgs. Ahora mismo sabemos que su masa en reposo debe ser mayor que 114 GeV, pero menor que unos 190 GeV. El Tevatrón del Fermilab genera energía más que suficiente para crear una partícula con ese rango de masas. El mayor problema es su luminosidad, o la densidad de partículas en el haz que se hacen colisionar juntas por segundo. El Tevatrón recientemente ha alcanzada su récord de luminosidad: 3.1 x 10^32 por cm^2 por segundo.

¿Cómo veríamos un bosón de Higgs en el Tevatrón?  Brian Winer (de la Universidad del Estado de Ohio) dice que “el evento más parecido a un evento tipo Higgs” visto hasta el momento en las colisiones protón-antiprotón en el Tevatrón ha creado una bola de fuego (fireball) que ha decaído en un bosón W (uno de los portadores de la fuerza nuclear débil) y una partícula de Higgs. Pero esta última ha decaído tan rápidamente en un par quark-antiquark (en concreto, bottom-antibottom) con una masa combinada superior a 120 GeV. Como tal, dicho evento no constituye un descubrimiento. Hay eventos de “fondo” que se parecen al resultado de observar un Higgs. Una observación “de verdad” del Higgs requiere eventos candidatos sustancialmetne mayores que el número de eventos de “fondo” esperados. Quizás con el tiempo (e incrementos en la luminosidad) el Tevatrón podrá acumular suficientes eventos candidatos a Higgs como para establecer un “descubrimiento” estadísticamente satisfactorio. Un físico del Tevatrón, Dmitri Denisov (denisovd@fnal.gov) resume el estado actual de los experimentos asociados a los detectores CDF y D0, e indica que se espera que para el año 2010, con una luminosidad posiblemente del doble de la actual y con un número de eventos unas 4 u 8 veces mayor, el Higgs sea “descubierto” en el Tevatrón.

Pero quizás se adelanten en el CERN. A las energías de las colisiones de haces protón-antiprotón en el LHC, el Higgs, si existe, será observado abundantemente. Abraham Seiden (abs@scipp.ucsc.edu) de la Universidad de California en Santa Cruz, resumió el estado actual del LHC. Los ingenieros y científicos del CERN están ajustando los imanes que garantizan que los protones sigan la trayectoria correcta que deberán funcionar a temperaturas próximas al cero absoluto, necesarias para que operen como superconductores. Aunque el LHC está diseñado para alcanzar energías de hasta 7 TeV, será “encendido” a “solamente” unos 5 TeV. Seiden indica que está planificado que para mediados de junio se enfrien los imanes superconductores y esté lista para que los haces de protones empiecen a circular por el anillo. Para agosto próximo se espera que se produzcan las primeras colisiones y “todo” comience … y la historia del Higgs se reescriba … Sin embargo, varios científicos en la Conferencia de la APS estaban un poco excépticos sobre esta fecha cuando fueron preguntados en privado. Agosto es la fecha de los optimistas. Los pesimistas lo retrasan a finales de este año.

El escenario de posibles descubrimientos en el LHC esperado para los próximos años, dice Seiden, más allá del Higgs, hace posible que la primera partícula supersimétrica (la de menor masa en reposo de una gran familia de partículas hipóteticas parejas de las que conocemos) puede ser detectada como pronto en 2009 antes de la confirmación última del Higgs que deberá esperar a 2010.

La carrera de la búsqueda del Higgs está en la línea de salida y sólo ganará el que tenga más “suerte”, ya que tanto Tevatrón como LHC esperan tener un descubrimiento “confirmado” en 2010. ¿Quién ganará? Se admiten apuestas.

CONFERENCIA EN MÁLAGA: Miguel Ángel Medina Torres – Quimeras: El mito de la ciencia

XI ciclo de conferencias presente y futuro de la ciencia y la tecnología

Centro de Arte Contemporáneo de Málaga

15 abril de 2008. 19:30 horas
QUIMERAS: DEL MITO A LA CIENCIA.

Dr. Miguel Ángel Medina, Profesor Titular de Bioquímica y Biología Molecular de la UMA.

Para ir abriendo boca, permitidme copiar aquí dos artículos de Miguel Ángel, gran divulgador de la ciencia, de “su” ciencia. Os gustarán.


Hay uniones que matan… (Historias de CREB)

Miguel Angel Medina Torres

Los seres vivos son sistemas termodinámicamente abiertos en continuo intercambio de materia, energía e información con el medio. Una manifestación de los flujos de información dentro de la célula y entre ésta y su entorno es la que constituyen los mecanismos de «transducción» de señales, en los que participan primeros y segundos mensajeros y máquinas moleculares que «transducen» señales, de acuerdo con la terminología introducida por Bourne [Symposia in Quantitative Biology 58:1019-1031 (1988)]. Los primeros mensajeros son la señales (físicas o químicas) extracelulares que inducen alguna(s) respuesta(s) en la célula diana; así definidos, pueden incluirse en la lista de primeros mensajeros las hormonas, factores de crecimiento, neurotransmisores, citoquinas o quimioquinas, pero también la luz o cualquier tipo de estrés mecánico o térmico. Las máquinas moleculares que «transducen» señales son proteínas que funcionan como receptores, proteínas G, enzimas productoras o eliminadoras de segundos mensajeros, proteínquinasas, fosfoproteínfosfatasas y factores de transcripción. Los segundos mensajeros son biomoléculas pequeñas e iones cuyas concentraciones cambian como respuesta a un estímulo y dan lugar a la transmisión en cascada de una señal hasta generar algún tipo de respuesta final. Son segundos mensajeros los iones calcio y los protones, los nucleótidos cíclicos y una larga serie de compuestos lipídicos derivados de los fosfolípidos de membranas.
El primer compuesto descrito como segundo mensajero fue el cAMP, gracias a los trabajos pioneros de Sutherland en los años cincuenta. Este autor estaba interesado en estudiar cómo la adrenalina estimula los hepatocitos para que liberen glucosa. Sutherland pudo demostrar que, entre la unión de la hormona a su receptor y la posterior liberación de glucosa, se dan varios pasos intermedios que implican el control del metabolismo del glucógeno mediante reacciones de fosforilacióndesfosforilación y que las fosforilaciones son estimuladas por una pequeña molécula que, posteriormente, pudo ser identificada como el cAMP. Actualmente, se sabe que el cAMP se forma por acción de una cascada de transmisión de señales que implica a las proteínas G heterotriméricas [ver Encuentros en la Biología 18 (1994)]. El cAMP activa una quinasa multifuncional, denominada proteínquinasa A (PK-A), que consta de dos subunidades reguladoras (R) y dos catalíticas (C). En ausencia de cAMP, la PK-A se encuentra formando el heterocomplejo R2C2, que es inactivo. Cuando se forma cAMP, se liga a las subunidades reguladoras, induciendo un cambio conformacional que libera las subunidades catalíticas activas.
El cAMP también induce efectos a más largo plazo mediante la activación transcripcional de diversos genes. En los eucariotas «superiores», los efectos del cAMP sobre la transcripción están mediados por proteínas que contienen dominios en cremallera de leucina. Los genes controlables transcripcionalmente por cAMP contienen un motivo consenso palindrómico 5′-TGACGTCA-3′, conocido como elemento de respuesta al cAMP (CRE). La proteína que se une a esta secuencia diana es el homodímero CREB, formado por dos cadena idénticas de 43 kDa. El extremo carboxilo de CREB contiene una cremallera de leucina que es necesaria para la dimerización y la unión a la secuencia CRE, activando la transcripción del gen diana. Además, CREB tiene un dominio de transactivación que contiene varias regiones independientes, incluída la que se ha identificado como «dominio inducible por quinasas», el cual contiene sitios de fosforilación consenso para varias quinasas, incluida PK-A. De hecho, un mecanismo de la activación transcripcional por CREB es la fosforilación de su residuo Ser-133 por la subunidad catalítica de PK-A. CREB también puede ser fosforilada por otras serina/treoninaquinasas, tales como las PK-C, las quinasas dependientes de calcio y calmodulina CaMK-I, CaMK-II y CaMK-IV, la p105 quinasa dependiente de ras, p90rsk y Rsk-2. Las fosforilaciones de CREB alteran la conformación de su dominio de transactivación, incrementando así su interacción con la maquinaria transcripcional.
Es bien conocida la participación de CREB en la regulación hormonal del metabolismo glucídico. En concreto, como respuesta al primer mensajero glucagón se activa una cadena de «transducción» de señales en los hepatocitos que conduce a la activación transcripcional por CREB del gen que codifica la fosfoenolpiruvato carboxiquinasa, una de las enzimas reguladoras de la gluconeogénesis.
Recientemente, se ha demostrado que la expresión de CREB se relaciona directamente con el potencial metastásico de melanomas murinos. De hecho, la sobreexpresión de una CREB mutada en su dominio de unión a CRE en células de melanoma metastásico consiguió disminuir su tumorigenicidad y su potencial metastásico en ratones atímicos desnudos [Xie et al., Oncogene 15:2069-2075 (1997)].
En conclusión, la unión de CREB a regiones CRE del DNA es un evento clave en la regulación transcripcional de diversos genes implicados en importantes procesos, aunque hay activaciones transcripcionales nada deseables, como es el caso descrito para los melanomas murinos. ¡Y es que hay uniones que matan!

Miguel Angel Medina Torres es Profesor Titular de Bioquímica en la Universidad de Málaga


UN PUNTO DE VISTA ALTERNATIVO SOBRE EL ORIGEN DE LA VIDA Y LA EVOLUCIÓN

Miguel Ángel Medina Torres 

“Todo lo que existe en el Universo es fruto del azar y de la necesidad”. Esta frase atribuida al atomista griego Demócrito y rescatada y hecha célebre por el eminente biólogo francés Jacques Monod destaca los polos entre los que se ha movido toda la investigación biológica y, en concreto, la búsqueda de una respuesta al “misterio” primordial, el del origen de la vida. Las argumentaciones precientíficas dominantes hasta el siglo pasado, preñadas de prejuicios resultantes de la intromisión de la religión en el campo de la ciencia, mostraban un mundo estático en el que los seres vivos fueron creados tal como son hoy por un Sumo Hacedor, el Gran Arquitecto del Cosmos. En la segunda mitad del siglo XIX se produjeron diversas revoluciones científicas que dieron al traste con esta visión estática del mundo. El mundo empezó a ser entendido como algo cambiante, en permanente evolución. La Termodinámica mostró de forma precisa una dirección concreta de la evolución del Universo: aquella en la que aumentase continuamente la entropía. Darwin, uno de los más grandes pensadores de la humanidad, sentó las bases de las modernas teorías de la evolución de la vida señalando la selección como el motor del cambio.
Uno de los fundadores de la mecánica cuántica, Erwin Schrödinger, remarcó como característica de la vida que se encontrara en un estado especial de orden tal que -en apariencia- pareciera contradecir el Segundo Principio de la Termodinámica. Tiempo después, el propio Monod señaló que este particular orden característico del mundo vivo no puede tener otra fuente que el mero azar, un azar capturado en el viento. Aunque la pregunta sobre el origen de la vida dista mucho de estar contestada, actualmente una abrumadora mayoría de biólogos es partidaria de la opinión según la cual la vida surgió como la afortunada combinación de múltiples sucesos aleatorios, cada cual extremadamente improbable, y que surgió como algo simple que devino progresivamente en más complejo con la intervención de la selección como motor del cambio. Esta idea, con ser la canónica, presenta un punto sumamente débil: Como muestra gráficamente Robert Shapiro en su interesante libro “Origins” (del que existe una traducción al español en la Biblioteca Científica Salvat), si la vida hubiera surgido como resultado del puro azar, resultaría fácil argumentar basándose en las más elementales reglas de la Teoría de Probabilidades que se habría necesitado un tiempo muchísimo mayor que la edad del Universo. Nosotros, los seres vivos, seríamos los muy afortunados, más bien los imposibles, pues la probabilidad matemática de que hubiéramos aparecido se reduciría prácticamente a la nada.
Sin duda, maravilla el hecho de que los seres vivos estén compuestos por elementos no vivos. Los orgánulos, macromoléculas, iones y moléculas pequeñas que constituyen cualquier célula viva aisladamente no están vivos. La vida surge, pues, como una propiedad emergente, sin que esto tenga nada de mágico o místico. No hay que recurrir a ninguna fuerza vital, no hace falta desempolvar la vieja idea del élan vital propuesta por el filósofo Bergson. En los últimos años, frente a la ortodoxia vigente en el pensamiento científico, empiezan a oirse voces heterodoxas que propugnan caminos alternativos en la búsqueda de respuestas a los misterios de la vida. Frente a la idea de que la vida surgió por azar y es, por tanto, altamente improbable, algunos prestigiosos científicos propugnan que la vida tuvo que surgir necesariamente en nuestro Universo. Dos libros publicados en 1995, ambos entre el ensayo científico y la divulgación, ambos escritos por investigadores de primera línea, presentan la idea de la “inevitabilidad” de la vida, aunque lo hacen desde postulados bien distintos. El primero de estos libros es “Vital Dust: Life as a Cosmic Imperative“, escrito por el biólogo Christian de Duve (Premio Nobel de Medicina y Fisiología, compartido en 1974 con Albert Claude y George Palade), quien ya nos obsequiara años atrás con esas dos joyas que son “The Alive Cell” y “Blueprint for a Cell“. Pero el objeto principal de los comentarios que constituyen el presente artículo es el libro “At Home in the Universe“, escrito por el biólogo teórico Stuart Kauffman, una de las más conocidas “cabezas pensantes” del célebre Instituto de Santa Fe. Kauffman lleva cerca de treinta años trabajando en redes booleanas y es (junto con otros colaboradores del Instituto de Santa Fe, como Murray Gell-Mann, Chris Langton o Per Bak) corresponsable del surgimiento de lo que ha venido en denominarse Teoría de la Complejidad.
Entre las teorías sobre el origen de la vida, actualmente la dominante es aquella que considera que las primeras formas de proto-vida estarían constituidas por una maquinaria autoreplicante de RNA. El descubrimiento hace una decena de años por el grupo de Thomas Cech de que existen secuencias de RNA que pueden catalizar reacciones enzimáticas dio un fortísimo soporte a los partidarios del mundo del RNA. Por supuesto que la replicación de las moléculas de RNA requeriría la existencia de una actividad RNA polimerasa. Dado un aporte de nucleótidos libres, una ribozima capaz de funcionar como polimerasa constituiría por sí misma un gen replicante desnudo. Pero tal molécula ¿podría mantenerse frente a la degradación mutacional? ¿y podría evolucionar? La respuesta a ambas preguntas es muy probablemente negativa, ya que sería prácticamente inevitable lo que Leslie Orgel ha denominado una catástrofe causada por errores. Esta objeción es aplicable a otros modelos alternativos basados en la suposición de que la vida surgió simple. Para Kauffman, éste es el mayor error de las posturas ortodoxas en las teorías del origen de la vida. Pocos científicos caen en la cuenta de que la vida existe entre unos determinados límites de complejidad; en concreto, existe una complejidad mínima por debajo de la cual no puede darse el fenómeno vital. El genoma del ser vivo más simple conocido consta de varios cientos de genes. Este umbral inferior para la emergencia de la vida, sostiene Kauffman, no es casual sino que es inherente a la propia naturaleza de la vida. El modelo estándar del mundo del RNA no da cuenta de este hecho, por lo que se haría inevitable construir un modelo alternativo.
El modelo alternativo y heterodoxo que propone Kauffman sugiere que la vida no surgió simple sino compleja y completa. Las raíces del “secreto de la vida” serían más profundas que el hermoso modelo de Watson y Crick y estarían basadas en la Química. El postulado de este modelo alternativo es que la vida surge como una transición de fases natural en sistemas químicos complejos. [En este punto, entre paréntesis, debo mencionar que en el libro de Kauffman echo en falta una mención explícita a los antecedentes de esta teoría. Pareciera que el autor estuviese señalando que la misma es obra exclusiva de él. Desde mi punto de vista, nada más alejado de la verdad. La noción esencial de la vida como transición de fases queda recogida en la Sinergética de Hermann Haken y los modelos dinámicos evolutivos que mencionaremos más adelante encuentran su correlato en el modelo de los hiperciclos y las cuasiespecies del biofísico Manfred Eigen, premio Nobel de Química en 1967].
Desde un punto de vista químico, un ser vivo es un sistema de componentes químicos que tienen la capacidad de catalizar su propia reproducción, esto es, un sistema colectivamente autocatalítico. Basado en su amplia experiencia sobre el funcionamiento de las redes booleanas, Kauffman llega a lo que denomina idea central de esta teoría holista: La emergencia de conjuntos autocatalíticos es casi inevitable, la vida “cristaliza” espontáneamente y lo hace no por acción de ninguna “fuerza” misteriosa sino por imposición de una simple necesidad matemática. Desde este punto de vista, la vida es muchísimo más probable que lo que se había supuesto hasta hoy. De ahí, el título del libro.
Pero, ¿y qué hay de la evolución de los seres vivos? Desde Darwin, la imagen central en la Biología es la de la selección natural escogiendo situaciones útiles entre mutaciones surgidas al azar. Esta imagen domina completamente nuestra actual visión de la vida y lleva a la profunda convicción de que la selección es la única fuente de orden en Biología. Pero la selección no puede ensamblar sistemas complejos; la selección, aunque poderosa, no es todopoderosa. Para Kauffman, se requiere algún motor adicional para explicar la evolución. Ese motor adicional sería el orden espontáneo que surge de forma natural en los conjuntos autocatalíticos que se mueven en el borde del caos. [De nuevo, en este punto pueden citarse claros antecedentes, particularmente la noción de estabilidad estructural surgida en contextos inicialmente desconexos como son la Teoría de las Catástrofes de René Thom, la Termodinámica del No Equilibrio y la Teoría del Caos]. Un tercer factor esencial para entender la evolución sería la existencia de accidentes históricos, el factor azar en forma de lo que Murray Gell-Mann denomina “accidentes congelados” en su delicioso libro “Quark and Jaguar“.
En este nuevo marco conceptual teórico que se está creando, la emergencia de la vida dejará de ser un misterio. La vida misma será entendida como la expresión natural de las tendencias espontáneas hacia el orden en un Universo alejado del equilibrio.

Miguel Ángel Medina Torres es Profesor Titular de Bioquímica.

Descanse en paz, Dr. “It from bit” (o fallece John Archibald Wheeler a los 96 años)

(c) Archivo Fotográfico de Emilio Segré.

(c) Archivo Fotográfico de Emilio Segré.

EL PAIS, martes 15 de abril de 2008, OBITUARIO

John Archibald Wheeler, físico teórico

Fue el científico que acuñó el término “agujero negro”

ENRIQUE ÁLVAREZ 15/04/2008

El domingo pasado moría en su casa el físico John Wheeler, que tenía 96 años de edad. Wheeler era un gran creador, casi un visionario, originario de muchas ideas en física teórica. Richard Feynman fue su alumno más famoso, y juntos escribieron ar-tículos muy interesantes sobre la radiación electromagnética. Es bien sabido que posteriormente Feynman alcanzaría el Premio Nobel por sus trabajos sobre la electrodinámica cuántica.

En su juventud, Wheeler trabajó con Niels Bohr en Copenhague, y colaboró en el año 1939 en la creación del modelo de la gota líquida para explicar la fisión nuclear (la responsable tanto de las bombas de Hiroshima y Nagasaki como de las centrales nucleares actualmente en funcionamiento). Bohr era también un hombre de ideas, rodeado de devotos incondicionales, y que contribuyó enormemente a interpretar la mecánica cuántica.Copenhague era en aquella época un instituto que había que visitar para hablar con Bohr, y muchas ideas surgieron de discusiones entre físicos de diferentes nacionalidades. No es descabellado pensar que Bohr fue siempre un modelo para Wheeler, y es indudable que había puntos en común entre ambos, salvando las distancias, y teniendo en cuenta la diferente época que les tocó vivir.

Pero fue sin duda en el campo de la gravitación donde su influencia fue más visible. Desde su cátedra de Princeton fue el impulsor de la incorporación de la gravitación al resto de la física, junto con el gran físico experimental Robert Dicke, también de la Universidad de Princeton. Hasta entonces, esta disciplina era objeto de estudios formales; de hecho muchos físicos solían decir, medio en broma medio en serio, que era una parte de las matemáticas (cosa que naturalmente, los matemáticos nunca aceptaron del todo). El camino iniciado por Wheeler y Dicke, muy ligado al experimento de precisión y a la observación astrofísica y cosmológica, es el que ha conducido al brillante estado actual de esta especialidad.

Wheeler tenía un indudable talento para encontrar palabras sugerentes con las que expresar sus ideas. Él inventó el término “agujero negro” para describir un objeto tan colapsado que su atracción gravitatoria no deja escapar ni siquiera a los fotones que constituyen la luz ordinaria. Por eso el objeto se ve negro al no emitir ningún tipo de radiación.

Incidentalmente, la gran contribución de Hawking fue demostrar a principios de los años setenta que los efectos cuánticos implican una leve radiación, de forma que los agujeros negros no son completamente negros, después de todo. Pero este efecto es muy débil en los agujeros de interés astrofísico. También en persona tenía un gran encanto, sobre todo con los jóvenes: nunca dejaba sin contestar una pregunta, ni tampoco una carta. En colaboración con Charles Misner y Kip Thorne, destacados miembros de su escuela, escribió un libro de texto llamado simplemente Gravitación, que durante muchos años fue el texto de referencia en el campo.

Wheeler no era apolítico, y participó activamente en el comité Jason (un comité independiente que asesora al Gobierno de Estados Unidos sobre materias de ciencia y tecnología, que se hizo famoso a finales de los años sesenta por su apoyo expreso a la guerra de Vietnam), junto con otros destacados físicos teóricos. Véase el artículo en http://en.wikipedia.org/wiki/JASON.Por otra parte, su estilo un tanto mesiánico no agradaba a todo el mundo.

 

Pero sus escritos están llenos de preguntas y de ideas. Muchas veces, es históricamente mucho más importante encontrar la pregunta adecuada que formular su respuesta. Wheeler ha servido de inspiración a una gran cantidad de físicos; algunos alumnos directos suyos, y otros que pasaban unos años de su vida en Princeton trabajando en sus ideas. Durante varias décadas Princeton (que casualmente, también es el sitio donde acabó su carrera Einstein), era el sitio de “peregrinación” obligado para toda persona interesada en gravitación.

Con la desaparición de Whee-ler, se apaga uno de los últimos testigos de la gran época de la física.

Enrique Álvarez es catedrático de Física Teórica de la Universidad Autónoma de Madrid.

Por si necesitas aplicar una función a una matriz : nueva toolbox GNU de Higham para Matlab

Acaba de aparecer el último libro de Nick Higham,  Functions of Matrices: Theory and Computation y como no iba a ser menos de este “genio”, el código de su libro (Toolbox en Matlab) estará gratuito por internet para quien lo necesite… Merece la pena. Por ejemplo, si necesitas evaluar la solución de sistemas de ecuaciones diferenciales lineales con coeficientes constantes o si utilizas técnicas de resolución basadas en la linealización en cada paso de tiempo. De nuevo, chapó por Mr. Higham.

Júpiter es una “sopa de burbujas” (o un análogo a la Gran Mancha Roja de Júpiter)

Las franjas de interferencia de la luz proyectada sobre una burbuja de jabón (calentada por su ecuador), que dependen del grosor local de la película de jabón, forman estructuras tipo vórtice muy parecidas a las observadas en las atmósferas planetarias, como la Gran Mancha Roja de la foto. Además estos vórtices son muy robustos y duraderos (duran tanto como la burbuja, claro, que acaba explotando).

F. Seychelles, Y. Amarouchene, M. Bessafi, and H. Kellay , “Thermal Convection and Emergence of Isolated Vortices in Soap Bubbles,” Phys. Rev. Lett. 100, 144501 (2008) han desarrollado una tipo de célula convectiva térmica que consiste en la mitad (hemisferio) de una burbuja de jabón calentada por su ecuador (base) con objeto de estudiar la convección térmica y el movimiento de vórtices aislados en la superficie de la burbuja. Estos vórtices aislados se parecen a ciclones o huracanes, y a la Gran Mancha Roja de Júpiter.

La convección térmica turbulenta es un fenómeno natural ubicuo en muchos sistemas, como la atmosféra, el núcleo de los planetas o la superficie de los planetas gaseosos. Este fenómeno conduce a la generación de vórtices extremadamente robustos (especialmente en sistemas tridimensionales). Sin embargo, es muy interesante estudiarlo también en sistemas en dos dimensiones (superficies como la de la burbuja de jabón o la atmósfera de la Tierra, una delgadísima capa comparada con su radio). De hecho, la Gran Mancha Roja parece ser un vórtice debido a la estructura propia de la capa más externa de Júpiter y es un fenómeno estrictamente de física bidimensional. Una manera de experimentar en laboratorio con este fenómeno es el uso de células convectiva térmicas de burbujas de jabón.

¿Por qué son tan robustos estos grandes vórtices? No se sabe, pero una explicación puede ser la ausencia de paredes con las que interactuar (en células convectivas de laboratorio, con paredes, los vórtices no son tan duraderos). Esta ausencia se observa en un planeta como Júpiter y también en la la superficie de una burbuja de jabón.

La gran diferencia entre las películas de jabón planas y las curvas es la aparición (emergente) de vórtices. La figura de arriba ilustra el proceso de generación de un vórtice. Estos vórtices son más probables a incrementos de temperatura altos, aunque no están completamente ausentes en otro caso.

El análisis detallado de estos vórtices en burbujas calentadas es un problema extremadamente difícil, pero un análisis simple con leyes de escala permite entender algunas de las características observadas experimentalmente, sugiriendo que se trata de vórtices superdifusivos. En la difusión normal, el desplazamiento medio cuadrático de las partículas es una función lineal del tiempo. En la difusión anómala, esta función es no lineal (normalmente una ley de potencias con un exponente α). En la difusión normal sería α = 1. En la superdifusión, α > 1. En la subdifusión, α < 1. 

La figura muestra el desplazamiento cuadrático medio de los vórtices en la burbuja (izquierda) y de huracanes en la atmósfera terrestre (derecha), mostrando su ajuste con una ley de potencia que comparte el mismo exponente, 1.6. Algo curioso, que no demuestra que ambos fenómenos (relacionados por otro lado) se expliquen con la misma física. Sin embargo, la analogía fotográfica, queda ratificada por esta analogía estadística en los movimientos de los vórtices, lo que implica que la dinámica de interacción de los vórtices con su medio puede ser similar en ambos fenómenos.

En resumen, un trabajo muy sugerente. Habrá que estar “al loro” para ver a qué conduce.

CONFERENCIA en MÁLAGA (hoy): LA ENERGÍA OSCURA CUMPLE DIEZ AÑOS

10 abril LA ENERGÍA OSCURA CUMPLE DIEZ AÑOS C.A.C. 19:30

Dra. Licia Verde, Profesora ICREA en el ICE, Instituto de Ciencias del Espacio (IEEC-CSIC, Barcelona) y Visiting Senior Research Scientist, Princeton University, USA.

XI CICLO DE CONFERENCIAS “PRESENTE Y FUTURO DE LA CIENCIA YLA TECNOLOGÍA”

Centro de Arte Contemporáneo de Málaga (CAC) de MÁLAGA

Ver el pasado a través de una lente gravitatoria (o cómo ver varios momentos del pasado simultáneamente)

¿Son justos los exámenes? (o las “injusticias” que todos hemos sufrido)

La injusticia del móvil (alumnos pillados con móvil son acusados de copiones en Escocia)

¿Quién no odia los exámenes? ¿Quién no ha sufrido una evaluación “injusta” alguna vez? Todo el mundo está de acuerdo, alumnos y profesores, que los exámenes deben ser “justos”, pero ¿qué significa “justicia” en este contexto? Si no nos ponemos de acuerdo todos en qué significa “que los exámenes sean justos” cualquier apelación a su “justicia” está completamente injustificada. El artículo de Mathieu Bouville, “Exam fairness,” ArXiv preprint, 29 Marzo 2008, trata de responder a esta peliaguda cuestión.

De acuerdo con Felder (“Designing Tests to Maximize Learning.” J. Professional Issues in Engineering Education and Practice, 128 (1), pp. 1-3, 2002), los estudiantes consideran injusto un examen en los siguientes casos:  (1) aparecen problemas sobre contenidos no cubiertos en las clases o en las ejercicios propuestos; (2) aparecen problemas que los estudiantes consideran de “idea feliz”, que requieren la visita de “inspiración” durante el examen; (3) tienen una longitud excesiva, con lo que sólo los “mejores corredores de fondo” entre los alumnos pueden finalizar a tiempo; (4) la puntuación es excesivamente “plana”, valorando por igual errores pequeños de cálculo y grandes errores de concepto; (5) la puntuación es inconsistente entre los alumnos, que ante el mismo error unos reciben más puntuación y otros menos. Nótese que estos ejemplos no son un buen indicativo de “justicia”. Los casos (1) y (2) afectan por igual a todos los estudiantes (en lugar de favorecer más a unos que a otros, algo claramente injusto). Parece como si muchos alumnos dijeran “este examen es injusto” cuando quieren decir “no me gusta la asignatura”.

Por justicia podemos entender “justicia en el tratamiento” al alumno: la misma vara de medir se aplica a todos los estudiantes; por supuesto, la misma respuesta debería recibir la misma calificación. En particular, podemos decir que un exámen es justo si está basado en objetivos docentes explícitos (dí lo que haces y haz lo que dices). Sin embargo, un objetivo docente podría ser adquirir la habilidad para resolver problemas rápidamente, pero favorecería a los alumnos más habilidosos. El problema de justicia se pasa a los objetivos docentes, ¿son justos?

Por “justicia de tratamiento” podemos entender “aplicar el mismo criterio (conocido a priori) a todos los estudiantes”. Sin embargo, en este sentido, dar más puntos a los alumnos cuyo apellido empiece por B (de bueno o de burrito como tú) no es menos justo que dárselos si obtienen la respuesta correcta (en ambos casos se aplica la misma regla a todos los estudiantes y en ambos casos es más conveniente para algunos alumnos y menos para otros). Podemos afirmar que todos los alumnos “serían tratados” justamente.

Obviamente la “justicia de tratamiento” no es justa en sí, sino que propaga la “justicia de los criterios” que se apliquen a todos. Si estos son justos, será justa, si no, no lo será.

¿Para qué sirven los exámenes? Puede servir para dar una puntuación y ordenar a los alumnos en función de ella, para que los alumnos auto-evalúen su propio estudio y conocimientos, para que el profesor aprende qué es lo que los alumnos no entienden de la materia, etc. La “justicia” no es aplicable a todas estas cuestiones. La “justicia” es aplicable cuando el exámen se utiliza para “valorar” el talento, las competencias o las actitudes del alumno, cuando se convierte en estimador de éstas.

El autor introduce la “justicia de oportunidades”, la “justicia democrática”, todo americano puede llegar a Presidente de EEUU, luego todo alumno puede llegar a tener la máxima calificación. Habrá ganadores y vencidos. Como en el deporte. ¿Pero tiene sentido una partición de este tipo en la Educación Superior? Ante exámenes de larga duración tenemos los alumnos “rápidos” que acaban pronto (y a veces hasta bien) y los “lentos” que se eternizan, dure el examen lo que dure, el alumno necesita cinco minutos más.

El concepto más natural de “justicia” es simplemente tratar a todo el mundo por igual, la “justicia en el trato”. Sin embargo, qué hacer cuando los alumnos tienen diferentes habilidades, a veces, no fácilmente comparables entre sí. ¿Cómo valoramos las diferentes habilidades? ¿Cuáles son las habilidades más importantes o relevantes para la materia a estudio? Depende, todo depende, del contexto. Comparemos las habilidades en un jugador de fútbol y otro de baloncesto. ¿Qué hace que un alumno sea mejor en matemáticas que en física o en literatura?

Comparar la “justicia en el trato” con la “justicia en las oportunidades” es difícil. No podemos asumir que todos los alumnos son iguales y tienen las mismas habilidades, pero deberíamos “medirlos con el mismo rasero”. Quizás las nuevas tendencias en la Espacio Europeo de Educación Superior (EEES), que favorecen que los alumnos estudien para prepararse mejor para el mundo laboral, con la profesionalidad como objetivo y no como consecuencia, permitan a los profesores tomar mejores decisiones en cómo evaluar las competencias de los alumnos. De todas formas, en mi opinión, todavía queda mucho camino por recorrer.

Comentarios “robados” de Menéame.

Kirchhoff : El problema no son los exámenes en sí, sino el ánimo con el que alumnos y profesores nos enfrentamos a ellos. Yo he tenido/tengo profesores que los utilizan tanto para conseguir “pillar” a los que no se han estudiado algo como para comprobar realmente si las clases han valido para algo. Y también tengo compañeros que acuden a un examen pensando “a ver si me se 5 de diez y paso” y “me da igual que me pregunten, porque me lo se todo”.

Utah : El artículo no reflexiona sobre lo lícito de celebrar un examen, sino sobre el concepto de justicia aplicado a la corrección de los mismos; dudo de que haya personas dispuestas a poner en un aprieto a un profesor, uno con una nota mayor y otra menor con el mismo fallo. A los alumnos les faltan bemoles para cosas menores, difícilmente darían la cara ellos solos en un particular semejante.

Herumel : En la vida aparte de para una entrevista de trabajo (y hablo de la mayoria de trabajos) no son necesarios los exámenes, el trabajo diario es lo que importa realmente… Por ello deberiamos preguntarnos realmente si los examenes en sí es la manera correcta de preparar los futuros trabajadores, además de que 3 meses de vacaciones también es una forma poco cercana a la realidad de formarlos, cuando en el mejor de los casos unicamente tendrán 1 continuado en la mayoría ni eso… Creo que para favorecer a unos determinados funcionarios, nos hemos alejado mucho en la concepción global de formación para trabajar de lo que será en si el trabajo futuro…

Variaciones de Mozart – creaciones de un genio con ingenio (o cómo el caos determinista puede ayudar a los compositores)

Traducción libre “adornada” del artículo de Diana S. Dabby, “Creating Musical Variation,” Science, Vol. 320. no. 5872, pp. 62 – 63, 4 April 2008.

Mozart necesitaba dinero. Recurrió a su amigo Michael Puchberg, quien se hizo de rogar. Hasta 21 cartas le envió entre 1788 y 1791, en las que se presentan hasta 24 variantes de la súplica “Amigo, me puedes prestar un céntimo?”. Mozart trataba con estas variaciones de lograr que su obra fuera del gusto de su “amigo”. Es un ejemplo perfecto de las llamadas variaciones musicales muy típicas en el s. XVIII, con exponentes tan importants como Haydn. Sobre un tema melódico de base se introducen múltiples “adornos” que lo enriquecen y le añaden complejidad. Arnold Schoenberg, uno de los grandes músicos del s. XX, definió las variaciones como “repetición en la que el algunas cosas se cambian pero el resto se mantienen”. Por ejemplo, 4 notas, de la misma duración, se pueden variar con alteraciones de ritmo, añadiendo notas vecinas, cambiando el orden de las notas, etc.

Arnold Schoenberg (c) Science Magazine

La moderna música disco y sus variantes nos muestran un gran número de ejemplos de variaciones. La música House parte de una muestra (sampling) de un disco anterior al que someten a múltiples transformaciones utilizando instrumentos electrónicos. Por ejemplo, French Kiss, del DJ Lil’Louis, la primera canción house que vendió un millón de copias en el mundo.

Pero desde el punto de vista de la música “clásica” (sus aficionados a veces la llaman “culta”) el gran revolucionario del s.XX antecesor de la moderna música electrónica es sin lugar a dudas John Cage, que rompió con toda la tradición permitiendo variaciones que hoy en día llamaríamos “cáoticas”: La partitura de la obra permite que el intérprete varíe, reordene, “decida” durante la ejecución. Cada obra es única.

Las técnicas matemáticas del caos permite “recrear” (o “interpretar”) este tipo de de obras mostrando todo un nuevo universo musical. Si la partitura de la obra viene descrita por un sistema dinámico caótico, sensible a las condiciones iniciales o a ciertos parámetros de tal forma que pequeñas variaciones de éstos conducen a grandes variaciones en la obra, estas perturbaciones durante la ejecución de la misma hacen que cada interpretación sea necesariamente única. Estas infinitas variaciones enriquecen la obra (cual la interpretación del jazz se enriquece gracias a las improvisaciones de sus intérpretes).

La autora del artículo, Diana Dabby, del Departmento de Ingeniería Eléctrica del MIT nos muestra algunas variaciones caóticas sobre una obra de Bach en el siguiente video de youtube.

 

La “pequeña” gran ciencia de los aceleradores de partículas “de bolsillo” (o aceleradores basados en láseres de petawatios)

3D model of Vulcan

Tour virtual por el Laboratorio del Láser Vulcano (p) Gary Booth

Los aceleradores de partículas (como el futuro LHC del CERN) y las fuentes de luz sincrotrón (útiles en medicina) son calificadas de “Ciencia Grande” (big science), no sólo por su importancia, sino porque requieren de laboratorios e instalaciones “enormes” (el sincrotrón Alba, que se instalará en el Vallés, será la mayor instalación científico-tecnológica de España y requerirá la inversión de más de 200 millones de euros, se espera que esté finalizado para el 2010).  Un artículo reciente (de 20 autores) S. Kneip et al., “Observation of Synchrotron Radiation from Electrons Accelerated in a Petawatt-Laser-Generated Plasma Cavity,” Phys. Rev. Lett. 100, 105006 (2008), ha utilizado un láser ultrapotente, de petawatios (recuerda: mega (millón), giga (mil-millones), tera (billón), y peta (mil-billones), o sea, de mil billones de watios, que no es “moco de pavo”), que ha dirigido a un pequeña muestra de gas hasta convertirla en un plasma de iones y electrones acelerados hasta energía de varios cientos de MeV (mega-electrón-voltio, una media de energía en aceleradores de partículas). Los investigadores han mostrado como canalizar ese plasma para lograr un fuente emisora de rayos X con energía de hasta 50 keV (similar a una fuente de luz sincrotrón para medicina). Si logran incrementar esta energía podrán lograr aceleradores de partículas basados en la aceleración láser (de los electrones) de un plasma.

Como el laboratorio Vulcano (en el que se ha producido el avance) es “muy pequeño” comparado con una instalación sincrotrón usual (como el que se construirá en España próximamente), este avance científico permitirá reducir el tamaño de estos laboratorios significativamente, aunque todavía no serán de tamaño “bolsillo”, claro.

Maqueta del futuro Sincrotrón Alba en el Vallés, será la mayor instalación científica de España