Campos masivos de aerogeneradores han incrementado la temperatura media nocturna de una pequeña región de Texas en unos 0,75 grados en la última década

Un equipo de investigación liderado por Liming Zhou, Universidad Estatal de Nueva York en Albany, usando datos de satélites, ha demostrado que los campos de aerogeneradores (molinos de viento) incrementan la temperatura noctura en la región donde están instalados hasta 0,72 grados por década, respecto a las zonas donde no están instalados. El resultado lo han publicado en Nature Climate Change, tras el análisis de los datos de satélites para la temperatura en la parte central de Texas, donde se encuentran los mayores campos eólicos del mundo (en la región estudiada se han instalado 2358 molinos de viento entre 2001 y 2011), entre los años 2003 y 2011. Los autores creen que la causa es que los que diseñan los campos de molinos eólicos eligen los lugares donde hay más viento por lo que alteran el enfriamiento natural convectivo provocando una deriva térmica hacia un «clima» local más cálido. El artículo técnico es Liming Zhou et al., «Impacts of wind farms on land surface temperature,» Nature Climate Change, Published online 29 April 2012. Merece la pena ojear la información suplementaria que incluye gran número de figuras que detallan los puntos más relevantes del análisis.

Los autores han preparado un Q&A sobre el estudio para los medios. Primero, aclaran que es el primer estudio observacional que demuestra el calentamiento de la zona donde están instalados parques eólicos (hay estudios previos pero sus resultados, según los autores, son menos firmes). Segundo, han medido la temperatura de la «superficie» entendida como tal la que pueden medir los satélites; esta temperatura no corresponde a la temperatura del aire (lo que nos ofrecen los partes meteorológicos). Tercero, su hipótesis es que las aspas de los molinos de viento crean estelas de aire de tipo turbulento que afectan a  cómo se mezclan las capas de aire bajo los molinos y encima de ellos. Cuarto, el efecto observado es más evidente en las temperaturas nocturnas porque la atmósfera de noche es más estable que de día y está más estratificada (una capa de aire caliente encima de una capa de aire frío); de día esta estratificación no es tan clara y la turbulencia producida por los aerogenerados influye mucho menos.

Quinto, atribuyen el calentamiento a los molinos de viento porque su distribución espacial coincide con la de ellos y porque se ha observado un incremento en el calentamiento acorde con el incremento del número de molinos instalados. Sexto, el calentamiento observado de 0,72 ºC por década se ha calculado respecto a la temperatura media de las zonas adyacentes donde no hay molinos. Séptimo, no se pueden extrapolar este valor a otras regiones donde haya campos de aerogeneradores ya que hay varias coyunturas específicas propias de esta región, la más densa en molinos del mundo y donde el crecimiento de su número ha sido más rápido. Octavo, las incertidumbres en el estudio indican que sus resultados no son definitivos, solo ilustrativos.

Noveno, comparado con otros efectos antropogénicos (como el uso agrícola del terreno o las islas de calor urbanas), el efecto observado es muy pequeño. Décimo, los efectos observados son locales y no se pueden extrapolar a escala climática, aunque sería conveniente que se hicieran estudios similares a mayor escala dado el gran incremento de las instalaciones eólicas en EE.UU. Décimo primero, este estudio pionero usando datos de satélites será extendido a otras regiones con grandes parques eólicos. Y décimo segundo, los autores advierten a los detractores del cambio climático y del impacto de las emisiones de CO2 en la atmósfera que este estudio no debe ser sacado fuera de contexto y extrapolado sin más.

PS: La noticia ha aparecido en muchos medios, por ejemplo, «Los generadores de energía eólica pueden cambiar la temperatura,» BBC Mundo, May 1, 2012. Por cierto, quizás convenga recordar que la región estudiada es muy pequeña, más o menos, el cuadradito rojo de la siguiente figura.

PS (2 mayo 2012): Hay un malentendido asociado al título de este artículo que quizás es el origen de la polémica en los comenarios. No es que el cambio en temperatura del suelo observado por estos autores en una década vaya a seguir creciendo al ritmo de 0,75 ºC durante muchas décadas y dentro de 50 años se alcance un incremento de temperatura de 37,5 ºC; no es posible extrapolar a muchas décadas un resultado obtenido para una sola década. Se ha medido un cambio de 0,75 ºC en una década, nadie debe esperar que este valor crezca mucho más en la próxima década, no tiene ningún sentido. Además, la curva negra en la figura de abajo, extraída del artículo técnico, sugieren un cierto plateau, que tendrá que ser confirmado con estudios futuros.

Me he dado cuenta de este malentendido al ver lo nos cuenta Lubos Motl, «Do wind farms cause global warming?,» TRF, may 02, 2012. Quien, con su peculiar estilo, bromea «if you assume that the resulting warming is linear, then 0.72 °C per decade may become 80 times higher, i.e. up to 58 °C of warming per decade or 580 °C per century in the regions surrounding the growing wind farms. Such increased temperatures could be a bit unpleasant for those TRF readers who don’t like hot weather.» Pero esta broma me ha abierto, los ojos, la gente que lee mi titular extrapola y no era mi intención, por ello lo he cambiado.

PS (10 mayo 2012): Un estudio previo con conclusiones similares del MIT Joint Program on the Science and Policy of Global Change, Chien Wang and Ronald Prinn, «Potential Climatic Impacts and Reliability of Very Large Scale Wind Farms,» Report No. 175, June 2009, y la charla Chien Wang (MIT), «Potential Climate Impact of Large-Scale Deployment of Renewable Energy Technologies,» Slides, PDF.

La masa de un protón, la masa de sus quarks y la energía cinética de sus gluones

Decir que un protón son tres quarks unidos entre sí por gluones es como decir que un átomo de carbono son 6 electrones, 6 protones y 6 neutrones; con esta definición se pierde mucha información sobre sus propiedades. No es cierto que el 99% de la masa de un protón la aporten los gluones y la energía cinética de los quarks; la masa de los quarks debida al bosón de Higgs aporta mucho más del 1% restante. Los cálculos exactos indican que la masa de todos los quarks de un protón contribuyen casi un octavo (1/8) de su masa (la mitad de este valor es debido a sus quarks extraños, que no son quarks de valencia). Un tercio (1/3) de la masa del protón es debida a la energía cinética y potencial de los quarks (como se mueven muy rápido dentro del protón, su radio es muy pequeño, este valor tan bajo es debido a la cancelación entre ambas contribuciones). Otro tercio (1/3) es debido a la energía cinética y potencial de los gluones. Finalmente, la anomalía de traza contribuye alrededor de un cuarto (1/4). Como siempre, los detalles técnicos requieren cierta matemática. Los físicos (aunque no sean expertos en QCD) disfrutarán del artículo de Xiangdong Ji, «QCD Analysis of the Mass Structure of the Nucleon,» Phys. Rev. Lett. 74: 1071–1074 (1995) [arXiv:hep-ph/9410274], y de las transparencias de su charla Xiangdong Ji (University of Maryland), «Gluons in the proton,» BNL Nuclear Physics Seminar, Dec. 19, 2006.

No me gusta que este blog parezca un libro de texto, porque no lo es; mi objetivo es otro, divulgar noticias científicas de actualidad. Sin embargo, me gusta cumplir mis promesas, aunque no siempre puedo hacerlo, y prometí en Twitter «Voy a escribir una entrada sobre qué es un protón y por qué tiene la masa que tiene.» El origen de esta entrada es una conversación en Twitter de la que me enteré a tiro pasado iniciada por César @EDocet con «La materia ordinaria se construye con 2 quarks (up y down) y el electrón. Pero toda la materia no es toda la masa… Un protón está constituido por dos quarks up y un down; el neutrón por dos down y un up… El 99% de la masa de la materia ordinaria la aportan los gluones y la energía cinética de los quarks de los nucleones…» Mario @Fooly_Cooly contestó que «esos son los de valencia, en realidad los hadrones son mares cuánticos de todos los tipos de quarks y gluones… Los gluones no tienen masa.» César @EDocet preguntó sobre si los gluones «¿Tienen energía? m = E/c².» Mario @Fooly_Cooly contestó que «otro tema es que los loops de interacción de gluones doten de inercia a partículas compuestas como los protones, pero es otra cosa. Esa ecuación sólo es válida para partículas con masa en reposo (es a lo que se refiere). Los gluones no pueden tener masa por ser propagadores de un campo gauge; la simetría gauge prohibe términos de masa. » Las conversaciones en Twitter a veces incluyen términos muy técnicos. Ramón @ramoneeza trató de arreglarlo afirmando que los gluones tienen «energía en función de su frecuencia, no masa.» Al grano. 

El núcleo de los átomos está formado por nucleones (N), tanto protones (p) de carga positiva (N+), como neutrones (n) sin carga eléctrica (N0). La masa de un nucleón es de 939 MeV/c², en números redondos, ya que según el PDG el protón tiene una masa de 938,272013 ± 0,000023 MeV/c², y el neutrón de 939,565346 ± 0,000023. El nucleón es una partícula compuesta y presenta estados excitados llamados resonancias de masa creciente: N(1440), N(1520), N(1535), N(1650), etc. Estas resonancias son inestables y decaen en bariones y mesones de menor masa. De hecho, el neutrón también es inestable y decae en el vacío en un protón, un electrón y un antineutrino tras unos 881,5 ± 1,5 segundos (unos 14 minutos y 42 segundos), aunque no es fácil calcular este valor y la incertidumbre podría ser mayor. El protón es estable ya que su desintegración en un electrón y un pión no ha sido observada; su vida media debe superar unos 10³² años, miles de trillones de veces la edad del universo.

Se sabe que el protón tenía que ser una partícula compuesta desde la década de los 1930 porque su momento magnético era «anómalo» (unas 2,8 veces mayor de lo esperado si fuera una partícula elemental como el electrón), algo que se confirmó a finales de los 1940 cuando se descubrieron las primeras resonancias. A finales de los 1950 nadie dudaba que el protón tenía que estar compuesto de cosas más elementales y los físicos propusieron varios modelos teóricos, pero ninguno era capaz de explicar las propiedades observadas para el nucleón. Los experimentos en el SLAC entre 1967 y 1973, en los que se exploraba el interior del protón utilizando electrones de alta energía, demostraron que el protón estaba constituido de muchas partículas más pequeñas llamadas partones por Richard Feynman. Hasta 1973, estos experimentos no demostraron de forma definitiva que los partones eran quarks, antiquarks y gluones, como muestra la figura que abre esta entrada.

Como ya he dicho, la imagen de un protón como tres quarks unidos entre sí por un «mar» de gluones es incorrecta pero útil a nivel divulgativo. En este blog la he utilizado en varias ocasiones, ya que la manera más rápida de describir un barión es nombrar sus quarks de valencia, que en el caso del protón son dos quarks arriba (u) y un quark abajo (d). Pero no debemos olvidar que decir que un protón es un barión uud y que un neutrón es un barión udd es algo parecido a decir que un átomo de carbono son 6 electrones, 6 protones y 6 neutrones (solo el 98,9% de los átomos de carbono son 12C, el 1,1% son 13C y siempre hay trazas del famoso 14C); se pierde muchísima información sobre las propiedades de un átomo de carbono con una descripción tan sencilla. Lo mismo ocurre con un protón.

Las únicas propiedades del protón que se pueden explicar utilizando solo sus tres quarks de valencia son su espín (1/2), su carga eléctrica (+1) y su hipercarga (+1), o lo que es equivalente, su isoespín (+1/2); lo mismo ocurre con el neutrón. Los gluones son neutros para la carga eléctrica y el resto de los quarks y antiquarks que constituyen el protón compensan mutuamente sus cargas eléctricas y sus hipercargas de tal forma que en promedio se comportan como si fueran neutros. Las demás propiedades del protón (su masa, su momento magnético, su polarizabilidad magnética, su momento dipolar eléctrico, su polarizabilidad eléctrica, etc.) requieren considerar su estructura en detalle; como esta estructura detallada es muy complicada, con infinidad de quarks, antiquarks y gluones, para estimar estas propiedades con precisión se requieren cálculos numéricos utilizando cromodinámica cuántica en redes o reticular (lattice QCD).

La masa del protón según la QCD se puede repartir en varios términos bien diferenciados utilizando la descomposición «natural» del tensor energía-momento del campo,  que describe como se reparten la energía cinética y potencial de los quarks, antiquarks y gluones que constituyen el protón, y como afectan las masas de los quarks y la anomalía de traza de los gluones. La energía total del protón, la responsable de su masa, se puede repartir en cuatro términos. Técnicamente se utiliza el concepto de hamiltoniano y por ello se usa la letra H para denominar estos cuatros términos de la energía, en concreto, HQCD = Hm + Hq + H+ Ha. Estos cuatro términos se pueden parametrizar con dos variables (a y b) que se utilizan para su evaluación numérica. El término Hm representa la contribución de la masa de todos los quarks y antiquarks del protón, incluyendo los quarks de valencia, y corresponde a una fracción b de dicha masa. El término Hq representa la energía cinética y potencial de los quarks y antiquarks del protón, que contribuyen con una fracción 3(a − b)/4 a la masa del protón.  El término Hg representa la energía cinética y potencial de los gluones del protón y contribuye una fracción 3(1 − a)/4 a la masa total. Finalmente, el término Ha representa la energía de los gluones debida a la anomalía de traza, que contribuye con una fracción (1 − b)/4. Este último término es el más difícil de explicar sin usar matemáticas y creo es que el término al que se refiere Mario @Fooly_Cooly cuando habla de «loops de interacción.»

Permíteme un breve comentario al respecto de la anomalía de traza, aunque no sé si aclarará ideas a algún lector; puedes omitir este párrafo si te apetece. Una teoría gauge, como la QCD, presenta ciertos grados de libertad que hay que fijar a la hora de realizar cálculos, aunque los resultados de dichos cálculos no dependen de la elección realizada. Cuando medimos un voltaje entre dos puntos de un circuito en realidad lo que medimos es una diferencia de potencial; el voltaje en cada punto de un circuito tiene un valor respecto a un terminal de masa; dar un valor absoluto concreto al potencial en este terminal es fijar un gauge; no importa el valor que pongamos, las diferencias de potencial siempre serán la mismas. En QCD fijar un gauge es algo un poquito más complicado, pero la idea es la misma. A la hora de calcular la masa del protón es habitual fijar un gauge tal que la traza del tensor de energía-momento es cero (así se representa mejor la conservación de este tensor). Una vez fijado este gauge se procede a realizar la renormalización de la teoría (necesaria para obtener resultados finitos en ciertos cálculos). La anomalía de traza aparece porque cierto término asociado a los gluones no se puede renormalizar con este gauge y su contribución ha de ser calculada de manera independiente; este término representa, grosso modo, el confinamiento de los gluones. Su cálculo requiere técnicas no perturbativas y se utiliza una herramienta matemática llamada loops de Wilson; sin entrar en detalles técnicos, estos loops corresponden a un cambio de variables en ciertas integrables que se interpreta como bucles cerrados de gluones, algo así como lazos de energía gluónica, por llamarlos de alguna manera. Calcular loops de Wilson es algo que todo físico que quiera realizar cálculos en QCD tiene que dominar (de hecho en cualquier teoría gauge interesante incluyendo la teoría de cuerdas, donde se usan mucho los loops de Polyakov). Bueno, continúo, si no te has enterado de nada, lo siento.

El cálculo teórico de la contribución de cada uno de los cuatro términos de la energía total del protón requiere el uso de métodos numéricos. Ji en su artículo realiza dicho cálculo bajo la hipótesis de que en el protón solo hay tres tipos de quarks, arriba, abajo y extraño (los quarks encanto tienen mayor masa que un protón y no pueden contribuir en su masa, aunque sí pueden hacerlo en ciertas resonancias del nucleón). El artículo presenta el resultado en dos casos extremos, que el quark extraño tenga una masa muy pequeña (ms→0) y que tenga una masa enorme (ms→∞), comparada con la masa de los quarks de valencia. La tabla de arriba muestra la contribución aproximada de cada término. La masa de los quarks de valencia suma menos de 10 MeV (he supuesto que el quark arriba tiene 2,4 MeV y el quark abajo el doble, 4,8 MeV, pero el valor exacto de la masa de estos quarks aislados no se conoce pues no se pueden aislar); un valor muy pequeño comparado con los entre 110 y 160 MeV que contribuyen la masa de todos los quarks dentro del protón. La energía cinética y potencial de estos quarks contribuye entre 270 y 300 MeV. La energía cinética y potencial de los gluones unos 320 MeV y el término debido a la anomalía de traza entre 190 y 210 MeV. Los números de la tabla suman los 940 MeV estimados para la masa del nucleón.

PS: En los comentarios, uno de vosotros, que firma como V, nos aclara que la contribución de la masa de los quarks a la masa del protón es un «tema espinoso, más aun teniendo en cuenta que nuestro conocimiento sobre este tema ha variado desde que se publicó el artículo que mencionas» (en 1995). «En esencia las contribuciones debidas a los quarks, son lo que se llaman términos sigma. El artículo que apuntas usa bien teoría de perturbaciones quiral, bien algunos argumentos bastante discutibles. La realidad es que los cálculos puramente numéricos de estas cantidades dan una imagen bien distinta, en la que la contribución del quark extraño a la masa del nucleón es muy pequeña, en algunos casos compatible con cero. Aún a día de hoy hay una discusión importante sobre esto, más que nada porque el valor de esta cantidad es necesario para saber la probabilidad que tenemos de detectar materia oscura.»

Por lo que parece la discusión se centra en la contribución de la masa de los quarks a la masa del protón, el término b en la tabla, que vale entre 0,11 y 0,17. Algunos artículos confirman el valor de Ji, como P.R. Silva, «Analysis of the mass structure of the hadrons,» arXiv:1108.2073, Aug 2011; otros obtienen un valor algo más pequeño, b≈0,09, que equivale a unos 85 MeV, como H. B. Meyer, «Hadron Structure on the Lattice,» arXiv:1106.3163, Feb 2011; incluso algunos separan la contribución de los quarks de valencia σl(N) = 31 ± 3 ± 4 MeV y de los quarks estraños σs(N) = 71 ± 34 ± 59 MeV, aunque estos últimos con mucha incertidumbre, como R. Horsley et al., «Hyperon sigma terms for 2+1 quark flavours,» arXiv:1110.4971, Oct 2011.

Sin embargo, como bien nos comenta V, también hay autores que afirman que los quarks extraños no contribuyen nada, reduciendo b≈0,03, lo que equivale a unos σ(N) = σl(N) = 26 MeV, o muy poco, con unos  σ(N) = 36 ± 7 MeV. Él nos cita A.W. Thomas et al., «Strangeness in the nucleon: what have we learned?,» arXiv:1202.6407, Feb 2012. Según estos autores hay una escala de energía crítica de alrededor de 0,4 GeV y como el kaón (el mesón formado por un par quark-antiquark extraños) tiene una masa de unos 0,5 GeV, la contribución de los quarks extraños a la masa del protón es muy pequeña (b = 0,066 ± 0,011 ± 0,002) o incluso nula b = 0,04 ± 0,02, pero siempre mucho más pequeña de lo estimado por Ji en 1995.

Como yo no soy experto en estas lides, no puedo aportar mucho más, pero trataré de estar al loro de futuros avances en este sentido (he de confesar que aunque investigo en métodos numéricos para ecuaciones de onda no lineales, no suelo leer artículos de QCD en  redes; obviamente nunca es tarde para empezar).

Repsol YPF, Vaca Muerta y el segundo principio de la termodinámica

Producción de petróleo en Argentina, 1911-2011. Fuente Instituto Argentino del Petróleo y Gas.

«Toda actividad económica depende de que haya energía disponible. Existe una conocida relación entre crecimiento económico y consumo de energía: son curvas calcadas. La curva de Hubbert (1957) nos recuerda que el petróleo no se acaba nunca, sino que cada vez se hace más difícil de extraer: como un tubo de dentífrico vaciándose, siempre le queda algo más, pero al final el esfuerzo por extraer una ínfima cantidad de pasta, ya no vale el intento. Hubbert predijo el pico mundial de producción de petróleo para 1995. Pasado ese año la producción seguía en aumento y muchos afirmaron que la teoría del pico de Hubbert o peak oil no podía aplicarse a escala mundial. Pero en 2010, la Agencia Internacional de Energía reconoció que en 2006 se produjo un pico en la producción mundial y desde entonces se ha producido un declive suave. Nuestra época es adicta y dependiente de la energía. Con el petróleo, nos hemos acostumbrado a obtenerla demasiado fácilmente.» Nos lo recuerda desde Argentina NDH, «YPF: es la termodinámica, estúpido,» Derecho a leer, 26 abril 2012. Recomiendo la lectura de su extenso artículo del que me permito extraer unos retazos.

«Una economía que crece a un 3% anual, se duplica al cabo de 23 años y medio, es decir, si hoy consume 100 unidades de energía por año, en dos décadas consumirá 200 y en otras dos, 400. Mientras estemos dentro de la fase ascendente de la curva de Hubbert, el incremento de la producción del petróleo puede acompañar la demanda y no hay problemas de escasez. Pero pasado el cenit, la curva de producción no sólo se desacopla bruscamente de la de crecimiento, sino que pronto cae en picada. Por más inversiones que se hagan, no se puede revertir la tendencia decreciente. Llegado este punto, el problema más urgente es el ritmo de producción, la mitad que aún sigue disponible en los yacimientos no se puede extraer al ritmo que necesita la economía. Es el problema del tubo dentífrico, cada vez cuesta más sacar menos. Argentina llegó a su cenit en 1999, sólo que su propia demanda de energía era tan inferior a su capacidad de producción, que podía exportar alrededor de la mitad de lo que producía. Durante la primera década del nuevo milenio Argentina fue exportando cada vez menos, hasta, que en 2011 ya era importador neto de gas natural.»

«El salvavidas enérgetico ahora se llama «hidrocarburos no convencionales». Imagine una piedra sólida, pero con algunas burbujas microscópicas de gas atrapado en su interior, en la profundidad de la tierra. En comparación con el crudo que brotaba espontáneamente, los no convencionales son como la técnica avanzada para sacar lo último del tubo de dentífrico que creíamos vacío. El petróleo no se ha agotado y está lejos de hacerlo —quedan enormes reservas ¡el 50% o más!— pero todos los pozos extrayendo a todo ritmo no alcanzan para cubrir la demanda. Se empieza a tratar de sacar hidrocarburos desde donde no hay. La única solución que la tecnología presente ha podido brindar en forma efectiva. Sin embargo, no puede pasarse por encima de los límites de la termodinámica y aparece la pardoja: Obtener energía implica un consumo de energía, la tasa de retorno energético. A principios de siglo el petróleo era tan fácil de extraer que sólo con la energía de un barril se extaían otros 100. A finales de siglo pasado, se obtenían solamente 10. Esta disminución refleja la mayor dificultad para extraer el crudo a medida que las reservas disminuyen. Una baja tasa de retorno energético indica la inviabilidad del recurso como solución. En el caso de los no convencionales, por cada unidad de energía utilizada para la extracción, tan sólo se extraen entre 2 y 5. ¿Realmente la energía necesaria para partir una piedra en mil pedazos, es menor que la que proporcionarán las burbujas microscópicas de gas en su interior?»

«Vaca Muerta es el sugerente nombre del yacimiento descubierto por Repsol/YPF en 2011. Gran promesa energética para Argentina, es una de las causas centrales que llevaron al gobierno a decidirse por la nacionalización de las acciones de Repsol. Se calcula que su valor potencial asciende a más de 100.000 millones de dólares. Sin embargo, Repsol ha dejado trascender una pretensión de apenas 10.000 millones. ¿Por qué tan poco interés ante una perspectiva tan prometedora? Vaca Muerta es un yacimiento no convencional o sea, como tratar de sacar gas de las piedras. La explotación se justifica mientras los precios sean estratosféricos. Su explotación es viable sólo por los altos precios del petróleo actuales. El agotamiento de los combustibles fósiles y el impacto que implica para el sistema actual, a saber, la ausencia de una fuente de energía barata, abundante y fácil de obtener, es un desafío inédito que no tendrán que enfrentar nuestros nietos o hijos, lo tendremos que enfrentar nosotros mismos dentro de muy poco tiempo —excepto que ocurra algún milagro en el medio. Nuestros gobernantes y especialistas en temas energéticos, más al tanto de las implicancias de la escasez, aún siguen en la etapa negación

Georgescu-Roegen realizó el siguiente símil. Considera un reloj de arena, un sistema cerrado en el que no entra ni sale arena. La cantidad de arena en el reloj es constante; la arena ni se crea ni se destruye en ese reloj. Esta es la analogía de la primera ley de la termodinámica: no hay creación ni destrucción de la materia-energía. Aunque la cantidad de arena en el reloj es constante, su distribución cualitativa está constantemente cambiando: la cavidad inferior se va llenando, mientras la cavidad superior se vacía. Esta es la analogía de la segunda ley de la termodinámica, en la que la entropía (que es la arena de la cavidad inferior) aumenta constantemente. La arena de la cavidad superior (la baja entropía) es capaz de hacer un trabajo mientras cae, como el agua en la parte superior de una catarata. La arena en la cavidad inferior (alta entropía) ha agotado su capacidad de realizar un trabajo. El reloj de arena no puede darse la vuelta: la energía gastada no puede reciclarse, a menos que se emplee más energía en ese reciclaje que la que será desarrollada por la cantidad reciclada. Como se ha explicado antes, tenemos dos fuentes del recurso esencial natural, el solar y el terrestre, y nuestra dependencia ha cambiado de la primera a la segunda. En «For the Greater Common Good» Herman Daly y John Cobb Jr. Beacon Press, 1989. Fuente. Recomiendo también este cuento de Asimov sobre la entropía

El experimento CMS observa por primera vez una nueva excitación del barión Xi(b) neutro (formado por los quarks b, s y u)

Hay noticias importantes en física de partículas que seguramente no rellenan los titulares de los medios pero que en este blog no podemos olvidar. El descubrimiento de una nueva resonancia de un barión (formado por tres quarks) es muy importante a la hora de realizar estudios de precisión del modelo estándar. El experimento CMS del Gran Colisionador de Hadrones (LHC) en el CERN, tras analizar 5,3 /fb de colisiones a 7 TeV durante 2011 ha descubierto con una significación estadística de 5 sigmas un nuevo estado excitado de un barión usb llamado Ξ*b0, cuya masa es 5945,0 ± 2,8 MeV. El estado fundamental del barión neutro Ξb0, formado por un quark fondo (b), uno extraño (s) y uno arriba (u), ya había sido observado, pero la teoría predice múltiples estados excitados. El primero en ser observado es Ξ*b0 (con JP=3/2+) que se ha resistido a su detección porque decae muy rápidamente en partículas más ligeras (una cascada con un protón, dos muones y tres piones).  No es fácil relatar el alarde técnico que requiere realizar esta detección en las colisiones protón contra protón en el LHC. Más información en «Observation of a new Xi_b beauty particle,» CMS News, siendo el artículo técnico CMS Collaboration, «Observation of an excited Xi(b) baryon,» Submitted on 26 Apr. 2012, arXiv:1204.5955.

PS (28 abr. 2012): Recomiendo leer a Matt Strassler, «CMS Finds a New (Expected, Composite) Particle,» OPS, April 27, 2012, quien discute en detalle la diferencia entre encontrar una nueva partícula «elemental» y confirmar la existencia de una partícula «compuesta» (en este caso, un barión, una partícula similar a un protón, compuesta de quarks).

Nuevo récord al sincronizar dos relojes atómicos hasta el decimal 19 separados 920 km

Los experimentos más avanzados que miden la velocidad de los neutrinos (como OPERA en Gran Sasso, Italia, o MINOS en la mina de Soudan, EE.UU.) logran una precisión de unos pocos nanosegundos, pero necesitarían una precisión de unos pocos femtosegundos para medir la masa de estas esquivas partículas. Se publica hoy en Science un nuevo récord en la sincronización de dos relojes atómicos mediante una conexión de fibra óptica; el récord anterior eran unos 100 km, pero el nuevo alcanza 920 km. Los relojes ópticos tienen una precisión sin precedentes permitiendo una gran variedad de experimentos, incluyendo estudios fundamentales en física cuántica y cosmología, e incluso en aplicaciones prácticas en geodesia y navegación. Pero cuando dos relojes están muy alejados entre sí, sincronizarlos se vuelve una tarea muy difícil. Utilizar satélites y GPS reduce enormemente la precisión. La única opción es utilizar fibra óptica, pero en distancias de 730 km no se puede usar una única fibra. El nuevo artículo presenta una técnica que permite utilizar de forma estable múltiples enlaces de fibra óptica con una estabilidad en frecuencia sin precedentes de 5 x 10-15 por segundo, o unos 10-18 en menos de 1000 segundos. La desviación del valor de la frecuencia tras la sincronización de ambos relojes alcanzada con la nueva técnica es de solo 4 ×10-19. Experimentos como OPERA y MINOS ya pueden soñar con una medida precisa de la velocidad de los neutrinos. Nos lo cuenta Bruce Warrington, «Two Atomic Clocks Ticking as One,» Science 336: 421-422, 27 April 2012, que se hace eco del artículo técnico K. Predehl et al., «A 920-Kilometer Optical Fiber Link for Frequency Metrology at the 19th Decimal Place,» Science 336: 441-444, 27 April 2012.

Por qué se derrama el café de la taza al caminar con ella en la mano

Cada mañana, recién llegados a la universidad, aún adormilados, muchos físicos caminan hacia su despacho con una taza llena de café que no para de chapotear. Hans Mayer y Rouslan Krechetnikov, del Departamento de Ingeniería Mecánica de la Universidad de California en Santa Bárbara, quizás buscando un premio Ig Nobel, han publicado un artículo que estudia la biomecánica de la marcha, las fluidomecánica del café y cómo influyen en que éste se derrame. Un estudio realmente curioso, pero inútil, que a pesar de ello aparece en una revista del prestigio de Physical Review E. El modelo desarrollado es tan sencillo, un péndulo forzado, que puede ser utilizado por profesores de física de primer curso como ilustración curiosa para sus alumnos. Los parámetros del modelo se han estimado realizando experimentos con diferentes sujetos que han portado tazas de café rellenas a diferente altura y a los que se les ha indicado que caminen con diferentes marchas, tanto prestando atención a la taza como obviando su presencia. El líquido se mueve en la taza como un péndulo cuyas frecuencias naturales de oscilación dependen de la altura del líquido y del diámetro de la taza (también de la aceleración de la gravedad y de su viscosidad). El movimiento al caminar genera un movimiento oscilatorio de la taza hacia arriba y hacia abajo que puede excitar fácilmente los modos de oscilación del café, provocando un fenómeno de amplificación que hace que el café se derrame. Una taza típica  tiene unos 7 cm de diámetro y unos 10 cm de altura que conduce a una frecuencia natural de oscilación para la superficie del café de entre 2,6 y 4,3 Hz. Al caminar se introduce se fuerza un movimiento oscilatorio de la taza con una frecuencia entre 1 y 2,5 Hz, por lo que no se produce una resonancia. Por qué se derrama entonces el café. El artículo técnico ha descubierto la gran importancia que tiene el ruido introducido al caminar con pasos desiguales o ligeros movimientos de la mano. Este ruido es la clave para la amplificación de las oscilaciones naturales del café y provocar el indeseado derrame gracias a un fenómeno llamado resonancia paramétrica (similar al que provocaba el balanceo del famoso puente del milenio en Londres). Por qué se nos derrama el café incluso cuando tenemos mucho cuidado para que no lo haga. Según Mayer y Krechetnikiv la razón es el ruido; cuando tratamos de controlar las oscilaciones de la superficie del café aplicando un bucle realimentado (miramos cómo oscila la superficie del café y tratamos de ajustar nuestra marcha para evitar su amplificación), olvidamos que no podemos controlar el ruido e inducimos una aperiodicidad adicional en el forzamiento que acentúa su efecto. La recomendación de Mayer y Krechetnikiv es caminar con total normalidad, sin prestarle ninguna atención al café, aprovechando que la frecuencia del forzamiento introducido al caminar (menor de 2,5 Hz) es menor que la frecuencia natural de la oscilación del café (mayor de 2,6 Hz). El secreto no es ningún secreto. Yo confieso que lo practico todas las mañanas (aunque suelo llevar dos tazas juntas agarradas con la misma mano). El artículo técnico es H. C. Mayer and R. Krechetnikov, «Walking with coffee: Why does it spill?,» Phys. Rev. E 85: 046117 (2012).

Este estudio del chapoteo de la taza de café al caminar no es el primero que se realiza, ya lo discutió un informe de la NASA en 1967 (pero que no se publicó). Lo interesante de este tipo de estudios, en mi opinión, es su multidisciplinaridad. Por un lado, el estudio de la marcha humana es propio de la biomecánica, que además se preocupa del gasto energético y de la eficiencia del proceso; no caminan igual hombres y mujeres (debido a las diferencias en la cadera), e influyen parámetros tan diversos como el peso, altura, edad, salud, etc. Además, no caminamos igual en las distancias cortas que en las largas. Por otro lado, el estudio de la oscilación de la superficie de los líquidos tiene múltiples aplicaciones, como el diseño de tanques de combustibles para cohetes (que están sujetos a fuertes aceleraciones). Finalmente, todo lo relacionado con sistemas dinámicos, teoría del control y resonancia paramétrica. Pero los que me conocéis sabéis que a mí lo que más me llama la atención de estos estudios es la posibilidad de utilizarlos como parte de la docencia de muchas asignaturas en carreras de física e ingeniería. Este estudio combina resultados experimentales con un modelo teórico sencillo. La parte experimental incluye dos elementos clave, el análisis de la marcha de los sujetos, que se ha analizado utilizando un programa de análisis de imágenes escrito in MATLAB, y la medida de la altura del café en la taza, para la que se ha utilizado un sensor basado en un fotodiodo. Todo al alcance de un proyecto fin de carrera de un ingeniero industrial o mecánico. ¿Alguien se anima? Si lo hacéis no dudéis en comentarlo en este blog.

Porque #sinCiencia básica no hay progreso

¿Está invirtiendo nuestro país demasiado poco en ciencia básica? Una pregunta retórica que no solo pongo yo sobre la mesa, también Peter Gruss, presidente de la Sociedad Max Planck, Munich, Alemania, quien además lo hace en Science («Driven by Basic Research«). «La crisis financiera global ha conducido a que muchos países industrializados reduzcan su financiación en ciencia básica, a pesar de su papel clave en el progreso de la humanidad.» Como decía Francis Bacon hace 400 años, «el motor del descubrimiento científico, además de la iluminación intelectual, es la mejora de la condición humana.»

Todos los estudios econométricos sobre el impacto de las inversiones en ciencia básica demuestran que su importancia es capital para lograr prosperidad. Puede parecer obvio, pero Robert Solow obtuvo el premio Nobel de Economía por demostrarlo: «el avance tecnológico, en lugar del trabajo y el capital, es la fuerza impulsora detrás del crecimiento económico en los países industrializados, responsable de alrededor del 80% del crecimiento del producto interno bruto (PIB).» Estudios más recientes confirman este hallazgo, como los de Philippe Aghion, Universidad de Harvard, y Hans Gersbach, ETH de Zurich, que han demostrado que en los países más industrializados la investigación básica sirve como motor esencial de la innovación para el crecimiento económico. ¿Hay algo más básico que las teorías de Albert Einstein? Sin ellas, hoy no existiría el láser o los sistemas de navegación por GPS, por poner un par de ejemplos; mira a tu alrededor, cuántos dispositivos ves que incluyan un láser en su interior.

¿Por qué hay países como España que están reduciendo su inversión en ciencia básica? No hay investigación básica que reporte crecimiento económico a corto plazo. Por ello, las empresas privadas realizan muy poca investigación básica; o nada en países como el nuestro (una vez escuché una conferencia del director de I+D de Teléfonica que decía que su empresa no hace investigación básica, ni siquiera investigación aplicada, ellos solo se dedican a desarrollar lo investigado por otros). La investigación básica tiene que ser financiada por los gobiernos. El único beneficio a corto plazo de esta investigación es la formación de expertos capaces de resolver los problemas que requiere el sector privado. Pero a medio plazo, la inversión en investigación básica siempre acaba dando sus frutos.

Repito, a pesar de resultar pesado, las inversiones en investigación básica acaban dando sus frutos. Por ello Europa y Estados Unidos invierten el 2% y el 2,8% de su PIB, respectivamente, en financiar la investigación científica; gran parte de esta financiación va dirigida a la investigación básica. Japón y Corea están invirtiendo alrededor del 3,4% del PIB, y China e India no quieren quedarse atrás. ¿Por qué España no se apunta al tren de Europa y opta por no parar el motor que tanto le costó arrancar?

La ciencia básica tiene grandes problemas que resolver, como cómo alimentar a miles de millones de personas, cómo resolver los problemas de la crisis energética y el cambio climático, cómo resolver los problemas de salud de una sociedad cada vez más envejecida y así muchos más. ¿Podemos darnos el lujo de no invertir en investigación básica? ¿Por qué nuestros políticos no se dan cuenta de lo que ya sabía Francis Bacon hace 400 años?

Recomiendo la lectura de Antonio Martínez Ron (Aberrón), «#sinCiencia no hay futuro,» Amazings.es, 25 abr. 2012; «Otro drama del recorte: la Ciencia española se hace vieja,» lainformacion.com, 25 abr. 2012; «Los recortes llegan oficialmente al CSIC: hacen falta 173 millones más,» lainformacion.com, 26 abr. 2012.

Edición 3.141 Carnaval Matemáticas: La cuadratura perfecta de un cuadrado

Las matemáticas recreativas están repletas de juegos curiosos para mentes inquietas. La cuadratura perfecta de un cuadrado de lado entero consiste en rellenarlo con cuadrados más pequeños de lado entero, todos ellos diferentes entre sí. En la imagen que abre esta entrada tenéis la cuadratura perfecta de un cuadrado de lado 175 utilizando 24 cuadrados diferentes, obtenida a mano por T. H. Willcocks y publicada en 1948 [fuente]. El ejemplo más pequeño posible, con un lado de 112 y 21 cuadrados diferentes, fue obtenido por A. J. W. Duijvestijn utilizando un programa de ordenador para su búsqueda automática y publicado en 1978; este cuadrado ha sido modelo para un curioso mueble  [fuente] y como logo para la Trinity Mathematical Society de la Universidad de Cambridge [fuente]. La demostración de que es el ejemplo más pequeño que existe, así como más información y ejemplos, en A. J. W. Duijvestijn, P. J. Federico, and P. Leeuw, «Compound Perfect Squares,» American Mathematical Monthly 89: 15-32, 1982 [acceso JSTOR].

En este artículo podéis encontrar más ejemplos encontrados mediante el uso de programas de ordenador, como por ejemplo los siguientes cuatro.

Esta entrada es mi segunda contribución a la Edición 3,141 del Carnaval de Matemáticas (web del Carnaval), albergado en esta ocasión por DesEquiLIBROS. Lectura y Cultura (anuncio oficial, lunes 9 de abril de 2012). «Las fechas de celebración del Carnaval serán del 23 al 29 de abril. Y el Día 30 publicará en su blog el resumen con todas las contribuciones que se haya producido. (…) Esta edición del Carnaval de Matemáticas está dedicado al profesor y amigo Giorgio Israel, matemático e historiador de la ciencia.» Por cierto, quiero dedicar una entrada al profesor Israel, a ver si tengo tiempo de aquí al domingo.

El flujo de muones en Gran Sasso podría explicar la oscilación anual en el detector de materia oscura DAMA/LIBRA

La ciencia avanza sin pausa como una locomotora, arrasando resultados previos que no estén asentados de forma firme. «La modulación anual de la señal en los detectores directos de materia oscura» observada por DAMA/LIBRA y confirmada por CoGeNT, podría ser explicada gracias al flujo de muones de los rayos cósmicos que penetran en el Laboratorio de Gran Sasso, donde está situado DAMA/LIBRA. Tres experimentos que se encuentran allí, MACRO, LVD y Borexino, han encontrado una oscilación anual compatible (en fase) con la de DAMA/LIBRA en el flujo de muones capaces de atravesar la montaña que protege este laboratorio subterráneo. El resultado se ha observado tras analizar los datos de estos tres detectores en los últimos 20 años y confirma la oscilación a 5,2 sigmas de confianza estadística. Por ahora no se puede afirmar que este nuevo resultado explique la oscilación de DAMA/LIBRA sin necesidad de materia oscura, ya que varios estudios teóricos apoyan la hipótesis contraria (que los muones no podían explicar la señal observada). El nuevo estudio además ha encontrado una sorpresa, el flujo oscilatorio observado encontrado presenta una modulación entre 10 y 11 años en fase con el ciclo solar; nadie esperaba que el Sol pudiera producir un flujo de muones con la energía observada que fuera capaz de alcanzar un laboratorio subterráneo como Gran Sasso. Además, los datos de la temperatura de la estratosfera no muestran la existencia de esta oscilación, por lo que los autores del estudio se atreven a calificar como «la anomalía de los muones» a esta discrepancia. Este nuevo resultado dará mucho que hablar en los próximos meses. El artículo, para los interesados en los detalles técnicos del análisis, es Enrique Fernandez-Martinez, Rakhi Mahbubani, «The Gran Sasso muon puzzle,» arXiv:1204.5180.

Esta figura ilustra por qué la modulación de los muones no explica fuera de toda duda la modulación observada por DAMA/LIBRA y cómo aún se mantiene cierta tensión entre ambas modulaciones. La fase de la modulación de muones es de 177,4 ± 2,2 días (con respecto al 1 de enero de 1991) mientras que la de la modulación anual de DAMA/LIBRA es algo menor (de unos 140 días); cambiar el punto de referencia para la medida de la fase no altera esta discrepancia. Este resultado va en la línea de resultados previos basados en un menor número de datos sobre los muones. Aún así, es muy sugerente la existencia de ambas modulaciones en el mismo laboratorio (LNGS). Ahora es el turno de los físicos teóricos que tendrán que darle al coco para tratar de explicar cómo es posible que la modulación anual de los muones explique el resultado observado en los detectores de materia oscura de DAMA/LIBRA. La ciencia, como siempre, apasionante y repleta de sorpresas.

No hay mal (para OPERA) que por bien no venga (para MINOS)

Le ha tocado la lotería de Navidad al experimento MINOS (Main Injector Neutrino Oscillation Search). El error de OPERA (Laboratorio Nacional de Gran Sasso) al afirmar que los neutrinos eran superlumínicos, ahora ya se sabe que los neutrinos no lo son, y todo el revuelo mediático que generó, ha permitido que el Fermilab reciba unos 250 mil dólares para comprar el equipo necesario para repetir la medida de la velocidad de los neutrinos con una precisión similar a la de OPERA. MINOS está formado por dos detectores, uno situado en el Fermilab, en Batavia, cerca de Chicago, muy próximo a la fuente de neutrinos NuMI (Neutrinos at the Main Injector) y otro situado a 735 km de distancia en la mina de Sudán, al norte de Minnesota. Phil Adamson, físico del Fermilab, encabeza el equipo que ha realizado las compras y la instalación de tres relojes atómicos ultraprecisos, seis receptores de GPS, más de un kilómetro de fibra óptica y los demás equipos necesarios para medir el tiempo de llegada de los neutrinos con un error de pocos nanosegundos. Ahora mismo todo el mundo sabe que los neutrinos no viajan más rápido que la luz en el vacío (ICARUS lo confirmó en marzo y OPERA encontró las fuentes de los errores sistemáticos en su medida), pero como la financiación ha sido concedida, MINOS realizará una nueva medida. Ya se sabe que a caballo regalado no se le mira el dentado. Nos lo ha contado Eugenie Samuel Reich, «Particle physics: A matter of detail. American neutrino physicists are getting the measure of their quarry in ultra-high precision,» Nature 484: 308–310, 19 April 2012.

El portavoz de MINOS, Robert Plunkett, físico del Fermilab, dice que el nuevo equipo permitirá una medida mucho más precisa que la realizada en 2007, que encontró que los neutrinos parecían superlumínicos, aunque con un error bastante grande, compatible con que no lo fueran. Unos 30 miembros de la colaboración MINOS (formada por unas 150 personas) están trabajando en dicha medida. Tras la clausura del Tevatrón, la física de los neutrinos es la línea prioritaria de investigación en el Fermilab, siendo NOνA (NuMI Off-Axis Neutrino Appearance) su proyecto estrella (aprobado en 2006). Este proyecto medirá, entre otras cosas, el ángulo δ de violación de la simetría CP en la oscilación de los neutrinos y requiere un incremento en la energía de NuMI; para ello era necesario que MINOS dejara de funcionar durante varios meses (la parada estaba prevista para marzo de 2012). Sin embargo, la nueva inyección de financiación ha resucitado la idea de 2007 sobre la medida de la velocidad de los neutrinos y la mejora de NuMI se retrasará un par de meses, durante los cuales MINOS repetirá y actualizará su medida con mayor precisión. Los resultados seguramente se publicarán en las conferencias de física de partículas de este verano. Tras el posterior incremento de la energía de NuMI, en algún momento de 2013, MINOS será capaz de medir de nuevo el momento de llegada de los neutrinos con un error entre 2 y 7 nanosegundos, similar al de OPERA, pero con neutrinos más energéticos que en 2007. Mientras tanto, los físicos de MINOS, que saben que no observarán neutrinos más rápidos que la luz, aprovecharán para realizar muchas otras medidas, como la búsqueda de neutrinos estériles. Ya se sabe no hay mal (para OPERA) que por bien no venga (para MINOS).

PS (29 abr. 2012): El detector lejano del experimento NOvA ha recibido 283 millones de dólares y ha iniciado su construcción en Minnesota ayer (con inauguración y corte de cinta). <a href=»http://www.northlandsnewscenter.com/news/iron-range/NovA-Far-Detector-Building-Opens-Scientists-Study-Neutrinos-149311085.html»>Noticia en la televisión local</a>.