¡Feliz año nuevo! El muñeco de nieve más pequeño

Nano-Frosty: una versión a escala nanométrica de un muñeco de nieve cortesía del británico NPL (National Physical Laboratory) y desarrollado como parte de la iniciativa “Educate and Explore.” Los científicos del NPL lo han desarrollado como parte de la calibración fina de sus microscopios de fuerza atómica. Está formado por dos bolas de estaño que se utilizan normalmente para la calibración de sus microscopios electrónicos con objeto de corregir su astigmatismo. Han decorado la bola superior con ojos, boca y nariz. La nariz tiene un diámetro menor de 1 µm. (0,001 mm.) y ha sido fabricada por deposición mediante un haz de iones de platino. El color y la nieve que cae son licencias artísticas. El vídeo de youtube os permite haceros una idea de la escala de Nano-Frosty. Os gustará. Visto en “frosty gets small,” Cocktail Party Physics, 14 Dec. 2009. Dos fotos de mayor calidad gracias al Dr. David Cox en “Have yourself a microscopic Christmas: The world’s smallest snowman at just 0.01mm wide,” The Daily Mail Reporter, 04th December 2009 [visto en Menéame, como no].

Por qué es difícil que se observe en 2010 un bosón de Higgs de baja masa en el LHC del CERN

El último día de este año es un buen momento para recordar que el bosón de Higgs no será descubierto en el LHC del CERN durante el año 2010, con una probabilidad altísima. Todo apunta a partir de los datos recabados en el Tevatrón del Fermilab que el bosón de Higgs del Modelo Estándar tiene una masa en reposo baja. La desintegración más probable para dicho bosón en el LHC del CERN, un par de quark-antiquark tipo bottom,  es muy difícil de detectar pues hay varios procesos que conducen a una señal similar, como la desintegración múltiple de partones. Por ello, el descubrimiento de un bosón de Higgs de baja masa en el LHC del CERN requerirá estudiar su desintegración en procesos de baja probabilidad, como la desintegración en pares de fotones, casi mil veces menos probable. Se estima que para un bosón de Higgs de unos 120 GeV la probabilidad (sección eficaz) de observarlo es de 100 fb (femto-barn), es decir, se observará uno cada 17 minutos de colisiones continuas. El problema es que en dicho tiempo de producirán miles de millones de colisiones en los detectores y buscar esta única colisión es tan difícil como encontrar una aguja en un pajar. Incrementar el número de estos eventos requiere estudiar un número enorme de colisiones, por lo que hasta dentro de varios años no podemos esperar que el LHC descubra el bosón de Higgs del Modelo Estándar, repito, si su masa está en el rango de masas más probable según las observaciones del Tevatrón del Fermilab. Trataré de aclarar un poco todo esto, así como la figura que abre esta entrada.

Antes de nada, para los interesados en el estado actual de los resultados en el LHC del CERN durante su primera fase de funcionamiento, recomiendo el vídeo (dura 70 minutos y está en inglés) del “LHC report,” CERN, Dec. 18, 2009.

Para los que no sepan lo que es un femto-barn, la luminosidad de un acelerador de partículas o una sección eficaz, y quieran saberlo, disfrutarán con el artículo en español de Ramón Cid Manzano [0]. Está pensado para que un profesor de física de secundaria le pueda explicar los cálculos más sencillos sobre el LHC a cualquiera de sus alumnos, con lo que creo que su lectura será comprensible para la mayoría de los lectores de este blog (muchos de ellos con la enseñanza secundaria ya superada).

[0] Ramón Cid Manzano, “Cálculos sencillos para la máquina más compleja. Aprendiendo física en la Secundaria desde el LHC (CERN),” Revista Española de Física, Enero-Marzo 2006.

La evidencia física actual apunta hacia la existencia de un bosón de Higgs de baja masa, entre 114\ GeV/c^2 < M_H < 150\ GeV/c^2. La desintegración más probable para dicho bosón es un par b{\bar b} (un quark bottom y un antiquark bottom). Sin embargo, dicha desintegración es difícil de observar en el LHC del CERN porque en las colisiones protón-protón se producen una enorme cantidad de pares b{\bar b} que no corresponden a un bosón de Higgs. Para poder distinguir cuáles corresponden a un Higgs y cuáles no, hay que reducir este enorme ruido de fondo. Hay que detectar el par b{\bar b} asociado a otra cosa que sea fácil de identificar; lo más fácil, un leptón (electrón o muón) producido en la desintegración de un bosón W, es decir, un proceso de tipo p+p\to WH+X, con W\to l\nu_lH\to b\bar{b}, donde l=e,\mu. Sin embargo, este proceso también tiene sus inconvenientes. El estado final tipo l,b\bar{b} también se puede producir por otro mecanismo, una colisión doble de partones. Un proceso conocido desde hace mucho tiempo [1] pero que actualmente no está incorporado en la mayoría de los programas tipo Montecarlo de análisis de las desintegraciones en el LHC del CERN como nos han recordado recientemente en [2]. Las colisiones dobles y múltiples de partones han de ser tenidas en cuenta en muchos de los procesos que se estudiarán en el LHC, no sólo en las desintegraciones Wb{\bar b}, sino también en las Zb{\bar b}, t{\bar t}\to llb{\bar b}, t{\bar b}\to b{\bar b}l\nu, etc.

[1] A. Del Fabbro, D. Treleani, “A double parton scattering background to Higgs boson production at the LHC,” Phys. Rev. D 61: 077502, 2000 [ArXiv, 15 Nov 1999].

[2] Edmond L. Berger, C. B. Jackson, Gabe Shaughnessy, “Characteristics and Estimates of Double Parton Scattering at the Large Hadron Collider,” ArXiv, 27 Nov 2009.

¿Qué es una colisión doble de partones (double parton scattering)? En el LHC del CERN se producen colisiones de protones de alta energía. Estas colisiones no son “limpias” ya que los protones no son partículas elementales, están compuestas de un “saco” de partones, quarks y gluones. Por ello, las colisiones en el LHC son colisiones de tipo partón contra partón, es decir, quark contra quark, quark contra antiquark, quark contra gluón, o gluón contra gluón (el gluón, igual que el fotón, es su propia antipartícula). Lo más probable es una colisión simple de partones (single parton scattering o SPS), aunque también se puedan dar colisiones dobles o simultáneas (double parton scattering o DPS), incluso triples o múltiples. La probabilidad de estas colisiones múltiples es mucho más baja que las simples pero no es despreciable y aumenta con la energía de la colisión. Para una colisión doble de partones que produzca un par b{\bar b} y un par de cualquier otra cosa, sea j_1 j_2, se tiene que

d\sigma^{DPS}(p p \rightarrow b \bar{b} j_1 j_2 X) = \dfrac{d\sigma^{SPS}(p p\rightarrow b \bar{b} X) d\sigma^{SPS} (p p \rightarrow j_1 j_2 X)}{ \sigma_{\rm eff}}.

donde se ve que la probabilidad (secciones eficaces, que se miden en barn) de un proceso DPS es el producto de probabilidades de dos procesos SPS, dividida por un sección eficaz efectiva que depende de la distancia efectiva entre partones dentro del protón, es decir, del tamaño transversal de un protón. El valor de \sigma_{\rm eff} es muy difícil de estimar teóricamente y para el LHC deberá ser medido experimentalmente (para el Tevatrón es de 12 mb, mili-barn).

La figura que abre esta entrada presenta en la parte izquierda el esquema de un proceso DPS y en la derecha el valor estimado para el LHC del parámetro más sencillo que permite identificar (técnicamente, discriminar) los procesos DPS en un fondo de procesos SPS, introducido en [3]. Esta variable combina la distribución aleatoria que describe la separación angular en la variable azimutal en coordenadas esféricas entre los pares j_1 j_2 y b\bar b producidos en la desintegración. La fórmula matemática no es muy complicada

S_{\phi}={1\over \sqrt 2} \sqrt{\Delta \phi(b_1,b_2)^2+\Delta \phi(j_1,j_2)^2},

aunque no entraré en la justificación matemática de por qué esta magnitud es la mejor para discriminar los procesos DPS (bien explicado en [3]). Lo más interesante de la figura que muestra su valor es que los procesos DPS producen un pico muy fuerte y fácilmente identificable cuando los dos procesos SPS se producen en direcciones opuestas, están separados por 180 º (cuando S_\phi \simeq \pi). En los demás casos es difícil discriminar los procesos DPS con lo que la identificación del bosón de Higgs gracias a la desintegración WH que conduce al estado final l,b\bar{b} es difícil. Por ello, el descubrimiento de un bosón de Higgs de baja masa en el LHC del CERN requerirá estudiar su desintegración en procesos de baja probabilidad, como la desintegración en pares de fotones, cientos de veces menos probable. Estos procesos se observan con facilidad sólo tras estudiar un número enorme de colisiones, por lo que hasta dentro de varios años no podemos esperar que el LHC descubra el bosón de Higgs del Modelo Estándar si su masa está en el rango de masas más probable según las observaciones del Tevatrón del Fermilab.

[3] The DZero Collaboration, “Double parton interactions in gamma + 3 jet events in p-pbar collisions at sqrt{s} = 1.96 TeV in DZero,” Spring 2009 Conferences, April 24, 2009.

Disclaimer: La idea de esta entrada me la ha dado la lectura de “Double-Parton Scattering is Not Rare,” Collider Blog, December 29, 2009.

Aislamiento y acondicionamiento acústico mediante cristales fonónicos, y la obra Órgano de Eusebio Sempere

Un cristal fotónico es un cristal con agujeros rellenos de aire. Su índice de refracción efectivo se puede controlar gracias a la geometría y distribución de los agujeros lo que permite diseñar dispositivos ópticos (fotónicos) a medida. Un cristal fonónico es un material con agujeros rellenos de aire de dimensiones tales que se comporta ante ondas sonoras como lo hace un cristal fotónico ante luz. Un cristal fotónico presenta bandas prohibidas (bandgaps) en las que la luz a ciertas frecuencias (colores) no puede propagarse. Un cristal fonónico también las presenta y puede bloquear la transmisión de sonido a ciertas frecuencias. La teoría es sencilla y la verificación experimental, utilizando ultrasonidos, también, como han demostrado Valentin Leroy y coautores en Applied Physics Letters. Quizás en un futuro se podrá extender este trabajo a frecuencias audibles (de 20 Hz a 20 KHz) para el desarrollo de nuevos materiales anecoicos para insonorización y ambientación acústica. Nos lo cuenta Edwin L. Thomas, “Applied physics: Bubbly but quiet,” News and Views, Nature 462: 990-991, 24 December 2009. El artículo técnico es Valentin Leroy, Alice Bretagne, Mathias Fink, Hervé Willaime, Patrick Tabeling, Arnaud Tourin, “Design and characterization of bubble phononic crystals,” Applied Physics Letters 95: 171904, 2009.

Los cristales fotónicos (para la luz) o fonónicos (para el sonido) son materiales formados por una distribución regular de elementos básicos repetidos que permiten que las ondas que inciden sobre ellos con cierta frecuencia sufran una interferencia destructiva (cuando el periodo de repetición coincide con el periodo de las ondas incidentes). Estos materiales presentan un bandgap similar al que presentan los materiales semiconductores (entre las bandas de valencia y conducción para los electrones). Igual que los semiconductores han revolucionado la tecnología durante la segunda mitad del s. XX, se espera que los materiales fotónicos (y fonónicos) la revolucionen en la primera mitad del s. XXI.

¿Cómo tendría que ser un material fonónico para bloquear sonidos audibles? El periodo tendría que ser muy grande y la estructura, si fuera una pared, por ejemplo, tendría que tener un grosor del orden de un metro. Hay un ejemplo de una estructura de este tipo en Madrid. El escultor Eusebio Sempere, sin intención de lograrlo, que se sepa, construyó un cristal fonónico en su obra Órgano, que podéis ver en el jardín de la Fundación Juan March en Madrid. Esta estructura está realizada con tubos de 3 cm. de diámetro dispuestos en una estructura periódica con una distancia de 10 cm. entre los centros de los tubos, formando un círculo en una plataforma de 4 m. de diámetro. Este cristal fonónico tiene un bandgap alrededor de la frecuencia (audible) de 1,6 kHz.

Leroy y sus colegas han desarrollado su cristal fonónico utilizando burbujas (agujeros) en un material elástico (de goma), en concreto un elastómero llamado polidimetilsiloxano (PDMS), C2H6OSi. Para fabricar la distribución de las burbujas han utilizado varias capas (4) de este material agujereado (agujeros de diámetro 80 μm.) interpuestas con capas no agujereadas (separadas 360 μm.). Las burbujas son pequeños cilindros en lugar de pequeñas esferas pero el resultado es prácticamente el mismo: han logrado atenuar en un factor de 1000 ondas sonoras (ultrasonidos) de una frecuencia centrada en 250 kHz.

El trabajo de Leroy et al. será secundado con toda seguridad por muchos investigadores que demostrarán toda su imaginación a la hora de diseñar todo tipo de geometrías (tanto de agujeros como de distribución espacial), igual que ha ocurrido recientemente con las cristales fotónicos. Seguro que gran número de sorpresas nos esperan.

Qué es mejor en Navidad, emborracharse con bourbon o whisky, o hacerlo con vodka o ginebra

La pregunta del millón en fiestas navideñas. La Dra. Damaris Rohsenow y sus colegas tienen la respuesta: las bebidas alcohólicas con color oscuro (como el bourbon o el whisky) producen peores resacas tras una borrachera que las bebidas sin color (como el vodka o la ginebra) debido a que tienen más congéneros, sustancias diferentes del alcohol (etanol) que se forman en la fermentación de la bebida. El bourbon contiene 37 veces más congéneros que el vodka. La causa principal de la borrachera es el etanol, pero los congéneros empeoran sus efectos. Aún así, en ciertas tareas repetitivas que requieren simultáneamente atención sostenida y velocidad, ambas bebidas afectan por igual sin depender de su color (para la misma ingesta de etanol). Nos lo cuenta Andrew Mitchinson, “Hangovers: Uncongenial congeners,” News and Views, Nature 462: 992, 24 December 2009, se hace eco del curioso artículo de Damaris J. Rohsenow, Jonathan Howland, J. Todd Arnedt, Alissa B. Almeida, Jacey Greece, Sara Minsky, Carrie S. Kempler, Suzanne Sales, “Intoxication With Bourbon Versus Vodka: Effects on Hangover, Sleep, and Next-Day Neurocognitive Performance in Young Adults,” Alcoholism: Clinical and Experimental Research, Published Online: 17 Dec 2009.

Rohsenow y sus colegas buscan un Premio Ig Nobel, sin lugar a dudas. Han estudiado a sujetos a quienes han emborrachado con vodka o bourbon hasta que han alcanzado diferentes niveles de intoxicación. Han cuantificado los síntomas que presentan en sus resacas tras una noche “durmiendo la mona.” Además, les han sometido a múltiples pruebas para diagnosticar sus habilidades en diferentes tareas. Por supuesto, a algunos individuos les han “emborrachado” con un placebo, coca cola descafeinada, para comparar con los sujetos que realmente se han emborrachado. Un resultado curioso, aunque esperado, ha sido que los efectos del alcohol dependen de la edad: los más jóvenes sufren resacas más leves (han estudiado a 95 bebedores entre 21 y 33 años). También es curioso que no hayan observado diferencias entre hombres y mujeres, todos se emborrachan en el mismo grado.

Por cierto, la Dra. Rohsenow y su grupo está estudiando actualmente los efectos de la cerveza con y sin cafeína en la conducción de automóviles (“Acute and Residual Effects of Beer vs. Caffeinated Beer on Simulated Driving“). ¿Cerveza cafeinada? Sí, se trata de una cerveza “energética” que tiene cafeína y taurina como aditivos (“Cerveza con cafeína, lo mejor de los dos mundos“). Ignorante yo que ni sabía que existieran estos mejunges… con lo rica que está una cerveza bien fresquita.

PS: Esta noticia en español también la podéis leer en “Hay resacas malas y resacas peores,” BBC Mundo, 19 de diciembre de 2009 [visto en Menéame].

Mecánica cuántica no lineal hacia una teoría electrodébil sin bosón de Higgs

La teoría electrodébil que unifica la fuerza electromagnética y la fuerza nuclear débil requiere un mecanismo de ruptura espontánea de la simetría: a alta energía la simetría (partículas que se observan y sus propiedades) es diferente que a baja energía (a alta energía hay 4 fotones sin masa, pero a baja energía hay sólo un fotón sin masa y 3 “fotones” con masa, los llamados bosones vectoriales W± y Z). Este mecanismo genera la masa de estos bosones vectoriales. La teoría electrodébil utiliza para ello el mecanismo de Higgs (más correctamente Englert-Brout-Higgs-Guralnik-Hagen-Kibble-Nambu-Anderson). ¿Qué pasa si el bosón de Higgs no es descubierto experimentalmente en el LHC del CERN? Se necesita un mecanismo diferente. Hay muchos propuestas. Zloshchastiev nos propone una nueva: la presencia de un término logarítmico no lineal de origen gravitatorio (cuántico) en la ecuación de onda de las partículas elementales. La ecuación de Schrödinger no lineal con dicho término logarítmico que describe el vacío (la teoría sin partículas) permite interpretar dicho “vacío cuántico” como un estado condensado de Bose-Einstein efectivo (modelado con una teoría de tipo Ginzburg-Landau) que interactúa con todas las partículas elementales del modelo estándar dotándolas de masa. El artículo de Zloshchastiev sólo estudia su nuevo mecanismo en el caso más sencillo, un campo escalar acoplado al fotón, mostrando que el “fotón” adquiere masa sin que aparezca un bosón de Goldstone (el equivalente en este caso al bosón de Higgs). ¿Qué pasa cuando su nuevo mecanismo se aplica a la teoría electrodébil completa? El autor cree, pero no demuestra, que en dicho caso tampoco aparece un bosón de Higgs y quizás también se pueda lograr mantener al fotón sin masa y sólo dotar de ésta a los bosones vectoriales W y Z. Queda trabajo por hacer, pero la idea me parece interesante. Tendrá que seguir siendo explotada y nosotros tendremos que estar al tanto. Para los interesados en los detalles técnicos, basta un conocimiento elemental de teoría cuántica de campos similar al del libro A. Zee, “Quantum Field Theory in a Nutshell,” el artículo técnico es Konstantin G. Zloshchastiev, “Spontaneous symmetry breaking and mass generation as built-in phenomena in logarithmic nonlinear quantum theory,” ArXiv, 21 Dec 2009.

La mecánica cuántica no relativista se basa en la ecuación de Schrödinger, que es una ecuación lineal y cumple el principio de superposición. A alta energía (o distancias muy cortas) se ha conjeturado que podría sufrir correcciones no lineales debidas a efectos del vacío de origen cuánticogravitatorio. Como todavía no concemos la teoría cuántica correcta de la gravedad no se pueden calcular dichos efectos. Sin embargo, las leyes de la mecánica cuántica no permiten cualquier corrección arbitraria de la ecuación de Schrödinger. Se tiene que cumplir una especie de principio de correspondencia entre la mecánica cuántica no lineal a alta energía y la mecánica cuántica lineal a baja energía. Una de las correcciones compatibles con dicho principio es un término no lineal de tipo logarítmico, introducido por Bialynicki-Birula y Mycielski (“Nonlinear wave mechanics,” 1976), aunque también se permiten otros términos, como los introducidos por Doebner y Goldin (ver por ejemplo Waldemar Puszkarz, “Higher Order Modification of the Schroedinger Equation,” ArXiv, 17 May 1999).

A baja energía los estudios experimentales en laboratorio indican que la ecuación de Schrödinger con un término no lineal logarítmico (ecuación de Bialynicki-Birula—Mycielski) no describe correctamente la realidad (la corrección debería ser demasiado pequeña como para ser medible), sin embargo, a alta energía (a la escala de la ruptura de la simetría electrodébil) dicho término puede ser muchísimo más grande y podría ser relevante. Es por ello que el artículo de Zloshchastiev me parece interesante.

La violación de la simetría T (de inversión temporal) y el origen de la flecha del tiempo

El origen de la flecha del tiempo (el tiempo avanza hacia adelante y no hacia atrás) es un problema aún abierto. Casi todas las leyes de la física son simétricas respecto al tiempo. La solución clásica más obvia es la flecha del tiempo termodinámica (un vaso de cristal que cae y se rompe en mil pedazos no se recompone de forma espontánea). Sin embargo, a nivel de física fundamental el ejemplo natural de violación de la simetría temporal (T) se da en la teoría de la fuerza electrodébil. Las teorías cuánticas de campos cumplen la simetría conjunta CPT, donde C es la conjugación de carga, P es la invarianza de espejo o paridad, y T es la invarianza temporal. Sin embargo, la teoría electrodébil viola la simetría CP, lo que a escala macroscópica da origen a la asimetría entre materia y antimateria en los primeros instantes de la Gran Explosión, y la simetría T (para restaurar la simetría CPT conjunta). ¿Puede explicarse la flecha del tiempo a escala macroscópica utilizando la ruptura de la simetría T por parte de la teoría electrodébil? Sí, según J.A. Vaccaro, quien afirma que dicho fenómeno induce una interferencia cuántica destructiva entre las diferentes trayectorias en el tiempo que puede tomar el universo en su conjunto. Dicha interferencia elimina todos las trayectorias excepto las que representan un tiempo continuo hacia adelante. Un trabajo realmente curioso que muestra la conexión íntima entre los microscópico y lo macroscópico cuando la ideas cuánticas se aplican al universo en su conjunto. El artículo técnico es “Large scale physical effects of T violation in mesons,” ArXiv, 24 Nov 2009.

La asimetría materia-antimateria refleja que hoy sólo observamos materia salvo en experimentoz de alta energía y sin embargo en la Gran Explosión se generaron la misma cantidad de materia y antimateria. Hoy en día se cree que es debida a la violación de la simetría CP en la desintegración de mesones (descubierta en 1964 en kaones (mesones K) neutros) y representada teóricamente por la matriz de Cabibbo-Kobayashi-Maskawa (CKM). La invarianza CPT conjunta, predicha teóricamente y observada experimentalmente, indica que dichas desintegraciones deben violar también la simetría T para compensar la violación CP observada (también ha sido observada directamente esta violación T). En la actualidad la asimetría materia-antimateria se explica mejor con la violación de la simtría CP de los mesones B (formados por quarks bottom (b) o de tercera generación).

En la figura de arriba el estado inicial |ψ0> puede evolucionar hacia adelante (UF) o hacia atrás (UB) en el tiempo. Conforme bajamos en el árbol binario mostrado en la figura, la probabilidad de alcanzar una cierta hoja es combinación lineal (superposición cuántica) de todos los posibles caminos (aplicaciones de UF y UB) que llevan a dicha hoja. Estos estados de superposición, para un número de ramas del árbol muy grande, sufren una interferencia destructiva (en gris en la figura) que reduce su probabilidad de tal forma que sólo las ramas en los extremos externos del árbol de posibilidades, las que representan estados sólo hacia adelante o sólo hacia atrás en el tiempo, tienen una probabilidad no despreciable de ocurrir. ¿Por qué sólo observamos la evolución hacia adelante en el tiempo? Porque cualquier pequeña “perturbación” que favorezca esta flecha del tiempo se ve amplificada por el proceso descrito hasta resultar en la única posibilidad desde un punto de vista macroscópico. La violación de la simetría T por parte de los mesones con quarks de segunda y tercera generación es una perturbación suficiente para cristalizar este proceso en la realidad que nos rodea.

Una idea curiosa que me ha llamado la atención. Quizás a tí también.

Un ciclista escapado en grupo tiene ventaja aerodinámica aunque no le den relevos

 

Las escapadas en solitario y en grupo son parte sustancial del ciclismo en ruta. Los relevos se realizan para no castigar con el ritmo de la carrera al corredor que va primero. Sorprende que para él es mejor ir en grupo que en solitario ya que necesita desarrollar un 5% menos de potencia gracias a la aerodinámica en bloque del grupo de ciclistas en fila india. Además, cuando mayor sea el grupo de los corredores en fila india más ventaja aerodinámica adquiere el primer corredor y de hecho todos los demás. Lo han descubierto con simulaciones aerodinámicas dos físicos de la Universidad de Salamanca. El primer corredor en un grupo de 3 (o 5) en fila necesita un 96% (o 95%) de la potencia que necesitaría en solitario para mantenerse a una velocidad de 54 km/h. El artículo técnico es A. Íñiguez-de-la Torre, J. Íñiguez, “Aerodynamics of a cycling team in a time trial: does the cyclist at the front benefit?,” European Journal of Physics 30: 1365-1369, 2009. 

La potencia mecánica que ha de desarrollar un ciclista para alcanzar una velocidad dada depende de las fuerzas de resistencia aerodinámica que ha se superar. Un ciclista en una competición en ruta alcanza fácilmente los 50 km/h. La estadística en grandes carreras como el Tour de Francia muestran que la máxima velocidad que alcanza un corredor en solitario es menor que la alcanza en equipo (hasta un 10% mayor). La figura derecha-abajo muestra la potencia (en watios) que un ciclista en solitario necesita desarrollar en función de su velocidad (en m/s) obtenida a partir de estudios experimentales. Para alcanzar velocidades mayores de 40 km/h se requiere desarrollar una potencia de más de 300 W. El coeficiente que multiplica a la potencia cúbica de la velocidad (0.21 en la figura) depende mucho de la geometría efectiva del ciclista, tanto de la postura que adopta y los complementos que usa para sí y para la bicicleta, como de la presencia de otros ciclistas cercanos. Influye mucho si el ciclista va en un pelotón (grupo compacto), en fila india o “apilados” en diagonal (que se usa cuando hay viento lateral).

El estudio aerodinámico de un ciclista individual o de un equipo utilizando una geometría detallada requiere simulaciones numéricas tridimensionales de alto coste. Los autores han estudiado la aerodinámica bidimensional (en un plano), utilizando un túnel de viento virtual (el programa shareware MicroCFD) y un modelo muy simplificado de la geometría de un ciclista, una elipse. El campo de fuerzas de arrastre (drag) que han obtenido numéricamente se observa en la figura que abre esta entrada (figuras en color) para un ciclista en solitario y tres en fila india. La potencia que ha desarrollar cada ciclista depende de dicho campo de fuerzas de arrastre y se presenta en la tabla que se muestra en la figura (abajo-izquierda), normalizada para que un ciclista en solitario necesite una potencia del 100%. En un grupo de 9 ciclistas en fila india, el primero necesita desarrollar sólo el 95% de dicha potencia, el segundo un 67%, los 6 restantes el 66% y el último de la fila un 68%. Por tanto, para conseguir la máxima velocidad al mínimo esfuerzo para todos, no sólo se debe relevar al primero de la fila, sino también al último.

Un trabajo de física elemental que puede ser reproducido fácilmente por alumnos en un primer curso de física (siempre que se tenga acceso al programa MicroCFD u otro software freeware para Computational Fluid Dynamics o CFD)

Los satélites de Neptuno podrían descartar una solución gravitatoria a la anomalía de las sondas Pioneer

Iba a escribir una entrada sobre el reciente artículo de Lorenzo Iorio, “Does the Neptunian system of satellites challenge a gravitational origin for the Pioneer anomaly?,” ArXiv, 15 Dec. 2009. Sin embargo, he visto que Kanijo se me ha adelantado con “Descartada la gravedad como causa de la anomalía de las Pioneer,” Ciencia Kanija, 18 Dic. 2009, traducción de Kentucky FC (pseudónimo), “Gravity Ruled Out as the Cause of the Pioneer Anomaly,” ArXiv blog, December 17, 2009. Recomiendo desde aquí la lectura del artículo de Kanijo y del artículo original de Iorio.

El artículo de Iorio recuerda que las explicaciones de la anomalía de las sondas Pioneer que consideran que la gravedad lejos del Sol cambia con un término de aceleración de algún tipo también deberían ser aplicables a los satélites de los grandes planetas gaseosos. El mejor para verificar esta posibilidad es Neptuno (la trayectoria de Caronte alrededor de Plutón se conoce con poco detalle, hasta que sea estudiada en julio de 2015 por la sonda New Horizons). Iorio nos muestra en su artículo que la gravedad convencional explica las órbitas de estos satélites sin necesidad de incluir ninguna aceleración adicional.

¿Descarta definitivamente una explicación de tipo gravedad modificada el trabajo de Iorio? Realmente no, aunque es una evidencia teórica fuerte en su contra. Como el propio Iorio nos recuerda en el resumen de su artículo “Further investigations based on a re-processing of the satellites’data with modified equations of motions including an additional Pioneer-type force may shed further light.” Este último comentario es importante ya que algunas modificaciones de la gravedad utilizadas para explicar las anomalías de tipo Pioneer, que se han observado también en otras sondas, asumen efectos debidos a los flyby de las sondas alrededor de planetas. Estas trayectorias abiertas son diferentes de las trayectorias cerradas de los satélites alrededor de los planetas. Así que habrá que esperar a estudios posteriores para descartar definitivamente este tipo de soluciones. Aunque obviamente, algunas de las explicaciones de tipo gravitatorio sí que quedan descartadas.

La raíz cuadrada de una derivada y sus aplicaciones

Messier 33 antes y después del tratamiento mediante el software AstroFracTool.

Llamadme paranoico, pero en una de las últimas entradas estaba escrito √D y me dije, como en el cálculo fraccional. Defecto propio de quien ha estudiado operadores pseudodiferenciales años há. Lo cierto es que muchos físicos e ingenieros no estudian cálculo fraccional. ¿Lo estudiarán todos los matemáticos? Desafortunadamente, no. Una pena. Aún así, habrá que dedicarle una entrada, pues historia, tener, tiene. ¿Que qué son los operadores pseudodiferenciales? Habrá que dedicarles otra entrada.

El cálculo fraccional, que permite cosas como la raíz cuadrada de una derivada, parece muy alejado de las aplicaciones prácticas. Todo lo contrario. Desde su introducción por Liouville en 1832 ha sido utilizado por muchos físicos e ingenieros para modelar problemas prácticos. He buscado por internet algún artículo reciente sobre este tema orientado a aplicaciones y he encontrado el interesante artículo de R. Schumer, M. M. Meerschaert, B. Baeumer, “Fractional advection-dispersion equations for modeling transport at the Earth surface,” J. Geophys. Res., in press, published 18 December 2009 [copia gratis para los que no tengan acceso]. En ArXiv tenéis muchísimos, por ejemplo, un software para el tratamiento de imágenes en astronomía (resaltado de bordes), Roberto Marazzato, Amelia Carolina Sparavigna, “Astronomical image processing based on fractional calculus: the AstroFracTool,” ArXiv, last revised 4 Nov 2009.

La raíz cuadrada de una derivada √D se define fácilmente utilizando la transformada de Fourier. Si la derivada de f(x) es Df(x), su transformada de Fourier es F(f(x))=F(k), y la transformada de Fourier de su derivada es F(D·f(x))=(-ik)F(k), entonces la transformada de Fourier de √D cumple que F(√D·f(x))=(-ik)½F(k). Aplicando la transformada inversa de Fourier recuperamos el resultado de esta operación. En la wikipedia puedes encontrar algunos ejemplos. Por ejemplo, √D·x = x½/(½!), donde para n>0, se define n!=Γ(n+1), siendo Γ la función Gamma, de tal forma que ½!=Γ(1+½)=(√π)/2. En general, la derivada fraccionaria Da, siendo a un número real positivo, se define de forma similar y se obtiene, por ejemplo, que Da·xk = xk-a k!/(k-a)!, para cualquier número real k>a>0.

Las aplicaciones más importantes de la derivada fraccionaria aprovechan que la derivada fraccionaria es un operador no local, es decir, equivale a la convolución de la derivada normal con una función dada, en concreto, Da·f(x)=D·f(x)×x-a/Γ(1-a), donde la convolución se define como f×g=∫f(x-t)g(t)dt. Gracias a esta definición la derivada fraccionario se puede aplicar a funciones que no tienen derivada, por ejemplo, a curvas fractales. Muchas curvas fractales continuas no tienen derivada en ningún punto. Sin embargo, se les puede aplicar el concepto de derivada fraccionaria para definir conceptos como la pendiente “promedio” de una curva fractal, como nos muestran H. Bensoudane, C. Gentil, M. Neveu, “The Local Fractional Derivative of Fractal Curves,” IEEE International Conference on Signal Image Technology and Internet Based Systems, 2008 (SITIS ’08), 422-429, 22 Dec. 2008.

En resumen, si te gusta la matemática y no conoces el cálculo fraccionario, quizás merezca la pena que bucees por la Internet, te encontrarás cosas realmente curiosas.