Hace 120 años Lorentz predijo la existencia (teórica) del electrón

Hendrik A. Lorentz / Fuente.

¿Quién descubrió el electrón? Hace 120 años, en 1892, Hendrik A. Lorentz introdujo la hipótesis de la existencia de “partículas cargadas” portadoras de la carga eléctrica de la materia y responsables de la electricidad. Las ideas teóricas sobre el “electrón” de Lorentz fueron confirmadas por el descubrimiento experimental de Joseph J. Thomson en 1897. El nombre de “electrón” es posterior; Lorentz bautizó en 1895 como “iones” a sus partículas cargadas, que no se llamaron “electrones” hasta 1899 (por lo que Thomson descubrió los “iones” de Lorentz).

La “teoría del electrón” de Lorentz nació en “La théorie électromagnétique de Maxwell et son application aux corps mouvants” [versión escaneada gratis], donde Lorentz aplicó la teoría electromagnética de Maxwell a una carga en movimiento en un campo electromagnético, introduciendo la ahora llamada fuerza de Lorentz. Sus ideas eran profundas y conducían a una teoría de toda la realidad. Esta teoría incluía un éter estacionario (cuyas vibraciones transversales sustentaban el campo electromagnético) y la materia ordinaria formada por moléculas que contenían “partículas cargadas” fundamentales. La teoría de Lorentz explicaba la masa del electrón como consecuencia de su carga eléctrica. Un electrón en movimiento a través del éter genera campos electromagnéticos que provocan una resistencia al paso del electrón que Lorentz interpretaba como la inercia (la masa). Esta provocativa idea recuerda al mecanismo de Higgs, aunque no tiene nada que ver, obviamente.

La hipótesis de Lorentz sobre la existencia del electrón era arriesgada entonces, pero fue fundamental para el desarrollo posterior de la teoría de la relatividad, pues conectaba el electromagnetismo de Maxwell y la mecánica de Newton a través de las ahora llamadas transformaciones de Lorentz (que introdujo en 1895). El trabajo matemático de Lorentz (y de Henri Poincaré) en la teoría del electrón fue fundamental para inspirar las ideas de la relatividad (especial) en Albert Einstein. Nos lo cuenta Frank Wilczek, “Happy Birthday, Electron,” Scientific American, May 21, 2012. Para los aficionados a la historia (no muy técnica), recomiendo Kenneth F. Schaffner,”The Lorentz Electron Theory of Relativity,” American Journal of Physics 37: 498-513, 1969. Para los que prefieran algo más técnico, recomiendo Theodore Arabatzis, “Rethinking the ‘Discovery’ of the Electron,” Stud. Hist. Phil. Mod. Phys. 21: 405-435, 1996 [copia pdf gratis]. Más información sobre “Hendrik Antoon Lorentz,” Complete Dictionary of Scientific Biography, 2008.

Los girasoles de Van Gogh eran mutantes genéticos

Los girasoles pintados por Vincent Van Gogh a finales de los 1880 presentan asimetrías inusuales que le indican al botánico experto que eran producto de mutaciones genéticas. Un estudio publicado en PLoS Genetics ha determinado los genes cuyas mutaciones son responsables de la forma de dichos girasales (como los marcados con la flecha en este cuadro de 1888 titulado “Girasoles (Naturaleza muerta: Jarrón con 15 girasoles).” Los girasoles de “doble flor” tienen una mutación en un gen llamado dbl (double-flowered), como los C-D de la foto de abajo. En el cuadro de Van Gogh aparecen girasoles de esta variedad que tienen un fenotipo atípico, que el estudio ha revelado que corresponde a cierta mutación en el promotor de un gen llamado HaCYC2c. John M. Burke (Universidad de Georgia) y sus colegas han realizado un análisis filogenético de esta mutación en diferentes especies de asteráceas (Asteraceae), las flores denominadas compuestas. El artículo técnico es M.A. Chapman et al., “Genetic Analysis of Floral Symmetry in Van Gogh’s Sunflowers Reveals Independent Recruitment of CYCLOIDEA Genes in the Asteraceae,” PLoS Genetics 8: e1002628, 2012. Nos lo contaron de forma breve en Ferris Jabr, “Van Gogh’s Sunflowers Were Genetic Mutants. Researchers discover the genetic secret behind van Gogh’s famous sunflowers,” Scientific American, May 1, 2012.

El trabajo de Burke y sus colegas cruzaron genéticamente diferentes variedades de girasoles hasta dar con los que tuvieran un fenotipo muy similar al de los pintados por Van Gogh. A partir de ese momento se dedicaron a estudiar los genes que caracterizaban dichos rasgos y descubrimiento que bastaba una mutación en la base 999 del promotor de un gen llamado HaCYC2c (los expertos disfrutarán de la figura de más abajo).

Durante miles de años la gente ha cultivado girasoles por sus semillas, su aceite e incluso por su belleza al danzar orientados hacia el Sol. Se cree que los primeros girasoles de “doble flor” surgieron de forma natural como resultado de una mutación aleatoria. Los que cultivan girasoles debieron aprovechar la oportunidad para preservar las cualidades estéticas únicas de estos mutantes y gracias a la cría selectiva lograron esta nueva variedad.

Esta entrada participa en el XIII Carnaval de Biología, organizado por Marisa Alonso Núñez (investigadora, divulgadora científica y a quien desvirtualicé en Málaga hace pocas semanas). Aunque ella propuso como tema “Levaduras y Hongos,” me ha parecido más atractivo brindarle un girasol a @lualnu10 (y a los demás participantes del @biocarnaval, no penséis que me olvido de vosotros). Por cierto, aún estáis a tiempo para contribuir, el plazo acaba el próximo 3 de junio.

Diseño gráfico y visualización científica en física de partículas

Un protón formado por tres quarks unidos por un campo de gluones. (C) CERN 2011.

Hay muchas maneras de representar una partícula, como un electrón o un quark, o una partícula compuesta, como un protón o un pión. Cada representación tiene sus ventajas y sus inconvenientes de cara al especialista y a la divulgación. En esta entrada expondré una de las que más me gusta, que incluye información sobre la carga eléctrica, la carga débil, la carga de color y el espín de cada partícula. Ha sido propuesta por el Grupo de Trabajo en Animaciones del CERN (CERN Working Group on Animations), cuyo objetivo es facilitar la divulgación de la física de partículas en animaciones, vídeos y documentales. La descubrí gracias a Rolf Landua, “Graphical representation and animations of CERN physics and technologies,” IPPOG Meeting, 4 November 2011.

Esta figura representa un quark arriba (up) cuyo espín es +1/2, su carga eléctrica es +2/3, su carga de color es “azul” y su carga débil (sabor) es “arriba.” El espín de un fermión se representa mediante un remolino blanco en el centro, que rota en el sentido de las agujas del reloj para el valor +1/2 y en sentido antihorario para el valor −1/2. [Como bien dice Mario Herrero @Fooly_Cooly en Twitter, el torbellino representa la helicidad de la partícula, la proyección del espín en la dirección del momento lineal o velocidad, correspondiendo los valores +1/2 y −1/2 a partículas levógiras y dextrógiras; también puede ser la quiralidad, el doble de la helicidad, pero sus valores son +1 o −1]. La carga de color puede ser azul, verde, rojo o neutra y se representa con la esfera colocada en el centro. La carga eléctrica positiva, negativa o neutra se representa con un color rosa, celeste o gris y se representa con la esfera más externa. El sabor se representa con uno, dos o tres agujeros según la familia de la partícula, colocados arriba o abajo.

Esta figura representa tres quarks arriba cada uno de un color diferente (azul, verde y rojo).

Ahora se muestran dos quarks rojos, uno con sabor arriba (carga eléctrica +2/3) y otro con sabor abajo (carga eléctrica −1/3).

Las cuatro partículas de la primera generación (marcadas con un solo agujero) se representan en esta figura. El electrón tiene carga eléctrica −1, es neutro para la carga de color y en este caso tiene espín +1/2. El neutrino electrónico es neutro tanto para la carga eléctrica como para la carga de color y en este caso también tiene espín +1/2.

Esta figura representa las tres generaciones de leptones, la primera con el electrón y el neutrino e (electrónico), la segunda con el muón y el neutrino mu (muónico), y la tercera con el leptón tau y el neutrino tau (tauónico). Una representación similar se utiliza para los 6 quarks, además de los de primera generación, el arriba (up) y el abajo (down), los de segunda, el encantado (charm) y el extraño (strange), y los de tercera, el cima (top) y el fondo (bottom). Te dejo como ejercicio, si te apetece, dibujar en papel estos quarks (o utilizando un programa gráfico en tu ordenador).

Las antipartículas se pueden representar de forma totalmente similar a las partículas, cambiando el signo de la carga eléctrica, cambiando el color a un anticolor y cambiando la dirección del espín [Como bien dice Mario Herrero @Fooly_Cooly en Twitter, el torbellino representa la helicidad (o quiralidad) de la partícula e invierte su valor al pasar de la partícula a la antipartícula]. Los colores RGB (rojo, verde y azul) tienen como anticolores CMY (celeste, morado y amarillo). La figura de arriba muestra los quarks y antiquarks de la primera generación, con color rojo los primeros y anticolor celeste los segundos.

Esta figura muestra los leptones y antileptones de la primera generación, en concreto el electrón, el positrón, el neutrino electrónico y el antineutrino electrónico. Hay una propiedad importante de las partículas que no ha sido representada, la helicidad, ¿cómo crees que podría ser incorporada? Te lo dejo como ejercicio.

Hasta ahora hemos visto cómo representar los fermiones del modelo estándar, pero también hay que representar los bosones gauge cuyo espín es 1 y se representará por dos ondulaciones. Esta figura representa el fotón y su color es gris porque es neutro para la carga eléctrica y para la carga de color. Como su masa es nula, su interior aparece hueco.

Los bosones vectoriales electrodébiles se representan de forma similar al fotón, pero con un color que indica su carga eléctrica y con una esfera en su interior que recuerda que tienen masa no nula.

Los gluones son bosones de espín 1 y masa nula, neutros para la carga eléctrica, pero cargados con un color y un anticolor, en este caso rojo y antiazul.

Hay 8 gluones diferentes y cada uno puede tener una de las 9 combinaciones de color que se muestran en esta figura.

La única partícula que nos queda es el bosón de Higgs. ¿Cómo lo representarías?

PS: Javier nos propone la representación del Higgs que aparece abajo, a la izquierda, aunque la recomendada es la que aparece a la derecha, similar a la propuesta por Amarashiki en los comentarios.

El problema de Newton y la solución que ha obtenido Shouryya Ray (16 años)

Pido perdón a todos los que se han sentido ofendidos con esta entrada. No era mi intención utilizar un tono violento, sino irónico, aunque no debo haberlo hecho bien pues algunos lo han interpretado mal. Así que me gustaría aclarar unos puntos:

1) No tengo nada contra este chaval, ni contra su trabajo, ni contra sus directores los Prof. Dr.-Ing. Jochen Fröhlich y Dr.-Ing. Tobias Kempe, ni contra el tribunal que ha juzgado su trabajo, coordinado por Annett Dargazanli (Wilhelm-Ostwald-Gymnasium Leipzig) y compuesto por Prof. Dr. rer. nat. Udo Hebisch (TU Dresden, Institut für Diskrete Mathematik und Algebra), Sven Hofmann (TU Dresden, Fakultät Informatik, Institut SMT, AG Didaktik der Informatik), y Dr. Bettina Timmermann (TU Dresden Fakultät Informatik Arbeitsgruppe Didaktik der Informatik). El chaval ha obtenido el segundo lugar en una competición a nivel nacional (Alemania) para jóvenes investigadores de secundaria en la sección de Matemáticas e Informática. Me parece estupendo para él y le deseo un futuro prometedor si se dedica a la ciencia (o a lo que él quiera).

2) Tampoco tengo nada en contra de ^DiAmOnD^, autor del blog Gaussianos, ni de todos los autores de blogs que se han hecho eco de la noticia que ha aparecido en muchos medios (web, prensa, radio y TV). Toda noticia en los medios ha de ser tomada con precaución. Aún así, saber que una noticia es sensacionalista no siempre es fácil. En esta noticia yo he de confesar que me dedico profesionalmente a calcular soluciones de ecuaciones diferenciales, investigo e imparto docencia en el tema, con lo que mi posición, en este caso, es de carácter excepcional.

3) A mí me han colado muchas veces noticias como ésta y como a mí a todos nos las cuelan constantemente. Yo no puedo criticar ni a los medios, ni a los periodistas, ni a los blogs, por no contrastar este tipo de noticias con profesionales.  Escribí esta noticia esta mañana, a la prisa y corriendo, y quizás el lenguaje utilizado no fue el adecuado.

No me ha gustado tener que escribir esta entrada. Una noticia del periódico sensacionalista Daily Mail ha copado muchos medios (El Mundo, 20 minutosSur Málaga, La Vanguardia, etc.). Me enteré gracias al blog Gaussianos, el blog de divulgación matemática en español por excelencia:”Shouryya Ray, genio de 16 años que ha resuelto un problema propuesto por Newton hace más de 300 años,” gaussianos, 27 mayo, 2012. Para un experto en resolver ecuaciones diferenciales, basta ver la foto de la solución obtenida por Ray para saber que el ha resuelto un problema de primer curso de física (que viene en muchos libros de texto de física): el movimiento de un proyectil sujeto a la aceleración de la gravedad y a una fuerza de rozamiento. En esta fórmula los símbolos representan lo siguiente: g es la aceleración de la gravedad, (u,v) son las componentes de la velocidad del proyectil, \alpha es la constante que multiplica a la fuerza de rozamiento, y \mbox{arsinh} es la función arcoseno hiperbólico.

A partir de una versión de mayor resolución de esta foto del póster del muchacho, se puede reconstruir fácilmente su logro. Las ecuaciones que ha resuelto el muchacho son las siguientes

Toda persona que haya estudiado un primer curso de física sabrá obtener estas ecuaciones a partir de las leyes de Newton. ¿Te atreves? Toda persona que haya estudiado la resolución de ecuaciones diferenciales de primer orden (primer curso de matemáticas) debería estar en posición para resolver estas ecuaciones sin ninguna dificultad. ¿Te atreves? ¡Ah, qué no las ves bien! Te las copio en LaTeX.

u'(t) + \alpha\,u(t)\,\sqrt{u(t)^2+v(t)^2} = 0, \qquad u(0)=u_0\ne 0,

v'(t) + \alpha\,v(t)\,\sqrt{u(t)^2+v(t)^2} = -g, \qquad v(0)=v_0> 0.

Bueno, si no eres matemático, o físico, o ingeniero, o tienes oxidados tus conocimientos, te recuerdo el cambio de variable conocido para resolver este sistema de ecuaciones desde principios del s. XVIII, que es el mismo utilizado por el chaval.

El cambio de variable estándar \psi = v/u, conduce trivialmente a la ecuación de primer orden

\psi''(t) = - \mbox{sgn}(u_0)\,\alpha\,g\,\sqrt{1+\psi(t)^2}.

La solución de esta ecuación es trivial de obtener [para quien tenga frescos sus conocimientos de resolución de ecuaciones diferenciales de primer orden (ya que al no aparecer \psi'(t) esta ecuación es equivalente a una de primer orden en variables separadas y se integra de forma directa, dando una integral doble o anidada por ser de segundo orden)]. Si no sabes, ¡qué torpe! [perdón por quien se sienta ofendido, pero lo primero que se aprende en un curso de ecuaciones diferenciales es la resolución de ecuaciones en variables separadas, que no se ofenda quien nunca lo haya cursado, no es mi intención ofender] puedes usar Mathematica [en concreto, el comando DSolve] para obtener la solución que aparece en la primera foto de esta entrada (que en la foto del póster aparece truncada).

¿Por qué se dice que Newton no obtuvo la solución de este sistema? Porque Newton en los Principia presentó varias soluciones en forma de series y en concreto para esta ecuación utilizó una serie [en la época de Newton una solución implícita de una ecuación diferencial no se consideraba apropiada y se desarrollaba de forma explícita utilizando una serie] que aparece en el propio póster del chaval como

Obviamente, esta solución poco satisfactoria fue escrita en forma cerrada unos pocos años después de la publicación de los Principia [cuando se popularizó el uso de soluciones implícitas de ecuaciones diferenciales]. Pero un chaval de 16 años no tiene por qué saberlo [ni sus directores del trabajo, ni el tribunal que lo juzgó, que nadie lea una crítica personal].

¿No dicen que el chaval ha obtenido dos soluciones? ¿Dónde está la otra? En la parte final del póster… huelgan más comentarios.

[Quizás aquí he metido la pata. En el anuncio del premio se dice que Ray también ha resuelto de forma analítica un segundo problema, el rebote o colisión de una partícula contra una pared, utilizando la fuerza de contacto de Hertz y un rozamiento lineal, pero esta solución no es la que aparece en este recorte del póster. La solución analítica (implícita) es bien conocida, tiene dos ramas (antes y después del choque), y se utiliza para calcular el coeficiente de restitución de la energía cinética en el choque; yo mismo impartí un curso hace un par de años a alumnos de informática en el que se presentaba dicha solución; de nuevo una casualidad que me pone en una situación “buena” para valorar el trabajo de Ray].

[PS (14 junio 2012): El otro problema resuelto por el chaval es el siguiente

(tan trivial como el primero, para un experto, claro)].

Si eres profesor de física o matemáticas de primer curso, ¿por qué no le pones este problema a tus alumnos y compruebas si son capaces de emular el gran logro matemático del nuevo “genio” Ray? Es broma… [Espero que el tono irónico de esta última frase no moleste ni a profesores ni a alumnos; los lectores habituales de este blog ya sabéis que me gusta recomendar a los docentes el uso de problemas sencillos de física y matemáticas].

PS: En este foro dicen que la solución de Ray apareció publicada en un artículo de G. W. Parker, “Projectile motion with air resistance quadratic in the speed,” American Journal of Physics 45: 606-610, 1977 [PDF gratis]. Traceando sus referencias he llegado a Jeffrey C. Hayen, “Projectile motion in a resistant medium: Part I: exact solution and properties,” International Journal of Non-Linear Mechanics 38: 357-369, 2003, quien afirma que la solución implícita para este problema se publicó como pronto en el libro de E. J. Routh, “A Treatise on Dynamics of a Particle,” Cambridge University Press (1898) pp. 95 –96, y más recientemente en el famoso E. T. Whittaker, “A Treatise on the Analytical Dynamics of Particles and Rigid Bodies,” 4th Edition, Cambridge University Press, London (1937) pp. 229 –230. Yo la he visto en varios libros sobre física de los deportes (en la parte de deportes de tiro) y en libros sobre simulación de sistemas mecánicos aplicados a gráficos por ordenador.

PS (4 junio 2012): Ralph Chill y Jürgen Voigt, “Comments on some recent work by Shouryya Ray,” Technische Universität Dresden, June 4, 2012, aclaran oficialmente el malentendido con el trabajo de este chaval. Lo primero, “we emphasize that he did not solve an open problem posed by Newton.” Lo segundo, “nevertheless all his steps are basically known to experts.” Y lo tercero, “given the level of prerequisites that he had, he made great progress.”

Los autores finalizan pidiendo disculpas: “we do not know how this regrettable claim entered several newspapers. Apparently, this claim was not endorsed by experts in the field who should have been involved in the evaluation of the work.”

Sobran más palabras.

La chorrada de la semana: Un estudio “geológico” determina el día que crucificaron a Jesús

El Evangelio de Mateo, capítulo 27, afirma que día de la crucificción “la tierra tembló y las rocas se partieron.” Si ocurrió un terremoto en el Monte Calvario, un estudio geológico debería ser capaz de predecir el día en que crucificaron a Jesús. Un estudio “geológico” ha concretado que fue el viernes, 3 de abril del año 33 d. C. Obviamente, se trata de una chorrada: la geología no tiene precisión suficiente para fechar con un error de medio día un terremoto ocurrido hace casi 2000 años. De hecho, en el resumen del artículo podemos leer que se ha datado el supuesto terremoto el año 31 ±5 d.C. ¿Cómo es posible entonces que hayan reducido el error de 5 años a solo medio día? Muy fácil, han utilizado los evangelios como fuente documental para fijar la fecha. Pero entonces, ¿para qué han hecho el estudio geológico? Sin usar los evangelios lo único que afirma el estudio es que hubo un terremoto entre los años 26 y 36 d.C. Me enteré de esta chorrada gracias a Javier Armentia, colaborador de Amazings, que a su vez se enteró por Twitter de la noticia de Eddie Wrenn, “Jesus died on Friday, April 3, 33AD, according to an investigation which matches his death to an earthquake,” Daily Mail, 25 May 2012. El artículo “científico” es Jefferson B. Williams, Markus J. Schwab & A. Brauer, “An early first-century earthquake in the Dead Sea,” International Geology Review 54: 1219-1228, 21 May 2012. Esta revista tiene un factor de impacto de 1,288, lo que la coloca en el segundo cuartil en el área de Geología del JCR de Thomson Reuters. ¿Cómo es posible que una revista impactada como International Geology Review publique un estudio bíblico como si fuera un estudio geológico? Quizás porque incluye tres imágenes como la de abajo, o quizás porque el editor de la revista profesa la religión adecuada.

Si hay que recortar, recortemos cabezas en nuestra universidad multicefálica

Esto no es un artículo de divulgación, sino de opinión y no espero que nadie esté de acuerdo conmigo. El gran problema de la universidad española es la multicefalia: Todo tiene varias “cabezas” encima. Explicar al lego la estructura “burrocrática” de la universidad española no es fácil pues está repleta de sinsentidos. En mi opinión, sobran Áreas de Conocimiento, Departamentos y Centros, entre otras cosas.

El Área de Conocimiento (AC) es la primera cabeza que yo cortaría. Para quien no lo sepa, cada profesor pertenece a un AC y cada asignatura está adscrita a una sola AC, aunque puede estar vinculada a más de una. Las AC fueron creadas por el Real Decreto 1888/1984 de 26 de septiembre, para regular los concursos de provisión de plazas de los Cuerpos docentes universitarios (concretando la Ley Orgánica 11/1983, de 25 de agosto, de Reforma Universitaria, la famosa LRU). El (primer) catálogo de AC se estableció en el Anexo I de este R. D., que incluyó la primera adscripción de todas las materias y plazas preexistentes a las áreas entonces creadas. Ojear dicho anexo permite indagar cuál es el perfil originario de cada área y confirmar un gran número de arbitraridades (motivadas por intereses particulares en cada universidad). Hoy en día si buscas una asignatura, sea “Mecánica de Fluidos,” observarás que además del AC de “Mecánica de Fluidos,” hay muchas otras AC que también la imparten, desde “Ingeniería Aeroespacial” a “Máquinas y Motores Térmicos” (por mencionar solo dos). Lo mismo pasa con muchas otras materias. La decisión del AC a la que está adscrita cierta asignatura suele depender de decisiones de “jefes” y “jefecillos” relacionadas con cuestiones de poder y favores pendientes. Como un profesor de una AC no puede impartir asignaturas de otra AC, en muchas ocasiones, la asignación de profesores a asignaturas se realiza en un reunión del AC bajo el control del “responsable” de AC.

Por cierto, mi AC se llama “Ciencia de la Computación e Inteligencia Artificial” (CCIA). Las asignaturas de informática suelen estar repartidas entre mi AC y “Lenguajes y Sistemas Informáticos” (LSI). En mi Universidad LSI es mucho más grande y poderosa que CCIA, pero en otras universidades ocurre todo lo contrario, CCIA es la poderosa y LSI es la débil. Muchas asignaturas que en mi universidad son de LSI, a 100 km de distancia son de CCIA, y viceversa.

En mi opinión, habría que unificar las AC en macroáreas de conocimiento, por ejemplo, siguiendo la línea ya marcada por el sistema de acreditación del profesorado de la ANECA, que acredita a los profesores en una macroárea (la mía es “Ingeniería y Arquitectura”). En mi opinión, la asignación, planificación y coordinación docentes deberían hacerse en el marco de las macroáreas para distribuir mejor los recursos humanos (hay áreas en las que sobra más profesorado que en otras, e incluso en las que falta). Por supuesto, la asignación tiene que ser racional. Si un profesor tiene experiencia docente o investigadora en una asignatura determinada, yo no veo ningún inconveniente a que la imparta, incluso si no pertenece a su AC. En resumen, el sistema de áreas de conocimiento debería reformarse en profundidad o incluso desaparecer.

Los Departamentos (DD) pequeños son la segunda cabeza que yo cortaría.Para quien no lo sepa, cada profesor y cada asignatura pertenecen a un solo DD, que comprende una o varias AC, aunque hay AC que están repartidas entre varios DD diferentes. Un profesor de un AC repartida en dos DD solo puede impartir las asignaturas adscritas a su AC y DD, no pudiendo impartir las asignaturas de su AC en otro DD. Los DD tienen cargos oficiales unipersonales, Director y Secretario, Personal de Administración y Servicios (PAS) específico (personal administrativo y personal técnico) y hasta instalaciones propias (laboratorios docentes y de investigación, despachos, salas de reuniones y seminarios, etc.). El concepto de Departamento surgió en la Ley Orgánica 11/1983, de 25 de agosto, de Reforma Universitaria (LRU) para “destruir” el sistema de Cátedras y Facultades que existía con anterioridad, ya que los catedráticos de entonces eran muy poderosos y hacían que la universidad fuera muy rígida; la estructura departamental de las universidades españolas pretendía flexibilizar los currícula tendiendo a un sistema similar al de EE.UU., donde los títulos son impartidos por los DD. La idea que subyace a la norma era que las universidades adaptasen progresivamente la organización facultativa y la transformaran en una  organización departamental (logrando, en palabras de la LRU, “una notable simplificación del actual caos de la selvática e irracional estructura jerárquica del profesorado, totalmente disfuncional”). Pero los grandes “poderes” en la universidad española, en lugar de eliminar los Centros (Facultades y Escuelas Técnicas) mantuvieron su estatus en paralelo a los departamentos. Obviamente, a más cabezas, más cargos unipersonales. Los DD nacieron para impartir asignaturas en varios centros y en varios títulos académicos. La mayoría de los primeros DD eran grandes y se fueron partiendo en trozos más pequeños (con objeto de incrementar el número de cargos y “carguillos”).

En mi opinión, habría que unificar muchos DD afines, sobre todo los más pequeños (que nacieron por favores políticos a ciertos “jefecillos”). En la universidad española hay muchos DD con menos de 10 profesores, a la par que los hay con más de 50. Muchas asignaturas idénticas según el Plan de Estudios son impartidas por diferentes AC porque están adscritas a diferentes DD. La planificación docente realizada desde un macrodepartamento que unifique DD afines permite optimizar los recursos para la asignación, planificación y coordinación de la docencia. Los macrodepartamentos además  deberían hacerse en el marco de las macroáreas para distribuir mejor los recursos de personal (hay áreas en las que sobra más profesorado que en otras, e incluso en las que falta). Los grandes DD suelen tener subdirectores y unidades docentes (UD), pero estos “carguillos” suelen tener poco poder y su misión es facilitar la gestión interna del DD. Los DD son los órganos básicos encargados de organizar y desarrollar la investigación de los profesores, pero en esta función los directores de DD suelen delegar sus funciones en los investigadores principales (IP) de cada grupo, con lo que la unificación de DD pequeños no afectará de forma negativa a la investigación.

Los Centros (CC) que comparten edificios comunes son la tercera cabeza que yo cortaría. Por CC me refiero de forma colectiva a las Facultades, Escuelas Técnicas Superiores y Escuelas Universitarias, que pueden tener edificio propio o compartirlo con otros. Estos CC son responsables de los planes de estudio, la matrícula de los alumnos, la planificación de clases y de todos los servicios ofrecidos en el marco del edificio que los aloja. Los CC tienen múltiples cargos unipersonales (Director, Secretario y Subdirectores), PAS específico (personal administrativo, secretaría, conserjería, personal técnico y de mantenimiento), e instalaciones propias comunes a todos sus DD (aulas, biblioteca, salas de estudio, laboratorios docentes, despachos, salas de reuniones y seminarios, etc.). La separación formal entre los CC y los DD tiene poco sentido desde el punto de vista de la gestión racional de los recursos disponibles, por ello en países como EE.UU. dicha separación no existe (solo existen los CC, que allí se llaman DD).

En mi opinión, cuando varios CC comparten el mismo edificio la duplicidad de ciertos servicios (secretaría, despachos de dirección, salas de reuniones, laboratorios, etc.) es un gasto innecesario que podría ser optimizado de forma trivial (eso sí, a costa de cortarle la cabeza a cierto número de “jefes” y “jefecillos”). La universidad española es tan patológica que en muchas casos los CC que comparten el mismo edificio se reparten los recursos de forma excluyente, de tal forma que un laboratorio, una sala de reuniones o incluso un aula pertenece y puede ser utilizada por un CC de forma exclusiva, estando prohibido de forma explícita (u oficiosa) su uso por los demás, incluso si están vacíos. Un sinsentido, se mire por donde se mire.

Yo no entiendo cómo cosas tan básicas como qué profesor imparte cierta asignatura son decididas por el AC, o el DD, o el CC, o por una combinación de ellos en función de la Universidad que se trate. Una asignación multicefálica de los recursos es algo que ni tiene pies ni tiene cabeza. Por supuesto, hay mucho cargo y carguillo en la Universidad que “viven” del multicefalismo y que consideran que, en su caso, el AC, el DD, o el CC, son absolutamente imprescindibles; que en lugar de tres cabezas hubiera solo una sería una debacle (para ellos, claro). En mi opinión, guillotinar el multicefalismo universitario español debe estar incluido en cualquier racionalización del gasto público.

Por supuesto, más allá de las AC, DD y CC, en la universidad española también sobran Campus y universidades, pero hoy no voy a sugerir más recortes.

Fuente de la imagen.

El LHC está acumulando un inverso de femtobarn de colisiones por semana

Viento en popa, a toda vela, no corta el mar sino vuela, un velero bergantín, … El Gran Colisionador de Hadrones (LHC por Large Hadron Collider) está logrando casi 1 /fb (inverso de femtobarn) de colisiones protón-protón a 8 TeV c.m. por semana en 2012 y ya supera los 3 /fb en CMS y en ATLAS. Los datos son enviados para su análisis en la WLCG (Worldwide LHC Computing Grid), proceso que requiere cierto tiempo. Para el gran congreso de este verano, ICHEP 2012, la fecha que indica el “hasta aquí hemos llegado” se cumple dentro de dos semanas, con lo que a este ritmo podemos esperar que allí se presenten el análisis de la búsqueda del bosón de Higgs con unos 5 /fb tanto en CMS como ATLAS, cumpliendo el objetivo marcado para este año. Son buenas noticias. La inyección con haces estables en modo colisión más larga hasta ahora ha sido el Fill #2651, que obtuvo colisiones durante 19:35 horas, acumulando 0,209 /fb en CMS y 0,201 /fb en ATLAS. Ahora mismo la luminosidad instantánea es casi la máxima que se logrará este año (como mucho se podrá mejorar en un 20% de aquí a final de año), por lo que se espera acumular en 2012 algo más de 15 /fb por experimento, pero sin llegar a alcanzar los 20 /fb. La clave por tanto es lograr inyecciones con haces estables en modo colisión lo más largas posibles. La última inyección Fill #2669 duró 08:13 horas, acumulando 0,132 /fb en CMS y 0,137 /fb en ATLAS. A esta hora del domingo (10:30 hora de Madrid) todavía no se ha inyectado la Fill #2670.

¿Qué podemos esperar sobre el Higgs en ICHEP 2012? Aunque parezca mentira, saberlo en detalle es imposible de predecir, pues la incertidumbre en las predicciones teóricas sobre las colisiones a 8 TeV c.m. en el LHC son todavía muy grandes (y solo llevamos unos meses acumulando datos para afinar los modelos). Observar el Higgs no es tan fácil como tirar una moneda y ver si ha salido cara o cruz. Así nos lo han contado en el Sixth LHC Higgs Cross Section Workshop, May 24-25, 2012, at CERN.

El modelo estándar predice el número de Higgs que se producirán en una colisión protón contra protón a 8 TeV en función de ciertos parámetros (como la distribución de partones en un protón) que no sabemos calcular con precisión. La mejor manera de determinar estos parámetros es medirlos de forma experimental y ello requiere analizar muchas colisiones, pero estos análisis se realizan en paralelo con los correspondientes a la búsqueda del Higgs. Por tanto, puede pasar lo que ya pasó con la búsqueda del Higgs en el Tevatrón hace dos años, cuando al incrementar el número de colisiones analizadas el intervalo de exclusión del Higgs decreció en lugar de crecer.

Las estimaciones teóricas utilizando simulaciones por ordenador mediante métodos de Montecarlo presentan gran incertidumbre, con lo que el resultado depende del algoritmo utilizado (para la distribución de partones en un protón hay varios algoritmos, pero en el LHC se recomienda usar PDF4LHC; más información en Robert Thorne, “Parton Distributions,” 6th LHC Higgs Cross Sections, 25th May 2012, de donde he extraído la figura de arriba). Como muestra la figura, la sección eficaz σ(H), más o menos equivalente a la probabilidad de producción de un Higgs en una colisión, tiene un valor de σ(H) = 16,99 ± 1,66 ± 0,37 que presenta una incertidumbre cercana al 10% (un 7%). La figura (a la izquierda) también muestra como diferentes programas de Montecarlo predicen valores diferentes para la producción de un Higgs por fusión de gluones. La vida de los físicos que trabajan en el LHC no es fácil.

Estos detalles que pueden parecer de poca importancia son fundamentales a la hora de interpretar los resultados que se publiquen sobre el Higgs en el ICHEP 2012. Se observarán muy pocos bosones de Higgs y la comparación entre el número esperado y el observado tendrá gran incertidumbre. Por tanto, en rigor, incluso si la señal sobre un Higgs a 125 GeV se hace más clara, proclamar un descubrimiento temprano es arriesgado. A finales de año, todos los parámetros para realizar una estimación teórica correcta de las predicciones del modelo estándar a 8 TeV c.m. tendrá valores más precisos y la opinión general es que, con más datos y mejores ajustes entre teoría y experimento, ya se podrá proclamar oficialmente, en su caso, un descubrimiento.

Lo mismo pasa con las propiedades del Higgs. Mucha gente interpreta los datos publicados en diciembre sobre el Higgs como una señal de que no corresponde a la predicción del modelo estándar, aparecen excesos en algunos canales de desintegración y defectos en otros. Pero con los pies en la tierra no podemos todavía hablar de Higgs leptofóbicos y otras variantes, pues interpretar los resultados en estos canales es aún más arriesgado que interpretar su combinación. Lo mismo pasará en el ICHEP 2012. El análisis canal a canal de desintegración del Higgs mostrará excesos y defectos de origen puramente estadístico (tanto de las propias fluctuaciones de los datos como de nuestras estimaciones de las predicciones teóricas del modelo estándar). Una interpretación fiable canal a canal requerirá un análisis pormenorizado de todos los resultados que se obtengan en 2012 y quizás no se logre publicar hasta el verano de 2013.

Pero que nadie me malinterprete, aunque las incertidumbres sean mayores de las que nos gustaría, acumulando datos de colisiones las técnicas de análisis estadístico permitirán dar caza al Higgs fuera de toda duda. La figura de arriba, extraída de Dave Charlton (University of Birmingham), representing ATLAS, CMS, CDF and DZero, “Hunting the Higgs: The State of Play. Results from the Tevatron and the LHC,” FPCP, Hefei, 24 May 2012, nos muestra cómo los datos de colisiones en CMS a 7 TeV han ido redescubriendo el modelo estándar.

Estamos viviendo unos momentos apasionantes en la búsqueda del Higgs, pero no debemos olvidar las enormes dificultades que han de superar los miles de físicos que trabajan en el LHC. La analogía con buscar una aguja en un pajar no es buena, porque todo el mundo sabe diferenciar una aguja de una paja cuando la ve, pero no es nada fácil diferenciar entre una colisión con un Higgs y otra con ninguno.

Hecha la ley, hecha la trampa

El Plan de Ordenación Docente (POD) para el curso 2012/13 en la mayoría de las universidades españolas está paralizado por culpa del Real Decreto Ley 14/2012, de medidas urgentes de racionalización del gasto público en el ámbito educativo. Se supone que un Real Decreto Ley es de obligado cumplimiento por todos, incluso por quienes estén en desacuerdo con su contenido. Se supone… pero cuando profesores, sindicatos, decanos y directores, consejos de gobierno, y rectores están en contra de la ley, surge la trampa. Y a quién creéis que perjudicará la trampa. Obviamente, a los profesores jóvenes y a los alumnos. Los profesores que lleven más años en la universidad y ya sean funcionarios, los sindicalistas, decanos y directores, miembros de los consejos de gobierno y rectores, aunque tengan que dar su brazo a torcer y al final acaten la ley, porque al final no les quedará otro remedio, sufrirán muy poquito sus consecuencias. Los mayores perjudicados serán los alumnos.

Lo ideal es que el POD se apruebe en mayo para permitir que los profesores que tengan que impartir una nueva asignatura (que ahora con la transición de planes de estudio de ciclo a grado es algo muy habitual) tengan dos o tres meses para prepararla antes del inicio del curso (que suele ser a finales de septiembre). Retrasar la aprobación del POD hasta mediados de septiembre será un enorme perjuicio para los profesores más jóvenes, los que acabarán cargados de más asignaturas nuevas y que no tendrán tiempo material para prepararlas. Como resultado, los alumnos, además de pagar mayores tasas de matrícula, recibirán una docencia de peor calidad. Todo gracias a un R. D. Ley 14/2012 que se suponía que tenía que ser aplicado de forma urgente.

Todo por culpa de algo, que bien mirado, parece una tontería (con perdón). El R. D. Ley 14/2012 afirma que “con carácter general, el personal docente e investigador funcionario de las Universidades en régimen de dedicación a tiempo completo dedicará a la actividad docente la parte de la jornada necesaria para impartir en cada curso un total de 24 créditos ECTS.” Más o menos, esta es la carga docente máxima para todo el PDI durante el presente curso (salvo en unas pocas universidades). Por ejemplo, en la Universidad de Málaga los profesores doctores, tanto funcionarios como laborales,  imparten 240 horas (24 créditos de 10 horas) y los no doctores 270; a estos números hay que restar las reducciones horarias. Obviamente, resulta extraño que se hable en el R. D. de “créditos ECTS” que miden el trabajo desarrollado por el alumno, pero en mi opinión este es un detalle menor (que solo demuestra que quienes redactaron el R. D. Ley no son universitarios). Además, hay una regla de facto a la hora de convertir créditos y créditos ECTS en horas lectivas del profesor que afirma que 1 crédito son 10 horas y 1 crédito ECTS son 12 horas. Aplicando este criterio, los 24 créditos ECTS en lugar de 24 créditos suponen un incremento de un 20% en el número de horas lectivas, pero este incremento se compensa con la planificación docente de los así llamados grupos reducidos. Al final, lo comido por lo servido.

El gran problema del R. D. Ley 14/2012 son las excepciones y en concreto la segunda de ellas. “Deberá dedicar a la función docente la parte de la jornada necesaria para impartir en cada curso un total de 32 créditos ECTS, quien se encuentre en alguna de las siguientes situaciones: (a) Que no haya sometido a evaluación el primer período de seis años de actividad investigadora o que haya obtenido una evaluación negativa de dicho período. (b) Que hayan transcurrido más de seis años desde la última evaluación positiva.” Una lectura rápida puede hacer creer que esto significa que quien no investigue y no tenga sexenios tiene que dar más clases, lo que a priori parece que está muy bien. Pero esta lectura rápida oculta un pequeño detalle. La evaluación de la actividad investigadora solo la puede solicitar el PDI funcionario; solo nosotros podemos tener sexenios. Qué pasa con el PDI no funcionario, que no puede someter su actividad investigadora a ningún tipo de evaluación. Cuántos créditos ECTS tendrán que impartir estos profesores, la mayoría jóvenes y en plena actividad investigadora. Si quieren ser funcionarios algún día tienen que dedicarse al 100% a la investigación; pero si tienen que impartir 32 créditos ECTS su única opción será descuidar las labores docentes o perderán el tren y otros les adelantarán. Los alumnos serán los grandes perjudicados. Por qué quienes desarrollaron el R. D. Ley 14/2012 no pensaron en los alumnos.

La otra excepción del R. D. Ley 14/2012 beneficia a unos pocos (yo entre ellos). “Deberá dedicar a la función docente la parte de la jornada necesaria para impartir en cada curso un total de 16 créditos ECTS quien se encuentre en alguna de las siguientes situaciones: (a) Profesores Titulares de Universidad, Profesores Titulares de Escuelas Universitarias o Catedráticos de Escuela Universitaria con tres o más evaluaciones positivas consecutivas, habiéndose superado la más reciente en los últimos seis años. (b) Catedráticos de Universidad con cuatro o más evaluaciones positivas consecutivas, habiéndose superado la más reciente en los últimos seis años. (c) En todo caso, cuando se hayan superado favorablemente cinco evaluaciones.” Resumiendo, beneficia quien sea funcionario y lleve más de 18 años de servicio, siempre que pida sus sexenios cada vez que le toque pedirlos, salvo a los grandes investigadores que hayan llegado a catedrático de universidad antes de cumplir 24 años de servicio, que por ser tan buenos merecen ser castigados (un sinsentido más del R. D. Ley).

En Andalucía los rectores acordaron actuar de forma común y coordinada, pero no decidieron cómo actuar. El POD quedó paralizado a la espera de que alguien les tire de la oreja y les recuerde que tienen que acatar la ley. Como siempre tiene que haber un esquirol en una huelga de manos caídas, la Universidad de Córdoba decidió aprobar las directrices para la aplicación de su nuevo POD adaptado al R. D. Ley 14/2012. Aunque dicho R. D. solo regula de forma explícita al personal docente e investigador (PDI) funcionario y utiliza una métrica de la calidad profesional del PDI que solo es aplicable a funcionarios (los tramos de investigación llamados sexenios), el consejo de gobierno de la institución cordobesa decidió aplicar el peor caso al PDI no funcionario; aunque por ley ellos no pueden solicitar los sexenios, serán tratados en igualdad a los que pudiendo solicitarlos no lo han hecho o han recibido una evaluación negativa. ¿Qué harán las otras universidades andaluzas? Las malas lenguas dicen que acabarán pasando por el aro y copiarán la decisión cordobesa. Como siempre, tarde y mal.

En resumen, acatar el R. D. Ley 14/2012 conlleva un perjuicio para los alumnos y para un amplio sector de profesorado. Como todo el mundo en la universidad lo sabe, en lugar de tratar de disminuir sus consecuencias se está actuando en la dirección opuesta. Una pena…

Refutado el artículo en Physical Review Letters que afirma que la fuerza de Lorentz viola la relatividad especial

Todos hemos estudiado que la fuerza de Lorentz es un ejemplo de la relación íntima entre la teoría de la relatividad y el electromagnetismo. Esta fórmula nos permite calcular la fuerza ejercida por campos eléctricos y magnéticos sobre una carga. Masud Mansuripur, ingeniero eléctrico de la Universidad de Arizona en Tucson, ha logrado colar en Physical Review Letters (PRL) un artículo que afirma que hay un fallo en todos los libros de texto, según un artículo de Adrian Cho en Science. Hay tanta gente que critica las ideas de Einstein que uno ya no se sorprende cuando lee cosas así, pero lograr publicarlo en PRL son palabras mayores y más aún si se hacen eco en la mismísima Science. No he podido leer el artículo técnico, aún no está disponible en PRL, M. Mansuripur, “The trouble with the Lorentz law of force,” submitted to Physical Review Letters, January 2012 [arXiv: 1205.0096]. Pero aún estoy sorprendido por Adrian Cho, “Textbook Electrodynamics May Contradict Relativity,” Science 336: 404, 27 April 2012. Por supuesto, Cho nos aclara que muchos físicos tienen serias dudas sobre la afirmación de Mansuripur.

Según cuenta Cho, en el nuevo artículo se demuestra que aplicar una transformación de Lorentz a la fuerza de Lorentz sobre una partícula cargada en un cable produce un resultado incompatible con los experimentos. Según Mansuripur, este resultado indica que la derivación de la fuerza de Lorentz que aparece en los libros de texto es incorrecta y viola la relatividad especial; su artículo presenta una corrección a dicha ley que evita este problema. Esta nueva ley no es nueva, ya que se trata de la fuerza descrita por Albert Einstein y Jakob Laub en 1908, que más tarde Einstein repudió como incorrecta. Hasta que no lea el artículo técnico no quiero decir nada más. Cho acaba su artículo afirmando que “sin lugar a dudas, el debate sobre este resultado va a ser acalorado.”

Esta entrada será completada con más detalles cuando el artículo de Mansuripur esté disponible.

PS (25 de mayo 2012): Ya está disponible el artículo de M. Mansuripur, “The trouble with the Lorentz law of force,” Physical Review Letters 108: 193901, 7 May 2012. La paradoja no es tal y fue resuelta en 1989 por Victor Namias, “Electrodynamics of moving dipoles: The case of the missing torque,” American Journal of Physics 57: 171-177, 1989. El problema es que la fórmula para el momento de fuerzas (torque) introducida por la fuerza de Lorentz que se presenta en muchos libros de texto solo es válida en reposo y debe ser corregida; hay dos posibles correcciones publicadas el dipolo de Gilbert y el dipolo de Ampère, y en ambos casos se puede resolver la “paradoja” de forma trivial. Más información en Daniel J. Cross, “Resolution of the Mansuripur Paradox,” arXiv:1205.5451.

La pena es que este resultado demuestra que en la actualidad nadie se estudia los artículos clásicos y que en asuntos “clásicos” se redescubren una y otra vez las mismas cosas. El sistema de revisión por pares funciona, pero tiene limitaciones, tiene muchas limitaciones. Un sistema de peer review abierto, en el que cualquier investigador que lea el artículo pueda revisarlo si así lo considera oportuno es cada día más necesario.

La brújula magnética de las palomas mensajeras parece estar en su oído interno

Las palomas mensajeras son capaces de regresar a su hogar desde un lugar desconocido a cientos de kilómetros de distancia. No se sabe cómo lo hacen pero se cree que la clave es el uso de una brújula magnética. Se publica en Science un artículo de Wu y Dickman que ha medido la actividad eléctrica de 300 neuronas que reciben estímulos sensoriales del oído interno y sugiere que la brújula magnética (el órgano que actúa de sensor magnético) se encuentra la lagena coclear del oído de la paloma. Esta hipótesis contrasta con estudios previos que apuntan a que se encuentra o en el ojo o en la parte superior del pico. El nuevo estudio ha observado que la activación de las neuronas codifica la dirección tridimensional y la intensidad del campo magnético terrestre (o de un campo aplicado ex profeso), algo que no ha sido posible para los otras hipótesis, pero que no las descarta. Por ello, en mi opinión, todavía es pronto para conocer la respuesta definitiva, pero todo apunta a que las palomas podrían tener varios órganos que actúan como brújulas magnéticas y que integran dicha información con la de otros sentidos para guiar su trayectoria de retorno al hogar. Nos lo cuenta Michael Winklhofer, “An Avian Magnetometer,” Science 336: 991-992, 25 May 2012, haciéndose eco del artículo técnico de Le-Qing Wu, J. David Dickman, “Neural Correlates of a Magnetic Sense,” Science 336: 1054-1057, 25 May 2012.

Wu y Dickman afirman en su artículo que las células magnetoreceptoras deben encontrarse en la lagena coclear (porque han estudiado neuronas que reciben información sensorial de dicha región del oído), pero no han sido capaces de identificar las células concretas donde se encuentran los dominios de  magnetita (Fe3O4) que deben estar implicados en el proceso de detección, ni tampoco explicar en detalle el mecanismo de excitación de las neuronas. La figura que abre esta entrada, extraída del artículo, ofrece una posible propuesta (clickea en la figura para ampliarla), pero hay gran número de interrogantes.