La energía oscura puede ser explicada por un gravitón con masa

Dibujo20090803_massive_graviton_explanation_supernova_SN_Ia_distance_data

Físicos teóricos brasileños han mostrado que la energía oscura se puede explicar si el gravitón, la partícula de la gravedad, tiene una masa en reposo no nula (aunque pequeñísima). La energía oscura domina el 73% del universo y nadie sabe lo que es. Una constante cosmológica no nula la puede explicar pero nadie sabe qué es, es decir, sustituye un problema por otro. Un gravitón masivo permite explicar la energía oscura. Más aún, sin violar los límites experimentales para su masa, de hecho, utilizando cúmulos galácticos se tiene que mg < 2.0 x 10-62 gramos, un límite mil veces superior al valor necesario para que la masa del gravitón explique la energía oscura. ¿Cómo incorporar la masa del gravitón a la teoría de Einstein? La opción más sencilla es la teoría de Visser, en la que se añade el término masivo directamente a las ecuaciones de Einstein. El estudio de la polarización de ondas gravitatorias, cuando estas sean detectadas experimentalmente, permitirá determinar si el gravitón tiene masa nula (solo tiene dos estados de polarización como el fotón) o es masivo (tiene 6 estados de polarización). El artículo técnico es Marcio E. S. Alves, Oswaldo D. Miranda, Jose C. N. de Araujo, “Can Massive Gravitons be an Alternative to Dark Energy?,” ArXiv, Submitted on 29 Jul 2009.

El autobombo también se da en los artículos científicos o casi todo el mundo envía sus artículos a ArXiv a la misma hora

Dibujo20090803_Number_astro-ph_submissions_by_time_day_10_minute_bins_from_Jan_2002–Mar_2007Entre las 16:00 y las 16:10 horas, hora local de New York, el servidor de preprints de ArXiv, localizado en la Universidad de Cornell, recibe casi todos sus envíos. La figura de la izquierda es apabullante. Cuando envías un artículo, no aparece inmediatamente en la web sino que todos los artículos enviados desde las 16:00 hasta las 15:59 horas del día siguiente aparecen simultáneamente. ¿Por qué enviar los artículos justo a las 16:00? Para que aparezcan los primeros y aprovechar el hecho (demostrado por varios estudios) que aparecer el primero implica un mayor número de citas en promedio. Parece que todo el mundo lo sabe y parece que todo el mundo quiere aprovecharse del efecto. Nos lo cuenta el propio Paul Ginsparg, quien si no, junto a Asif-ul Haque, en su artículo “Positional Effects on Citation and Readership in arXiv,” Submitted on 27 Jul 2009 (por cierto, Ginsparg suele publicar en ArXiv sus artículos una vez han sido aceptados, no como preprints, curioso, siendo él el creador de ArXiv; en este caso, el artículo ha sido aceptado en el Journal of the American Society for Information Science and Technology; ¡cosas de Ginsparg!).

La autopromoción o el autobombo no sólo es clave en el mundo de los blogs, también lo es en el mundo de los artículos científicos. Que un artículo aparezca en ArXiv está bien correlacionado con que será más citado. Que un artículo aparezca en los primeros lugares en algún listado de alguna categoría de ArXiv también lo está. Cosas de la bibliometría. O quizás del factor humano. Lo primero nos parece lo mejor. O lo último acaba por aburrirnos. En ArXiv el efecto es más visible en las categorías de astro-ph, hep-th y hep-ph, comparado con otras categorías.

Por cierto, uno de los estudios anteriores de Ginsparg encontró que los investigadores cuando pueden leer un trabajo en forma de preprint o en su versión final en la revista, prefieren esta última. Quizás porque la mayoría de los investigadores del primer mundo tiene acceso a la mayoría de las revistas internacionales. Aún así, da la sensación de que piensan que al preprint le puede faltar algo “importante.” No sé, os he de confesar que a mí me pasa lo mismo. Los interesados en el paper de Grinsparg pueden leerlo en Edwin A. Henneken et al. “E-prints and Journal Articles in Astronomy: a Productive Co-existence,” ArXiv, Submitted on 22 Sep 2006 (o en su versión en revista Learned Publishing 20: 16-22, 2007).

La respuesta del gobierno de Venezuela sobre el declive de la ciencia en su país

Ya nos hicimos eco en este blog (El declive de la investigación en Venezuela bajo el régimen de Chávez, Publicado el Mayo 29, 2009) de sendos artículos en la prestigiosa Science sobre los problemas de la ciencia en Venezuela, en concreto, Claudio Bifano, “Venezuelan Science at Risk,” Science 324: 1514, 19 June 2009, y Barbara Casassus, “As Research Funding Declines, Chávez, Scientists Trade Charges,” Science 324: 1126, 29 May 2009. La respuesta del gobierno venezolano no se ha hecho esperar de la mano de Jesse Chacón Escamillo, desde abril de 2009, Ministro para Ciencia, Tecnología e Industrias Intermedias, “Venezuelan Science: Making Great Strides,” Science 325: 537, 31 July 2009.

El artículo de Jesse empieza directo al grano “La República Bolivariana de Venezuela lleva 10 años de revolución que han mejorado la salud, el bienestar, la educación, y la cultura de todos los venezolanos. (…) Debido a la crisis financiera internacional y al fuerte descenso de los precios del crudo, el gobierno ha reducido el presupuesto nacional un 6.7%, incluyendo a las instituciones públicas. Esta reducción es muy inferior a la implementada por otros países y no está dirigida específicamente contra las universidades y los centros de investigación.”

“Venezuela ha mejorado sus números significativamente: (i) el número de investigadores ha pasado de 3597 en 1998 a 10.187 en 2008; (ii) el porcentaje de producto interior bruto en investigación y ciencia ha crecido de un 0.39% en 1999 a un 2.69% en 2007 (el más alto en latinoamérica según la OCDE); (iii) el número de estudiantes ha crecido de 6.233.127 en 1999 a 7.598.487 en 2008, incluyendo una reducción del analfabetismo de un 7% en 1999 a un 0.4% en 2008; (iv) el acceso a internet por parte de la población ha crecido de un 5.43% en 2003 a un 27.04% en 2009, gracias a la instalación de 3187 “info-centros” por todo el país; y (v) el gobierno ha implantado el IVIC para permitir el acceso a más de 11.300 revistas científicas (impreas y electrónicas) así como ha creado 40 nuevas universidades.”

Jesse no entiende las duras palabras del “Presidente de la Academia de Ciencias Físicas, Matemáticas, y Naturales (ACFIMAN)” (Claudio Bifano).  “No hay fuga de cerebros en Venezuela. Es falso que el gobierno haya despedido, degradado, o puesto en una lista negra a los científicos disidentes.”

¿Propaganda gubernamental? Habrá que esperar a la respuesta de científicos venezolanos relevantes a las palabras de su Ministro/Gobierno.

Lo barato acaba saliendo caro y el LHC del CERN

Dibujo20090802_LHC_CERN_Faulty_soldering_between_nonsuperconducting_copper_parts_junctionsEl coste del LHC del CERN ya alcanza la cifra de 3.900 millones de euros (hace un año y medio se hablaba de solo 3.000 millones, ver LHC FAQ). Aún así es mucho más barato que cualquier otra instalación similar gracias a aprovechar el túnel del LEP y parte de su infraestructura. Su entrada en funcionamiento se está retrasando porque se están encontrando problemas inesperados, que indican que su fabricación no ha sido realizada con el cuidado necesario (quizás por las prisas, quizás por el bajo coste). Más aún, entrará en funcionamiento con una energía muy inferior a la inicialmente esperada. Por ejemplo, esta semana se están revisando las soldaduras entre uniones de cobre en la parte no superconductora de los 10.000 imanes superconductores del LHC. Se ha encontrado una soldadura incorrectamente realizada. ¡Una soldadura! Sí, pero suficiente para tener que revisar las demás. Estas soldaduras defectuosas impedirán que el LHC alcance su energía máxima ya que no podrán soportar la corriente máxima que habría que aplicar a los imanes superconductores. Parece increíble, pero así es. No sé, pero a mí me parece que lo barato acaba saliendo caro. Nos lo cuenta, como no, Adrian Cho, “More Bad Connections May Limit LHC Energy or Delay Restart,” News of the Week, Science 325: 522-523, 31 July 2009.

Esta semana los técnicos del CERN están chequeando las 10.000 soldaduras con objeto de evaluar la corriente máxima que podrán soportar de forma fiable, así como determinar la energía máxima de los haces de protones que se podrá alcanzar en el primer año de funcionamiento de la instalación. En el mejor caso, las demás soldaduras estarán perfectas (a mí me parece que algo poco probable) y este chequeo solo supondrá un retraso más para el reinicio del LHC (que se esperaba para noviembre).

Un retraso más. Otro retraso más y otro más aún. Esto parece la historia interminable. Hemos de recordar que en el año 2000 se suponía que el LHC entraría en funcionamiento en el año 2005. Espero equivocarme, pero ahora parece que no lo hará hasta inicios de 2010.

Un recorte en energía más. Y ahora otro más. El LHC del CERN se diseñó para alcanzar 14 TeV de energía máxima (dos haces de protones cada uno con 7 TeV), lo que significa que se observarán colisiones entre 1 y 2 TeV de energía máxima (ya que colisionan entre sí los partones (quarks y gluones) que constituyen los protones). Hace unos meses se decidió reducir esta energía a un máximo de 10 TeV. Los nuevos problemas parecen limitarla a unos 8 TeV o menos. El LHC tiende a convertirse en un Tevatrón “mejorado” (alcanza una energía de 2 TeV).

Dibujo20090802_LHC_CERN_gluon-gluon_quark-quark_collisions_and_higgs_production

Quizás convenga reforzar el punto anterior. En el LHC colisionarán haces de protones. Cada protón es un “saco” de partículas, 3 quarks de valencia y millones de gluones y de pares de quarks virtuales. En una colisión protón-protón en realidad se produce una colisión gluón-gluón (las mejores para observar el bosón de Higgs), quark-quark y hasta quark-antiquark (ver figura de arriba). En un protón con una energiá de 7 TeV es muy difícil que alguno de sus millones de constituyentes alcance un 1 TeV, además que lo haga otro de los constituyentes del otro protón que acabe colisionando con éste, y que además ambos constituyentes (partones) colisionen. Recuerda que un protón tiene un “tamaño” de unos 10-15 m. y un partón sólo alcanza unos 10-18 m., es decir, ocupa un volumen mil millones de veces inferior. El resultado es que es muy poco probable alcanzar colisiones de más de 2 TeV (prácticamente imposible). Con un LHC a energía reducida que alcance, digamos 7 TeV en el punto de colisión (haces de protones de 4,5 TeV), difícilmente se observarán colisiones partón-partón de más de 1 TeV (similares a las más energéticas que se observan actualmente en el Tevatrón). ¿Tanto para tan poco?

¿Retraso o recorte? Esta es la cuestión. Muchos quieren que el LHC se ponga en funcionamiento cuanto antes. ¿Para qué? Para descubrir nuevos fallos y poder resolverlos cuanto antes, así como calibrar todos los detectores y aprender más sobre el funcionamiento de esta máquina. Al mismo tiempo, nadie quiere un LHC funcionando durante un año a solo 4 TeV, incluso 8 TeV están en el límite de lo no deseable (le daría una oportunidad única al Tevatrón para acumular luminosidad y ganar la partida, por ejemplo, en la búsqueda del Higgs).

No sé que opinarás tú, pero a mí me parece que lo barato acaba saliendo caro.

PS (04 agosto 2009): La noticia en Menéame gracias a “El LHC podría arrancar a media potencia o retrasarse aún más,” Ciencia Explicada, 4 de agosto de 2009.

Qué matemáticas deberían aprender los biólogos, ecuaciones diferenciales o álgebra abstracta

Dibujo20090802_differential_equation_and_boolean_equation_models_lac_operon_mechanism

Un biólogo estudia estadística y un poco de cálculo. Los avances en la biología de moda, la biología sistémica (biología de sistemas), requieren un conocimiento de matemáticas más avanzado. El futuro de la biología son los biólogos cuantitativos. ¿Qué matemáticas debe estudiar un biólogo? No está nada claro. Muchos creen que debe dominar el campo de las ecuaciones diferenciales (al menos las ordinarias). Otros abogan por álgebra abstracta y teoría (abstracta) de redes. Entre estos últimos se encuentra Raina Robeva y Reinhard Laubenbacher con su artículo “Mathematical Biology Education: Beyond Calculus,” Education Forum, Science 325: 542-543, 31 July 2009 (es obligado leerse la información suplementaria). El interés actual en reformar la educación biológica también nos lo presenta Jeffrey Mervis, “Universities Begin to Rethink First-Year Biology Courses,” Science 325: 527, 31 July 2009. La (bio)informática y la matemática (biológica) computacional son claves en la nueva formación de un biólogo, como nos recuerdan Pavel Pevzner, Ron Shamir, “Computing Has Changed Biology—Biology Education Must Catch Up,” Science 325: 541-542, 31 July 2009.

Las redes booleanas (que los informáticos estudian como teoría de circuitos combinacionales y secuenciales) podrían ser la matemática del futuro de la biología. Mucho más sencillas de entender que las ecuaciones diferenciales (en especial para alguien con la formación de un biólogo) permiten entender gran parte de la dinámica de las redes metabólicas y de transcripción génica. A lo que aportan los autores yo añadiría la teoría de redes de Petri (muy utilizada en teoría del control de sistemas).

Dibujo20090802_Schematic_lac_operon_regulatory_mechanismsLos autores se centran en el ejemplo de la dinámica del operón de la lactosa (lac), el mecanismo de regulación genética que controla el transporte y el metabolismo de la lactosa (en la figura de la izquierda en el caso de la bacteria procariota E. coli). Este es el ejemplo más estudiado (junto con la glucolisis) de una red modelada por ecuaciones diferenciales, desde el trabajo original de Jacob y Monod que se remonta a 1961. Sin embargo, desde entonces ha sido estudiado con todas las técnicas matemáticas posibles.

La dinámica es sencilla. Cuando hay glucosa pero no hay lactosa, un represor evita que se transcriban los genes lac. El operón está en OFF. Cuando no hay glucosa, pero hay lactosa extracelular que es transportada al interior de la célula por una permeasa, la alolactosa evita que el represor actúa con lo que se produce la transcripción del gen y el operón está en ON. Este sistema es un ejemplo arquetípico de dinámica biestable (que transita entre dos posibles estados). Además, presenta un comportamiento de tipo histéresis. El modelo mediante ecuaciones diferenciales requiere un dominio técnico que abruma a la mayoría de los biólogos.

Un modelo booleano (a la derecha en la figura que encabeza esta entrada) se basa en operadores AND (denotados por el símbolo ∧ ) que modela el efecto conjunto de dos variables en una tercera y operadores OR (denotados por el símbolo ∨) que modela el efecto independiente de dos variables separadas en una tercera. Finalmente, el operador NOT (denotado por el símbolo ¬) indica un efecto negativo de una variable en otra. En un modelo booleano el tiempo es discreto. 

El operón lac se modela mediante una terna de variables booleanas (Mt, Et, Lt) que representan la concentración intracelular de ARN mensajero (Mt), del polipéptido lacZ (Et), y de la lactosa intracelular (Lt) en el tiempo t, que dependen de las concentraciones extracelulares de glucosa (Ge) y lactosa (Le). Por ejemplo, la última ecuación en la figura de arriba, básicamente fL = Lt+1 = ¬Ge,t ∧ Et ∧ Le,t indica que el estado interno de la lactosa en el tiempo t+1 es L=1 si la glucosa (Ge) no está presente pero sí lo están E y Le (en el tiempo t). Para los informáticos este tipo de representación booleana les será muy familiar. Estudiando el grafo de posibles estados a partir de las cuatros posibles entradas a este sistema, (Le,Ge) = (0, 0), (0, 1), (1, 0) y (1, 1), se puede demostrar que este sistema dinámico discreto presenta biestabilidad, dos posibles estados estados correspondientes a (1, 1, 1) y (0, 0, 0), es decir, los estados ON y OFF del operón, respectivamente. Más aún, el modelo booleano muestra que este sistema no presenta comportamiento oscilatorio (ciclos límite), como se puede demostrar rigurosamente con el sistema de ecuaciones diferenciales original.

Por supuesto, los modelos booleanos en tiempo discreto no representan toda la verdad sobre la dinámica ya que no permiten estudiar fenómenos no lineales interesantes como bifurcaciones o catástrofes en la dinámica, de gran interés en la biología moderna. En mi opinión, el biólogo moderno requiere una buena formación en bioinformática y en dinámica de sistemas no lineales.