Nobel Física 2013: Englert y Higgs por la teoría del origen de la masa de las partículas

Dibujo20131008 englert - higgs - beh potential

Desde 1901, han recibido el Premio Nobel de Física 196 científicos. Los dos últimos se han anunciado esta misma mañana, aunque muy pocos teníamos dudas sobre quiénes serían, el físico escocés Peter W. Higgs (Universidad de Edinburgo, Escocia, Gran Bretaña) y el físico belga François Englert (Universidad Libre de Bruselas, Bélgica). El físico belga Robert Brout también habría recibido el galardón si no hubiera fallecido en el año 2011. Los tres desarrollaron en 1964 el mecanismo de Brout-Englert-Higgs de rotura espontánea de la simetría electrodébil que da origen a la masa de las partículas fundamentales, mecanismo que predice la existencia de una nueva partícula, el bosón de Brout-Englert-Higgs, un bosón escalar que fue observado en las colisiones del LHC en el CERN el 4 de julio de 2012. Hoy sabemos que dicho bosón escalar se comporta como predice la teoría, llamada modelo estándar, dentro de las cotas experimentales previstas. En este blog he hablado tanto del bosón de Higgs que hay poco que pueda decir más. Así que os dejo los vídeos de mi conferencia en diciembre de 2012 sobre el bosón de Higgs. ¡Qué los disfrutéis!

Por cierto, acerté mi predicción en La Rosa de los Vientos. Era una predicción segura, pero bueno.

Sigue leyendo

Francis en Eureka: Predicción de los premios Nobel 2013

Dibujo20131007 nobel medal - gold

El audio de mi sección ¡Eureka! en La Rosa de los Vientos, Onda Cero, ya está disponible. Como todos los años, presenta mi predicción de los premios Nobel de 2013. Me he basado en las predicciones de Science Watch de Thomson Reuters. Por supuesto, predecir el futuro es imposible, ya que sólo se puede predecir el pasado.

El lunes 7 de octubre se publicará el ganador del premio Nobel de Medicina. ¿Cuál es tu predicción para este premio, que acertaste el año pasado en la Rosa? Hay muchos campos de investigación en Medicina y Fisiología que merecen el Premio Nobel pero yo me decanto por la epigenética, en concreto, la metilación del ADN y el control de la expresión de los genes. Adrian P. Bird (Universidad de Edinburgo, Edinburgo, Scotland, UK), Howard Cedar y Aharon Razin (ambos de la Hebrew University of Jerusalem, Jerusalem, Israel) son los candidatos más claros para recibir este premio. Su trabajo ha permitido descubrir que los lugares donde los grupos metilo se acoplan al ADN afecta a la regulación de las moléculas que interaccionan con las secuencias de ADN, permitiendo entender lo que diferencia las células diferenciadas unas de otras, y cómo el entorno afecta a la expresión de los genes, es decir, al fenotipo. Entender la anotación del genoma, como le llamó Howard Cedar, es fundamental tanto en ciencia básica como en las aplicaciones de la genética al tratamiento de enfermedades; de hecho, el campo de la epigenética promete avances importantes en el tratamiento de enfermedades complejas relacionadas con los genes, como el cáncer.

El próximo martes 8 de octubre se publicará el ganador del premio más claro este año, el de Física, que todo el mundo asigna al bosón de Higgs. ¿Aparte de Higgs quién más puede recibir dicho premio? El físico escocés Peter W. Higgs (Universidad de Edinburgo, Escocia, Gran Bretaña) estará acompañado por el físico belga François Englert (Universidad Libre de Bruselas, Bélgica, y de la Universidad Chapman, en Orange, California, EEUU). Junto a Peter Higgs y François Englert, también merece el premio el físico belga Robert Brout, pero por desgracia falleció en el año 2011. Se trata apuesta segura para el Nobel de Física. Los tres predijeron en el año 1964 el bosón de Brout-Englert-Higgs, popularmente conocido como bosón de Higgs a secas. Los análisis de la búsqueda de este bosón escalar en las colisiones en el LHC del CERN publicadas en marzo de este año, así como los presentados en junio en una conferencia en Estocolmo no dejan lugar a dudas, el bosón escalar observado por primera vez el 4 de julio de 2012 se comporta como predice la teoría llamada modelo estándar dentro de los límites de los errores experimentales y si hay unas leyes físicas ocultas en el comportamiento de esta partícula, se tratará de de fenómenos cuyo efecto es tan pequeño que los físicos lo seguiremos llamando bosón de Higgs o de Brout-Englert-Higgs, un nombre más correcto.

El Nobel de química se anunciará el próximo miércoles 9 de octubre, ¿cuál es tu predicción para este premio, siempre entre los más difíciles de predecir? Mi predicción es un poco arriesgada pero creo que los avances en la nanotecnología del ADN, uno de los campos más activos e importantes en la actualidad, podrían recibir el premio, en concreto los bioquímicos A. Paul Alivisatos (Universidad de California, en Berkeley, EEUU), Chad A. Mirkin (Universidad Northwestern, Evanston, Ilinois, EEUU) y Nadrian C. Seeman (Universidad de Nueva York, EEUU). El trabajo teórico pionero de Nadrian Seeman en 1982 cristalizó en 1996 con el descubrimiento experimental de Paul Alivisatos y Chad Mirkin de cómo acoplar al ADN nanopartículas de oro. La nanotecnología del ADN ha permitido el desarrollo de técnicas de diagnóstico molecular que permiten la identificación de los defectos moleculares subyacentes en una enfermedad de carácter hereditario. El acoplamiento de nanopatículas metálicas a los ácidos nucleicos ha revolucionado nuestra comprensión de la arquitectura tridimensional del ADN y sobre todo del ARN, fundamental para su actividad catalítica, con multitud de aplicaciones incluso más allá de la medicina, como la síntesis de nanoestructuras artificiales y la tecnología de puntos cuánticos para el desarrollo de células solares fotovoltaicas.

El premio Nobel de Economía se anunciará el lunes 14 de octubre, ¿qué nos puedes decir sobre este premio? Igual que el año pasado, la mayoría de las predicciones apuntan a la escuela de Chicago y su teoría de la regulación económica. Mucha gente parece tener muy claro que Sam Peltzman (Facultad de Económicas de la Universidad de Chicago, IL, EEUU) y Richard A. Posner (Facultad de Derecho de la Universidad de Chicago, IL, EEUU) son firmes candidatos al premio Nobel de Economía de 2013. Una mala percepción del riesgo de suprimir ciertas normas que regulan los mercados ha sido la causa más importante de la crisis económica; Peltzman y Posner han estudiado cómo los comportamientos de riesgo son alentados cuando parece que el riesgo se distribuye entre muchas personas lo que ofrece en una sensación de falsa seguridad. Por ello una correcta regulación de los mercados es absolutamente necesaria.

El anuncio del premio Nobel de Literatura todavía no tiene fecha. El viernes 11 de octubre se anunciará el premio Nobel de la Paz, ¿qué nos puedes decir? Las apuestas sobre el premio de Literatura apuntan al japonés Haruki Murakami, pero hay muchos otros que como él lo merecen. A mí me gustaría que lo recibiera el checo Milan Kundera, pero es casi imposible predecir este premio. Lo mismo pasa con el premio Nobel de la Paz. A mí me gustaría que lo recibieran Las Madres de la Plaza de Mayo o Julian Assange. Pero la verdad, no tengo ni idea.

Si no has escuchado aún el audio, sigue este enlace

Futurología: En la presente década se desvelará el misterio de la materia oscura

Dibujo20130729 dark matter questionnaire - Tim MP Tait

La materia oscura ha sido descubierta gracias a sus efectos gravitatorios, sin embargo, nos gustaría saber si corresponde a una nueva partícula y en su caso cuál es su masa, su espín, si es estable o metaestable, cómo se acopla a las interacciones débiles, al campo de Higgs, a los quarks y gluones, a los leptones, incluso si se trata de una reliquia térmica de la gran explosión (big bang). Hay muchos experimentos en curso que buscan rellenar estos detalles durante la presente década (antes de 2020). La charla de Tim M.P. Tait, “Assembling a Theory of Dark Matter,” Snowmass, Jul 29, 2013 [slides], nos propone un cronograma.

Sigue leyendo

La esperanza (de encontrar la supersimetría) es lo último que se pierde

Dibujo20130228 Summarization all BSM plus LHC experiments that are accessible to No-Scale F SU 5 model space

Dimitri V. Nanopoulos, físico teórico experto en supersimetría, lleva diez años prediciendo la masa del gluino (la (super)compañera del gluón). Conforme los experimentos descartan la masa que ha predicho, sube su predicción un poquito y vuelve a publicar una nueva estimación basada en más información que la anterior, con lo que, a priori, parece mucho mejor. Su última estimación es M½ = 765 ± 85 GeV. En su opinión, todos las búsquedas realizadas en el LHC hasta el momento son compatibles con este resultado. En las próximas semanas se publicarán en Moriond nuevas estimaciones experimentales (que casi seguro descartarán su predicción pues ya hay cierta evidencia que apunta a una masa M½ > 1200 GeV). No sé lo que ofrecerán los nuevos datos (tras el análisis de todas las colisiones de 2012), pero lo que es seguro es que Nanopoulos no perderá la esperanza y publicará nuevas estimaciones “optimistas.” Hasta que en 2015 no se publiquen los resultados de las primeras colisiones a 13 TeV c.m. en el LHC no se podrá descartar una masa  M½ > 2000 GeV. Los interesados en los detalles (no muy técnicos) disfrutarán de Tianjun Li, James A. Maxin, Dimitri V. Nanopoulos, Joel W. Walker, “Correlated Event Excesses in LHC SUSY Searches at 7 & 8 TeV: New Physics or Conspiring Noise?,” arXiv:1302.6579, 26 Feb 2013. Más información crítica sobre este tema en Peter Woit, “The State of SUSY,” Not Even Wrong, Feb 27, 2013.

¿Se pueden predecir los terremotos partir del análisis de datos históricos?

El 11 de mayo, un terremoto de magnitud 4,5 —seguido por otro una réplica de 5,1— sacudía Lorca, en Murcia, causando destrozos, al menos nueve muertes y más de cien heridos. Mis condolencias para los familiares de las víctimas y los damnificados. “El caso es que el 11 de mayo de 2011 era el día en que según las notas dejadas por Raffaele Bendandi (1893-1979) tendría lugar un terremoto que destruiría Roma. Este astrólogo es famoso por sus múltiples predicciones de terremotos en Italia.” Más información en Miguel Santander, “De terremotos y profecías,” Tras el horizonte de sucesos, 12 mayo, 2011; también en Milhaud, “¿Se pueden predecir los terremotos?,” Recuerdos de Pandora, May 11, 2011; y en Arturo Quirantes, “Alerta Magufo: La influencia de los planetas en el terremoto de Lorca,” Amazings.es, 13/05/2011.

¿Se pueden predecir los terremotos partir del análisis de datos históricos? En 2002, la Oficina Central de Investigación de Terremotos del Gobierno de Japón predijo con una probabilidad entre el 80-90 % que habría un terremoto de magnitud entre 7,7 y 8,2 en los próximos 30 años en la región de Tohoku. No predijeron la probabilidad de un terremoto de magnitud 9, como el que ha sufrido dicha región en marzo de 2011, porque la consideraron despreciable. ¿Por qué fracasó su predicción? Nos lo cuenta Takeshi Sagiya (Universidad de Nagoya, Japón), “Rebuilding seismology,” Nature 473: 146–148, 12 May 2011.

La predicción de terremotos a largo plazo en Japón se basa en el análisis estadístico del registro histórico de terremotos de los últimos 400 años. Sin embargo, el terremoto de Tohoku demuestra que 400 años es un plazo de tiempo demasiado corto para evaluar la actividad sísmica. Un gran tsunami comparable al ocurrido en marzo inundó la costa de la zona de Sendai en el año 869 DC. ¿Hay que utilizar toda la información histórica disponible, sin ningún límite, a la hora de predecir futuros terremotos? Muchos sismólogos japoneses están empezando a pensar que sí es necesario hacerlo.

En Japón confluyen varias placas tectónicas, la amuria (parte de la euroasiática), la filipina y la de Ojotsk (parte de la norteamericana). El análisis mediante GPS (Sistema de Posicionamiento Global) del movimiento de estas placas tectónicas durante la última década mostró una discrepancia entre las tasas geológicas y geodésicas de deformación de la corteza terrestre (una tiene un valor un 30% menor que la otra). Esta gran discrepancia se detectó en el año 2000 y se confirmó en 2004. Sin embargo, los científicos japoneses no fueron capaces de encontrar una explicación razonable a este hecho, por lo que dicha discrepancia no fue tenida en cuenta en el análisis de futuros terremotos. ahora sabemos que el gran terremoto de Tohoku ha estado relacionado con esta discrepancia.

La sismólogos japoneses saben ahora que tienen que integrar datos sísmicos, geodésicos, geomorfológicos y geológicos con objeto de mejorar las técnicas actuales de predicción de terremotos. Cualquier inconsistencia entre datos de múltiples fuentes debe ser tenida muy en cuenta. La extensa red de GPS en Japón no había detectado ninguna anomalía justo antes del terremoto porque éste se produjo a 200 kilómetros de la costa, donde no se dispone de datos de GPS. Japón deberá priorizar la investigación en el desarrollo de la tecnología GPS para su aplicación al fondo oceánico. Según los sismólogos esta tecnología es apremiante.

La Agencia Meteorológica de Japón cuenta con uno de los sistemas más avanzados en el mundo para proporcionar advertencias en tiempo real de los tsunamis y temblores. El sistema de alerta temprana del terremoto ha estado en vigor desde 2007 y ha proporcionado más de 10 advertencias de terremotos fuertes (por teléfono móvil (celular), televisión, radio y mediante un sistema de altavoces en las comunidades locales). El sistema detectó el terremoto en la costa de Tohoku y unos 8 segundos emitió una advertencia pública en la región cercana al epicentro. Veintisiete trenes bala fueron detenidos sin problemas. Tres minutos más tarde se emitió la advertencia de tsunamis muy grandes hacia Iwate, Miyagi y Fukushima. Las olas llegaron entre 15-20 minutos más tarde a la costa. Sin embargo, el rendimiento global de este sistema no fue satisfactorio. El sistema subestimó la magnitud del terremoto y la altura del tsunami, por lo que no se advirtió a la población de la región de Tokio, donde muchas zonas experimentaron terremotos fuertes y dañinos. El sistema de alerta temprana de temblores fuertes emitió más de 70 avisos para los terremotos secundarios. El sistema funcionó bien para estos eventos más pequeños, pero hubo algunos errores de estimación de la magnitud por la concurrencia simultánea de varios terremotos.

El terremoto de Tohoku ha demostrado a los sismólogos que los terremotos grandes pueden ocurrir en las regiones sísmicamente muy activas con mayor frecuencia de lo que se pensaba. Algunos sismólogos creen que el análisis de las estadísticas históricas no siempre son suficientes. Parece necesario medir los esfuerzos y las tensiones acumuladas cerca de las fallas. Para ello será necesario realizar pozos de sondeo y mediciones de temperatura en las fallas submarinas. La investigación en nuevas técnicas que faciliten la obtención de estos datos parece una necesidad imperiosa si queremos mejorar las predicciones de futuros terremotos y tsunamis.

Nunca te metas en camisa de once varas (o déjale a Rapel su papel)

En este blog hice de Rapel y predije que el precio del petróleo volverá a los dígitos (unos 80$ el barril a finales de septiembre). Era una predicción arriesgada y ahora tenemos el petróleo alrededor de los 100$. Las fuerzas del mercado quieren que baje pero la fuerza de los productores quieren que se mantenga por encima de las dos cifras. Mi predicción se basaba en un modelo de Didier Sornette para burbujas especulativas (Sornette es un especialista en predecir catastrófes, o mejor, en la teoría de las catástrofes que encumbró a René Thom a la cima de los genios). El sistema financiero internacional ha cambiado mucho en los últimos dos meses y dicho modelo quizás no sea aplicable ahora. Los productores de la OPEP han reducido la producción para contener el precio; China (y la India) parece que empiezan a notar la crisis (lo mismo que España tras 1992), aunque China no era el culpable del precio tan alto del crudo, para este año se espera que crezca menos del 10% y su segunda compañía de seguros cae en la bancarrota arrastrada por Fortis; los especuladores que se refugiaron en el mercado de futuros de las materias primas están viendo que el futuro no es tan alagüeño para la economía en general y para éstas en particular.

El Plan Paulson-Bernanke-Bush ha encontrado dificultades entre los congresistas que lo han rechazado por 225 votos en contra y 208 a favor. Parece que voces como las de Carter Dougherty han sido oídas. Revindicó el Modelo Sueco en el New York Times (traducción, traducción en El País). Algunos comparan el Plan de Bush con el que otrora llevó a Mexico a la bancarrota. Aunque el Plan de rescate no siga adelante, lo que está claro es que tanto la FED, como el BCE y otros bancos centrales tienen la obligación de inyectar dinero líquido en el sistema y ya han dado la orden de hacerlo, unos 630 mil millones de dólares. Aclaración [iescolar]: este tipo de inyecciones de capital consisten en préstamos a otro bancos privados a un interés muy reducido un breve tiempo, normalmente 24 horas, para que hagan frente a sus pagos y no haya problemas de liquidez en momentos complicados para la economía; ese dinero después se devuelve pasado el plazo pactado.

Curioso el mundo de la economía global… habrá que dejar de meterse en camisa de once varas (es decir, de unos nueve metros) [ver wiki].

¿Cuándo estallará la burbuja del petróleo? (o la esperanza es lo último que se pierde)

Permítaseme citar algunos párrafos de “La burbuja del crudo terminará por estallar,” por Carmen Ramos para Mercados, Suplemento Dominical de El Mundo, 22 de junio de 2008 : “La imparable subida del precio del barril de petróleo se traslada a todos los sectores, reduce el poder adquisitivo y genera inflación (…) El incremento de demanda de crudo, por el despertar de las economía asiáticas, ha generado parte del alza de su precio, pero en buena medida se debe a la especulación (…) a diario en el Nymex, el mercado de futuros de la Bolsa de Nueva York, el volumen de barriles negociados es seis veces mayor que el consumo mundial (…) la OPEP, Organización de Países Exportadores de Petróleo, resalta que la oferta de crudo supera en 1,5 millones de barriles a la demanda (…) cada día son más las voces que alertan de una posible burbuja, de un exceso que, como todos, terminará por estallar y el precio caerá en picado.” Las primeras señales de una próxima bajada están ya en las noticias : “China bajará el consumo ya que van a disminuir las subvenciones a la gasolina y el gasóleo (…) Arabia Saudí ha anticipado un incremento de la producción de 200.000 barriles diarios en julio, que se suma al aumento de 300.000 que ha efectuado este mes. Una decisión encaminada a frenar la subida de precios y que, tal vez, se deba al temor a que se esté generando esa burbuja.”

Pero, ¿realmente nos encontramos ante una burbuja especulativa? Sólo los modelos matemáticos de los economistas pueden afirmarlo. Cual Nostradamus o Rapel me he atrevido a realizar una predicción en Menéame: “Confirmado: los precios del petróleo bajaran a partir de julio.” Copio aquí “Economistas especialistas en el modelado de burbujas económicas basadas en la especulación de precios han confirmado, por un lado, que la actual escalada de precios del petróleo (desde 2006) es una burbuja y, por otro, han predicho que el máximo está a punto de ser alcanzado (si no lo ha sido ya). Buenas noticias para todos.” Podéis leer los comentarios, la mayoría criticando mi predicción. Sólo el tiempo lo dirá. Por ahora os comento que “El modelo de los autores ha sido confirmado en las tres últimas burbujas (desde 1996). Por supuesto, “he buscado un titular “políticamente incorrecto”.”

En realidad el modelo matemático de burbujas especulativas no ha sido desarrollado por economistas sino por físicos que se dedican a la sociofísica. El artículo “The 2006-2008 Oil Bubble and Beyond,” D. Sornette, R. Woodard, and W.-X. Zhou, ArXiv preprint, 6 June 2008 , analiza los precios del petróleo en dólares y euros diagnosticando un crecimiento más que exponencial, que los autores achacan a una burbuja especulativa. El modelo de los autores ha sido capaz de predecir “a toro pasado” las 3 burbujas más importantes desde 1996, la burbuja de las .com (punto-com o dot-com) que culminó en el 2000, la burbuja inmobiliaria norteamericana que culminó a mediados de 2006, y el boom de las hipotecas “basura” (subprime) de 2007. Julio de 2008. De hecho la figura 2 del artículo no aclara si es en junio o julio de 2008, casi igualmente probables. Todo depende de exactamente qué mes empezó la burbuja. Lo que es difícil de estimar.

¿Cuándo predice el modelo que la burbuja alcanzará su valor pico y empezará a decrecer el precio del petróleo? Depende de cuándo empezó la burbuja, algo que no es fácil de determinar. La figura 2 del paper sugiere de junio a julio de 2008 , pero no aclara exactamente cuándo. Dado que a principios de junio no se ha producido aún y el precio del crudo sigue creciendo, mi “apuesta” es que a principios de julio próximo, el crudo empezará a decrecer de precio. ¿Cómo será el descenso de precios? Si “acierto”, será “de caerse por un precipicio”. Por el bien de la economía de nuestro país, espero acertar el augurio.

La marea baja en Venecia (o cuando Venecia se seca y los turistas se quejan)

dibujo19febrero2008lagovenecia.jpg

Laguna de Venecia (imagen por satélite)

El blog en menéame “Venecia sin agua” (o mejor el original, con foto incluida) me ha recordado que las mareas suben y bajan, que el nivel del agua (“laguna” en el caso de Venecia) también se ve influido por la meteorología, especialmente los vientos y la presencia de ciclones o anticiclones. Aunque la foto parece del año pasado (también podría ser de hace dos años, o incluso de antes), es lo suficientemente atractiva para merecer un comentario. Breve, que así será dos veces bueno.

Las previsiones para, hoy, 19 de febrero de 2008, para la altura del agua en Venecia, indican que la altura del agua será de 71 cm por debajo del nivel de referencia (el nivel medio del agua en Venecia en el año 1897 medido en “Punta della Salute”) y se mantendrá así durante varios días (estas previsiones no suelen fallar mucho, “Flooding and Environmental Challenges for Venice and Its Lagoon: State of Knowledge,” Caroline Fletcher and Tom Spencer, editores, Cambridge University Press, 2005). Eso sí, la marea baja se “nota” sólo a ciertas horas del día (como todos sabemos las mareas suben y bajan a diario). La normativa veneciana “prohíbe” navegar cuando el nivel está por debajo de los 50 cm del nivel de referencia, con lo que los turistas no podrán navegar en góndola a esas horas (sí más tarde o antes).

Desde que se tienen datos fiables (desde 1923 hasta hoy, 19 de febrero de 2008) la marea alta más alta fue de 1’94 metros (nivel teórico estimado pues el nivel del agua superó la escala usada) sobre el nivel de referencia, en noviembre de 1966, y la marea baja más baja fue de 1’21 metros por debajo del nivel de referencia, en febrero de 1934. Normalmente, las mareas bajas más bajas durante el año se producen entre finales de enero y finales de febrero.

Las mareas debidas a la Luna (efectos astronómicos) no permiten explicar estas mareas altas (y bajas) tan altas (y tan bajas), se requieren efectos atmosféricos (que desafortunadamente no son tan fáciles de predecir). En concreto, bajas presiones atmosféricas (ciclón) y fuerte viento del sureste (sirocco) generan mareas altas más altas, y altas presiones (anticiclón) y fuerte viento del noreste (bora) generan mareas bajas más bajas. Estos efectos sobre el mar Adriático se refuerzan (según los modelos por ordenador) en la región donde se encuentra la laguna de Venecia debido a la morfología (forma geométrica) del mar Adríático. Algunas de las mareas altas son debidas a las “seiches”, oscilaciones libres de la superficie del mar que se observan hasta varios días después de una tormenta (lo que suele causar sorpresa, más a los visitantes que a los lugareños).

Hoy por hoy, las previsiones meteorológicas del nivel del mar en Venecia basadas en métodos numéricos son bastante precisas (M. Ferla, M. Cordella, L. Michielli and A. Rusconi, “Long-term variations on sea level and tidal regime in the lagoon of Venice“, Estuarine, Coastal and Shelf Science, Volume 75, Issues 1-2, Pages 214-222, October 2007; Lucia Zampato, Georg Umgiesser and Stefano Zecchetto, “Sea level forecasting in Venice through high resolution meteorological fields“, Estuarine, Coastal and Shelf Science, Volume 75, Issues 1-2, Pages 223-235, October 2007), aunque por supuesto, todavía quedan muchos detalles por conocer y problemas abiertos por resolver (L. D’Alpaos and A. Defina, “Mathematical modeling of tidal hydrodynamics in shallow lagoons: A review of open issues and applications to the Venice lagoon“, Computers & Geosciences, Volume 33, Issue 4, Pages 476-496, May 2007).