El temperamento del oceáno y la estimación del transporte radiactivo tras el accidente nuclear de Fukushima

Antes de nada, te recomiendo leer “El agua contaminada alrededor de Fukushima no supone un peligro para el consumo humano,” lainformacion.com, 03 Apr. 2012. ¿Lo has leído? Léetelo. Lo que más me ha llamado la atención del artículo técnico son estas imágenes de simulaciones por ordenador del transporte de los radioisótopos (Cs-137) en el océano. Las figuras de la izquierda representan el transporte oceánico debido a las emisiones por vía aérea y las de la derecha las debidas a los vertidos de agua contaminada que fue utilizada como refrigerante en los reactores. Las simulaciones utilizan un modelo bidimensional (luego los puntos representan valores promediados en la dirección vertical) y se basan en las ecuaciones de flujo geostrófico a las que se ha añadido cierto ruido estocástico para simular la variabilidad natural. ¿Por qué me han llamado la atención simulaciones tan sencillas? Porque yo hice mis pinitos en estos temas (flujo cuasigeostrófico) en al Mar de Alborán hace una década. Nosotros en lugar de añadir ruido lo quitamos, filtrando los datos sinópticos obtenidos en campaña (para regularizar las condiciones iniciales). Estas figuras me han recordado que quizás teníamos que haber metido ruido (blanco y coloreado) para chequear la robustez de los procedimientos de filtrado de nuestros datos de campo. Aún así, tanto en nuestro caso como en las simulaciones presentadas en este estudio, las incertidumbres en las simulaciones del transporte en el oceáno son muy grandes y hay que tomar estas figuras con cierto escepticismo. Con ello no estoy criticando las conclusiones del estudio, que se basan en medidas de campo en los lugares denotados por círculos azules en las figuras de arriba. Estos círculos están tanto por encima como por medio de la corriente de Kuroshio (ver figura de abajo), cuyas veloces aguas se funden en esta región del oeste de Japón con la corriente del Pacífico Norte. El “temperamento” de estas corrientes complica terriblemente las estimaciones precisas del transporte oceánico de cualquier cosa en esta región. El artículo técnico es Ken O. Buesseler et al., “Fukushima-derived radionuclides in the ocean and biota off Japan,” PNAS, online before print April 2, 2012 [pdf gratis].

La cantidad de radiactividad vertida en el océano por el accidente de Fukushima es muy grande (los autores la estiman en unos ∼2 PBq de Cs-137), pero el océano es inmenso y las corrientes oceánicas en la región son muy fuertes; tal ingente cantidad de radiactividad se ha transportado en un área oceánica de 150.000 km² (una inmensidad).  Por ello, “los científicos han encontrado restos de radiactividad a 300 kilómetros de la central, pero por debajo de los niveles considerados peligrosos para la fauna y para el consumo humanos.” Antes de 2011, los niveles de contaminación por Cs-137 en esta región del océano Pacífico rondaban ∼1–2 Bq/m³ (recuerda que 1 Bq es 1 desintegración por segundo, un valor ridículo por lo pequeño que es). En junio de 2011 los niveles de radiactividad eran bastante más altos, de hasta 3900 Bq/m³ a 30 km de la costa de Fukushima (no se tomaron medidas más cerca) y de hasta 325 Bq/m³ a unos 600 km de ella (el cociente entre los isótopos Cs-134 y Cs-137 es indicio claro de que la fuente era la central nuclear). La corriente de Kuroshio supuso una barrera infranqueable para esta contaminación y al sur de la corriente los niveles más altos observados fueron de 3 Bq/m³. En la actualidad estos niveles de contaminación son muy inferiores.

Los científicos tomaron muestras de agua para anazliar el zooplancton y los peces pequeños que se alimentan de él, y encontraron niveles de radiactividad unos 150 veces inferiores a los límites legales japoneses para el pescado de consumo humano (500 Bq/kg de peso). Este límite legal equivale a niveles de radiactividad en el agua de 90.000 Bq/m³. Puede parecer un valor muy elevado pero hay que recordar que los oceános presentan niveles de radiactividad natural del orden de 12.000 Bq/m³ de K-40 (unas 3 veces mayores que los niveles de Cs-137 encontrados por los investigadores en la zona más cercana a la costa que han estudiado, a unos 30 km de la central nuclear).

A veces olvidamos fácilmente el “temperamento” y la inmensidad del océano.

Publicado en Science: La pluma de petróleo en el golfo de México tiene más de 35 km de longitud y persiste sin biodegradación sustancial

El mayor vertido de crudo en el mar de la historia se ha producido en el golfo de México a causa de una fuga en la plataforma petrolífera de BP Deepwater Horizon. Científicos de la Woods Hole Oceanographic Institution ( WHOI ), en Massachusetts, liderados por el oceanógrafo Richard Camilli, han utilizado el vehículo autónomo submarino Endeavor para estudiar la pluma de crudo que ha generado el vertido. Los resultados indican la presencia de una pluma continua de más de 35 km de longitud a una profundidad entre 1065 y 1300 metros (ver figura de más abajo), que ha persistido durante meses sin biodegradación sustancial. Las muestras recogidas en la pluma de petróleo revelan concentraciones de hidrocarburos monoaromáticos (compuestos muy tóxicos como el benceno) mayor de 50 μg L-1 (microgramos por litro), aproximadamente 0,05 partes por millón. Estos datos indican que el vertido ha tenido un caudal mínimo de 5500 kg día-1 (5’5 toneladas por día), más del doble de la cantidad total de filtraciones naturales de petróleo (hidrocarburos monoaromáticos) en el norte del Golfo de México. Estos resultados se publican en el artículo técnico Richard Camilli et al., “Tracking Hydrocarbon Plume Transport and Biodegradation at Deepwater Horizon,” Science Express, Published Online August 19, 2010, del que se hace eco Richard A. Kerr, “Report Paints New Picture of Gulf Oil,” ScienceNOW, August 19, 2010. La noticia ya apareció en la web de la WHOI como “News Release : WHOI Scientists Map and Confirm Origin of Large, Underwater Hydrocarbon Plume in Gulf,” August 19, 2010 (acompañada del vídeo que abre esta entrada).

Las causas de la elevación del nivel del océano y sus efectos

El calentamiento global causa que el nivel del mar se eleve debido a dos factores: que el hielo en las plataformas continentales se derrite y que el agua del océano se expande al calentarse. La contribución relativa de ambos factores es muy difícil de medir. Anny Cazenave, del Laboratorio para Estudios en Geofísica, Oceanografía y Espacio (LEGOS), en Toulouse, Francia, y sus colaboradores [1] lograron medir ambos procesos de forma separada gracias a los datos gravitatorios de los satélites GRACE y a los registros de temperaturas oceánicas obtenidas por la red de boyas Argo. La expansión térmica del agua del océano se ha reducido recientemente y ha contribuido sólo a una elevación de 0,3 mm. por año del nivel del mar durante los años 2003 a 2008. Durante dicho periodo, el hielo continental derretido ha contribuido a una elevación de unos 2 mm. por año. Estos datos son preocupantes, ya que un review reciente de la misma autora [2] nos indica que en el periodo 1993–2007, la contribución de la expansión térmica fue del 30% y la del deshielo continental del 55% (en el último lustro ha pasado a ser del 80%). Estos datos parecen indicar que el deshielo de las regiones continentales se está acelerando alarmantemente.

El estudio de la variación del nivel del mar en el pasado es complejo. Se cree que en los últimos milenios su tasa de crecimiento era de unos pocos centímetros por siglo. Sin embargo, en los últimos decenios ha crecido hasta una tasa de varias decímetros por siglo [3]. Los modelos parecen indicar que seguirá creciendo. ¿Hay que preocuparse? Se estima que durante el s. XXI el nivel global medio del oceáno crecerá menos de un metro, sin embargo, la variación regional de este nivel puede alcanzar varios decímetros. La figura del mapa que acompaña esta entrada [2] muestra tasa media de cambio del nivel del mar entre octubre de 1992 y mayo de 2007 obtenida a partir de medidas de altimetría mediante satélites. Los datos muestran una gran variabilidad espacial, hay regiones incluso en las que el nivel del océano está decreciendo. Se cree que la contribución dominante en la distribución espacial de estos cambios es la expansión térmica del océano que está controlada por la distribución de la temperatura en función de las grandes corrientes oceánicas y su dinámica [2]. Por si te lo preguntas, se estima que el error en esta figura es (probablemente) menor de 2 mm./año.

Las regiones más afectadas del planeta debido a la subida del nivel del mar serán los grandes deltas. Muchos de ellos están densamente poblados por habitantes del tercer mundo que se dedican fundamentalmente a la agricultura. Sus habitantes sufrirán inundaciones y fuertes pérdidas económicas conforme el mar vaya ganando terreno. James P. M. Syvitski de la Universidad de Colorado y sus colaboradores [4] han estudiado los 33 deltas más importantes del mundo con objeto de determinar los efectos que están sufriendo y sufrirán en el próximo futuro debido al efecto conjunto del cambio climático y de la degradación de los mismos por las actividades humanas. El 85% de estos deltas ya han sufrido inundaciones severas en la última década que han provocado la inmersión temporal de 260.000 km2. El panorama que dibujan para lo que resta de s. XXI es bastante pesimista [5]. Más de 500 millones de personas viven en los deltas de grandes ríos o en sus proximidades. Los sedimentos depositados por los ríos en estas regiones las hacen muy productivas para la agricultura. El cambio climático las convierte en zonas de alto riesgo. Un riesgo que se ha acrecentado debido a las actividades humanas.

Para acabar, hoy estoy un poco pesimista, aquí tenéis la evolución del nivel global del océano entre 1800 y 2100 a partir de observaciones (para los s. XIX y XX) y proyecciones gracias a modelos (s. XXI) [2]. La región sombreada en rosa son proyecciones “optimistas” (del IPCC 2007) y la región sombreada en celeste proyecciones “pesimistas”. La pena es que incluso las proyecciones “optimistas” son bastante pesimistas.

[1] A. Cazenave et al., “Sea level budget over 2003–2008: A reevaluation from GRACE space gravimetry, satellite altimetry and Argo,” Global and Planetary Change 65: 83-88, January 2009.

[2] Anny Cazenave, William Llovel, “Contemporary Sea Level Rise,” Annual Review of Marine Science 2: 145-173, January 2010 [el DOI todavía no funciona].

[3] Glenn A. Milne et al., “Identifying the causes of sea-level change,” Nature Geoscience, Advance online publication, 14 June 2009 [postprint gratis].

[4] James P. M. Syvitski et al., “Sinking deltas due to human activities,” Nature Geoscience 2, 681-686, 20 September 2009.

[5] “World’s River Deltas Sinking Due To Human Activity, Says New Study,” ScienceDaily, Sep. 21, 2009.

La crisis afecta a las boyas oceanográficas que predicen El Niño en el Pacífico

Dibujo20090923_spherical_elephant_like_neutrino_particle

La crisis afecta a todos, sobre todo a las empresas científicas a largo plazo que se realizan sin el amparo de los grandes medios. A quién le preocupa el estado de salud de las boyas oceanográficas que se encuentran desplegadas a lo largo del Ecuador en el oceáno Pacífico. Muchas han dejado de funcionar y de ofrecer los datos necesarios para predecir el fenómeno de El Niño de este año. Cuesta sólo 1 millón de dólares anuales mantener y reparar las boyas. Sin embargo, no se ha hecho este año pasado. La NOAA (US National Oceanic and Atmospheric Administration) ha planificado el flete de un barco para arreglarlas. Sin embargo, ya es tarde y las predicciones sobre la intensidad de El Niño de este año se van a resentir. La mitad de las 14 boyas entre las longitudes 95° oeste y 110° oeste han dejado de transmitir en los últimos 8 meses. Las boyas afectadas estudian la termoclina de 20º C que alrededor de los 140 m. de profundidad define la frontera entre el agua caliente de la superficie del mar y las aguas profundas más frías. Las oscilaciones periódicas de esta termoclina está directamente relacionadas con la magnitud de los fenómenos de El Niño y La Niña. En agosto, la NOAA predijo un El Niño suave para este año (según las lecturas de las boyas aún en funcionamiento). Sin embargo, los modelos teóricos predicen uno mucho más intenso. ¿Quién tendrá la razón? Nadie lo sabe. Nos lo cuenta Naomi Lubick, “Buoy damage blurs El Niño forecasts. Missing data from the eastern Pacific Ocean may hinder predictions of this year’s event,” Nature 461: 455 (24 September 2009).

Boyas oceanográficas, corrientes submarinas y cambio climático

En la película “Buscando a Nemo,” el papá de Nemo utiliza la Corriente del Sur de Australia, acompañado de un grupo de tortugas marinas, para alcanzar Sidney, donde Nemo se encuentra encerrado en una pecera. ¿Cómo se estudian las corrientes submarinas en los océanos? Una boya flotante no se puede colocar una cierta profundidad en el océano y pretender que siempre permanezca a dicha profundidad conforme se mueve en una gran corriente. Se utilizan boyas isobáricas que se mantienen a una presión constante. La profundidad está relacionada con la presión, aproximadamente en el oceáno cada metro de profundidad supone un incremento aproximado de presión de 1 decibar (dbar). En un estudio reciente sobre la Corriente Fía del Labrador (LSW), en el oeste del Atlántico Norte, se han utilizado boyas a 700 dbar (unos 700 m. de profundidad) y 1500 dbar (unos 1500 m.). Las boyas tienen medidores de velocidad, presión, temperatura, etc. Periódicamente ascienden a la superficie del mar y envían la información que han registrado hacia satélites, como el sistema Argos, para luego descender y continuar con su misión.

¿Cuántas boyas se suelen utilizar en un estudio de las corrientes? En reciente estudio de Amy S. Bower, M. Susan Lozier, Stefan F. Gary, Claus W. Böning, “Interior pathways of the North Atlantic meridional overturning circulation,” Nature 459: 243-248, 14 May 2009 , se usaron 76 boyas RAFOS (Range and Fixing of Sound), que fueron colocadas en ristras de 18 durante 4 años sucesivos (2003-2006). La siguiente figura muestra las trayectorias seguidas por 40 de estas boyas en un periodo de 2 años, indicando con colores la temperatura estimada del agua y con un círculo negro su posición final. La pequeña figura insertada indica la trayectoria en línea recta recorrida por cada boya.

Dibujo20090516_Two-year_trajectories_40_acoustically_tracked_RAFOS_floats_released_at_700_1500_m

Los resultados de las medidas se insertan en simuladores por ordenador que simulan el campo de velocidades tridimensional en las corrientes. Resultando en la figura siguiente, que muestra las trayectorias hacia adelante y hacia atrás de las corrientes marinas estudiadas en el océano atlántico. Comentar cómo se interpretan estas figuras (yo preparé simulaciones de figuras parecidas hace años aunque sólo para el Mar de Alborán, entre Andalucía y el Norte de África) nos llevaría lejos. Así que trataré de ir al grano.

Dibujo20090516_Simulated_trajectories_from_FLAME_computed_using_3D_model_velocity_fields_during_15_years

¿Para qué sirven este tipo de estudios de las corrientes en el oceáno? Por ejemplo, para conocer la influencia antropogénica en el clima de la Tierra. El océano es una reserva enorme de energía, calor y dióxido carbónico (absorbe gran parte del dióxido de carbono de origen antropogénico). Su efecto sobre el cambio climático cada día se considera más importante. Recientemente se reunieron en Indonesia líderes políticos y científicos para estudiar en la Conferencia Mundial sobre Océanos. Ver por ejemplo “El papel de océanos en el cambio climático,” AFP, 12 de mayo 2009, o “Inicia Cumbre Mundial de los Océanos en Indonesia,” Emiliano Crespo, Ecosistemas, 11 Mayo 2009 . “Los océanos y el cambio climático.”

Dibujo20090515_climate_science_knowns_unkonwns_caricature_by_marc_robertsEl año 2008 ha sido un año clave en nuestra comprensión del efecto del océano en el cambio climático y del efecto del cambio climático en el océano. Parece claro que la temperatura superficial del oceáno crecerá en el próximo siglo, aunque algunos investigadores creen que no se notará este efecto en la próxima década debido las oscilaciones naturales de su temperatura (como Noel Keenlyside, del Leibniz Institute of Marine Sciences, Alemania, publicado en Nature).

Como ocurre en toda la Ciencia en general, cada vez que sabemos más nos damos cuenta de lo poco que sabemos. Por cada pregunta contestada surgen varias nuevas preguntas por contestar. Lo ilustra muy bien esta caricatura de Marc Roberts publicada en “Nature Reports Climate Change,” 18 December 2008 .

Viñeta 1. “Hola, esta noche trataremos de los avances del Cambio Climático en 2008. Lo qeu sabemos, lo que sabemos que desconocemos y lo que desconocemos que desconocemos.”

Viñeta 2. “Así que, Doctor, centrémonos en lo que desconocemos que desconocemos. ¿Cuáles son y cuántos hay?”

Viñeta 3. “Er… ¡no lo sé!”

Viñeta 4. “¿Y usted se llama experto?”

El cambio climático como ejemplo ideal del socrático: “Sólo sé que no sé nada” (“y me queda mucho por saber,” de Enrique Vilchez).

Para qué sirven las políticas de reducción de emisiones de dióxido de carbono (o alguien me puede explicar qué es el cambio climático)

A la pregunta del título de esta entrada (retórica) sobre las políticas de reducción de las emisiones he de contestar ¿las hay? El último estudio del Global Carbon Project estima que las emisiones de carbono han crecido un 3.5% anual entre los años 2000 y 2007, dato a comparar con el crecimiento estimado por el Intergovernmental Panel on Climate Change (IPCC) de sólo un 2.7% y con las emisiones durante los 1990s, de sólo un 0.9% de crecimiento anual. Actualmente, China ha pasado a ser el mayor emisor del mundo de CO2, contribuyendo con un 21% a las emisiones totales, relegando a EEUU a un “honroso” segundo puesto con sólo el 19% del total. Rusia es el tercero, pero seguido de cerca por India. Datos publicados en “Carbon dioxide emissions rise to record levels,” Nature 455, 581, 1 October 2008 .

Los modelos de cambio climático predicen que las concentraciones atmosféricas de CO2 alcanzarán niveles no “vistos” en los últimos 25 millones de años (Ma.); de hecho, los datos paleoclimatológicos indican que la concentración de CO2 empezó a descender hace 45 Ma. y estuvo descendiendo hasta hace 25 Ma., momento en que se ha mantenido, más o menos constantes, hasta la actualidad (salvo el último siglo). Como nos recuerda Stephen F. Pekar, “Climate change: When did the icehouse cometh?,” Nature 455, 602-603, 2 October 2008 . Los modelos climáticos (que pueden estar equivocados) predicen que la concentración de CO2 se encontrará a finales del s. XXI entre 500 y 900 partes por millión (p.p.m.), niveles similares a los que hubo hace 45 Ma. En esta época la Tierra dejó de ser un mundo “verde” libre de hielo para convertirse en un mundo “helado” que sufre periodos glaciares.

¿Alguien sabe cuál es el impacto “real” de la concentración de CO2 en el clima terrestre o en el hielo de los polos? Pekar nos recuerda que los geólogos normalmente usan los datos de hoy para predecir el pasado, pero el pasado es la clave para predecir el futuro. ¿No es un círculo vicioso? Dado el enorme interés en los efectos del CO2 en el clima tando de los científicos como de la opinión pública, sorprende la gran incertidumbre actual sobre los efectos reales del CO2 en los casquete polares. El último estudio sobre el tema, Robert M. DeConto et al. , “Thresholds for Cenozoic bipolar glaciation,” Nature, 455: 652-656, 2 October 2008, trata de aclarar el tema utilizando modelos por ordenador, pero sus conclusiones son, para un lego como yo, cuando menos, discutibles. Su conclusión es que la Antártida se heló hace unos 33.6 Ma. mientras que el polo norte lo hizo más tarde, cuando los niveles de CO2 hace 25 Ma. alcanzaron los niveles de hace un siglo. Quizás porque se dieron circunstancias favorables de la órbita terrestre. Sin embargo, se necesitan nuevos datos experimentales para contrastar o refutar las tesis de DeConto et al.

Las predicciones hacia el pasado de los modelos de DeConto et al. dependen de las reconstrucciones de los niveles atmosféricos de CO2. Los datos más fiables se tienen en el hemisferio sur, en la Antártida, por ejemplo, los recientemente obtenidos por Jinho Ahn y Edward J. Brook, “Atmospheric CO2 and Climate on Millennial Time Scales During the Last Glacial Period,” Science, 322: 83-85, 3 October 2008 , quienes han reconstruido estos datos en el periodo que hace de 90 a 20 mil años. También se requieren datos fiables del nivel mar en el pasado, como los obtenidos por Bilal U. Haq y Stephen R. Schutter, “A Chronology of Paleozoic Sea-Level Changes,” Science, 322: 64-68, 3 October 2008 , para la era paleozoica desde hace 542 a 251 Ma. Han encontrado 172 eventos en los que el nivel del mar ha cambiado significativamente (evento eustático) con variaciones entre unas decenas de metros y hasta 125 metros (de altura respecto al nivel del mar actual, tanto hacia arriba como hacia abajo).

Pero, ¿cuál es la causa real del deshielo de glaciares en Groenlandia y en el casquete antártico oeste? ¿Realmente es el cambio climático? ¿Tiene algo que ver el régimen de viento? Parece ser que sí, como nos comenta Richard A. Kerr, “Winds, Not Just Global Warming, Eating Away at the Ice Sheets,” Science, 322: 33, 3 october 2008 . Cambios aleatorios en la circulación de los vientos que producen cambios en la circulación del agua en los océanos pueden ser los causantes del deshielo, en lugar del cambio climático. En Groenlandia parece que es así.

Lo dicho antes, el tema está que “arde” pero todavía queda muchísimo por conocer y científicamente, de forma fiable, es imposible predecir en la actualidad que va a pasar y se tienen muchas dudas sobre qué ha pasado. Lo que está claro es que todo está conectado, son muchísimos los factores que hay que tener en cuenta. El cambio climático es un hecho pero sus causas una gran incógnita. ¿Cómo se pueden hacer políticas efectivas para evitarlo si no se pueden evitar estas (ya que no se conocen)? Afortunadamente, “la ciencia avanza que es una barbaridad.”

Anaconda, la “serpiente” que extrae energía de las olas del mar

Una “anaconda” de goma puede extraer energía eléctrica de las olas del mar y ser competitiva como nueva fuente de energía, según comenat Jane Reck, “Rubber ‘snake’ could help wave power get a bite of the energy market,” ScienceX2 news, 2008 , esta innovadora tecnología británica de diseño “ultrasimple” promete producir energía eléctrica limpia a un coste muy bajo.

“Anaconda” es un largo y fino tubo de goma relleno de agua y cerrado por sus dos extremos, anclado en el mar para que flote por debajo de la superficie del mar, con uno de sus extremos en dirección hacia las olas. Cuando una ola incide en su extremo, deforma la “anaconda” produciendo un “bollo” que se propaga por toda su longitud a la misma velocidad que la ola, lo que hace que el “bollo” crezca conforme se propaga. Finalmente, el “bollo” llega el otro extremo donde incide sobre una turbina que acoplada a una dinamo produce electricidad. Como “Anaconda” es de goma, es mucho más barata de fabricar y mantener que otros dispositivos de extracción de energía de las olas.

Por ahora, “Anaconda” sólo ha sido probada en laboratorio (se encuentra en la fase de desarrollo, la D de la I+D+i “inventada” por nuestro ex-presidente Aznar). Los investigadores de una empresa privada y de la Universidad de Southampton ya se han embarcado en un programa para diseñarla a gran escala y desarrollar experimentos en mar abierto. Una “Anaconda” en funcionamiento práctico tendrá unos 200 metros de longitud y unos 7 metros de diámetro, encontrándose sumergida entre 40 y 100 metros de profundidad. Las estimaciones por ordenador indican que producirá, a pleno rendimiento, un megawatio (1MW) de electricidad (el consumo de unos 2000 hogares) con un coste estimado de 3 céntimos de euro por kilowatio/hora (kWh). Este coste es casi el doble que el coste de generar electricidad en centrales hidroeléctricas, pero aún así es muy favorable cuando se compara con otras tecnologías de extracción de energía eléctrica de las olas.

Más información (y animación QuickTime del prototipo): “ANACONDA. WAVE ENERGY BULGING SNAKE“.

Más información sobre Anaconda. Otro videoclip animado (aquí). 

Noticia en el periódico El Mundo.

Otra tecnología similar (Pelamis, la serpiente robotizada que extrae energía de las olas) pero de mayor costo de construcción y dificultad de diseño e implementación práctica.

Solitones en el Estrecho de Gibraltar (o cómo se ven las ondas internas en el Estrecho desde el espacio)

Estas fotos desde los satélites ERS de la ESA (las blanco y negro) y desde la Estación Espacial Internacional, ISS de la NASA (la foto a color tomada por un astronauta a bordo) nos muestran los efectos en la superficie de la propagación de trenes de ondas internas. Las ondas internas son ondas en el interior del océano (o de un mar) y se dan cuando el volumen de agua está estratificado, es decir, tiene capas de diferente densidad. Las ondas internas se producen en la interfase entre ambos estratos de agua. La imagen por satélite (mucho más “poderosa” que las técnicas basadas en radar en superficie) ha permitido una comprensión muy detallada de este fenómeno. Un revisión reciente aparece en Alpers W., Brandt P., and Rubino A., “Internal Waves Generated in the Straits of Gibraltar and Messina: Observations from Space,” in V. Barale and M. Gade (Editors), “Remote Sensing of the European Seas”, Springer, 319-330, 2008.

En el Mar de Alborán, entre la costa Andaluza y la Norteafricana, estas ondas internas son debidas a la interacción entre el flujo de agua entrante/saliente y la compleja topografía del fondo marino. De hecho, el flujo medio entrante está compuesto de dos capas con flujos en direcciones opuestas, la capa superior de agua Atlántica que fluye hacia el Mediterráneo, y la inferior de agua del Mediterráneo que fluye en dirección hacia el Océano Atlántico. La profundidad media del a interfase entre estas dos capas varía de unos 80 m en el lado Mediterráneo a unos 800 metros en el lado Atlántico. El agua del Atlántico y el agua del Mediterráneo tienen diferente salinidad, la del Mediterráneo, que fluye por abajo, tiene 38 PSU, y la del Atlántico, que fluye por arriba, tiene sólo 36 PSU. El cambio relativo de densidad en esta interfase, de tipo haloclino, es decir, determinado fundamentalmente por el cambio en salinidad, es de 0.002. Parece poco, pero es suficiente para que gracias a la topografía del fondo (vemos un corte transversal abajo, más o menos, en el centro del Estrecho de Gibraltar) se puedan producir las ondas internas que, en superficie, generan lo que vemos en la foto de arriba. Estas ondas se pueden interpretar como trenes de solitones (ver Juan E. Nápoles Valdes, Arturo González Thomas, “Solitones, una no-linealidad no tan solitaria“).

Tanto en en Centro Oceanográfico de Málaga, sito en Fuengirola, como en la propia Universidad de de Málaga, departamentos de Análisis Matemático (grupo dirigido por Carlos Parés) y Física Aplicada II (grupo dirigido por Jesús García Lafuente) se estudian este tipo de fenómenos en nuestro mar de Alborán.