Simulación de la NOAA para la propagación del tsunami de Honshu en el Océano Pacífico

Japón es un archipiélago cuyas cuatro islas más grandes son Hokkaidō, Honshu, Kyushu, y Shikoku. La segunda de ellas, Honshu ha sido la más afectada por el tsunami generado por el terromoto de grado 8’9 en la escala de Richter cuyo epicentro se ha situado en las coordenadas 38.322°N, 142.369°E, a las 05:46 UTC. Aproximadamente a unos 130 km al este de la ciudad de Sendai (la más dañada). Unos 25 minutos más tarde, el tsunami generado por el terremoto fue detectado por las boyas oceánicas DART®, en concreto por la boya 21418. La simulación que ha permitido obtener el vídeo que abre esta entrada ha sido desarrollada por la NOAA (National Oceanic and Atmospheric Administration) a partir de las medidas de cuatro boyas oceánicas (mostradas como puntos amarillos cercanos a Japón). Más información en inglés en «Tsunami Event – March 11, 2011 Honshu,» NOAA Main Event Page. El vídeo se puede descargar en formato .mov en mejor resolución aquí.

Supongo que estarás harto de leer información sobre el tsunami de Japón por doquier. Si aún te quedan fuerzas para leer algo más, en este blog te recomiendo «¿Interesado en tsunamis? Algunos enlaces de interés,» 31 enero 2008; y «“El tsunami de 2004 en Sumatra no fue de tipo solitón” gana el premio al mejor artículo en física de fluidos de 2008,» 7 abril 2009. Y por cierto, más información sobre el desastre en la wikipedia: «Terremoto y tsunami de Japón de 2011

¿Por qué es difícil predecir el próximo gran terremoto? Los sismógrafos modernos son muy sensibles y son capaces de calcular el lugar exacto donde se ha producido un terremoto, así como su magnitud. Sin embargo, los científicos aún son incapaces de predecir cuándo y dónde se producirá el próximo gran terremoto. Se ha avanzado mucho desde que Alfred Wegener propuso en 1915 la teoría de la tectónica de placas (que no fue aceptada hasta la década de 1960), la teoría que explica por qué se producen los terremotos. Sin embargo, ni la tecnología actual ni las teorías sismológicas más avanzadas pueden predecir el próximo gran terremoto. EE.UU., China y Japón tienen a cientos de científicos estudiando el problema, que aún se nos escapa. El método de pronóstico más estudiado se centra en los temblores de menor importancia que a menudo anuncian un terremoto de gran tamaño. Por desgracia, este método es propenso a las falsas alarmas, porque la gran mayoría de los temblores de menor importancia no son seguidos por otros mayores. Además, muchos grandes terremotos no fueron precedidos por temblores más pequeños. China predijo con éxito en 1975 un gran terremoto (7’3 grados) y logró evacuar a las personas en sus proximidades, pero en los últimos 20 años, ha emitido más de 30 falsas alarmas y no fueron capaces de predecir el terremoto de 2008 que devastó el este de Sichuán. Los científicos del USGS de EE.UU. también predijeron en 1985 un próximo gran terremoto en Parkfield, California, provocado por la famosa falla de San Andrés (desde 1850 esta zona había sufrido un terremoto de magnitud 6 o superior cada 22 años en promedio). Se estimó con una probabilidad del 95 por ciento que un terremoto de magnitud 6 o mayor sucedería en 1993. Pero el siguiente gran terremoto en Parkfield ocurrió en 2004, 11 años después del período de predicción inicial. Hay muchos métodos de predicción de terremotos propuestos, pero la verdad es que todavía la sismología está muy lejos de poder predecir a corto plazo el próximo gran terremoto. Nos lo ha contado John Horgan, «Japan earthquake demonstrates the limits—and power—of science,» Scientific American, Mar 11, 2011.

Juegos de guerra virtuales para analistas militares y seguridad nacional

Han cambiado mucho los juegos de guerra desde que los militares norteamericanos empezaron a usarlos en los 1950. Von Neumann, dios y padre, les convenció. La película «Juegos de Guerra» nos los desveló. Incrédulos nosotros al ver sus ordenadores llenos de lucecitas y pantallas monocromas. Hoy, los analistas militares utilizan entornos virtuales con modelos de agentes estocásticos basados en comportamientos culturales para explorar todas las posibles consecuencias de sus acciones en conflictos militares reales. Simuladores de Afganistán y de su geografía física y sociopolítica, incluyendo individuos de todas sus etnias, incluso a terroristas suicidas. Simuladores que modelan todas las acciones posibles, no sólo las acciones militares, también las redadas policiales, propaganda política, construcción de escuelas, o quema de cultivos. Enemigos virtuales en el sentido más amplio. Second Life para militares. La lucha contra el terrorrismo organizado y sin organizar. Dinero a mansalva para mucha gente. Nos lo cuentan V. S. Subrahmanian, John Dickerson, «What Can Virtual Worlds and Games Do for National Security?,» Science 326: 1201-1202, 27 November 2009. Sí, en la mismísima revista Science. Tan nerviosos se han puesto que anuncian en papel Información Suplementaria que en realidad no existe. «There is no supporting online material for this Education Forum. The mention in print was an error.» No quiero pensar mal, pero cuando se trata de cosas de militares y además son militares norteamericanos, …

SOMA (stochastic opponent modeling agents). Mundos virtuales en los que el general de turno ensaya sus estrategias bélicas. Teoría de juegos. Juegos que modelan la distribución probabilística de «creencias» («belief state«) de cada agente virtual. Superordenadores dedicados a simular árboles de decisión enormes para simular a los diferentes agentes virtuales. Simuladores que retan al analista militar a situaciones extremas, en las que se ve obligado a utilizar sistemas de apoyo a la toma de decisiones, que logran reducir el número de posibilidades a considerar hasta en un 98%. Todo un mundo de informática y tecnología que mueve muchísimo dinero, mucho más del que podemos imaginar, entre lo secreto y lo posible, entre lo irracional y lo razonable.

Los interesados en más detalles pueden ojear en Google Books libros como Mark L. Herman, Mark D. Frost, «Wargaming for Leaders: Strategic Decision Making from the Battlefield to the Boardroom,» McGraw-Hill, New York, 2008, y Alexander W. Kott, William M. McEneaney, «Adversarial reasoning: computational approaches to reading the opponent’s mind,» Chapman and Hall, London, 2007. Juegos de guerra basados en teoría de juegos con información incompleta como la descrita en Robert J. Aumann, Michael Maschler, Richard E. Stearns, «Repeated Games with Incomplete Information,» MIT Press, Cambridge, MA, 1995.

Como combatir contra el principio de Peter: las personas ascienden a puestos de mayor nivel hasta alcanzar su nivel máximo de incompetencia

Dibujo20090703_peter_principle_illustrated_occupation_level_versus_competence

Un nuevo estudio sociofísico computacional ha estudiado como combatir el principio del psicólogo canadiense Laurence J. Peter: en una empresa las personas que realizan bien su trabajo son promocionadas a puestos de mayor responsabilidad hasta que alcanzan su nivel máximo de incompetencia. El Principio de Peter es negativo para la eficiencia de la empresa, como se demuestra en este estudio. ¿Cómo evitarlo y mejorar la eficiencia de la empresa? Los autores proponen dos alternativas: elegir aleatoriamente a quien promocionar, o elegir a cara o cruz a quien promocionar entre los mejores o entre los peores. Este último tipo de elección óptima me recuerda a como se ha venido asciendiendo/promocionando al PDI en la Universidad española hasta la llegada de la LOU y su Reforma. A partir de estas últimas, el Principio de Peter se ha venido aplicando en el sistema universitario español, aunque con algunas excepciones. El artículo técnico es Alessandro Pluchino, Andrea Rapisarda, Cesare Garofalo, «The Peter Principle Revisited: A Computational Study,» ArXiv, Submitted on 2 Jul 2009.

Dibujo20090703_results_simulations_agent_model

Pluchino et al. han utilizado simulaciones por ordenador basadas en sistemas de agentes virtuales y teoría de juegos. La tabla de arriba resume los resultados obtenidos. Básicamente han tomado dos modelos, uno en el que el Principio de Peter es válido (los mejores acaban siendo peores, notad la errata ortográfica «Hypothesys») y otro en el que lo es el Principio del Sentido Común (los mejores acaban siendo mejores), y cuatro estrategias de selección de personal, elegir a los mejores, elegir a los peores, elegir aleatoriamente, o elegir a cara o cruz entre los mejores o los peores. Partiendo de un nivel de eficiencia del 70%, si el Principio de Peter se cumple, la promoción sólo de los mejores reduce la eficiencia a un 60% y, sorprendentemente, la promoción de solo los peores la incrementa hasta un 82%. Las dos elecciones aleatorias mejoran ligeramente la eficiencia hasta el 71% y 71.5%. Aplicando el Principio del Sentido Común, elegir a los mejores incrementa la eficiencia al 79%, elegir a los peores la reduce al 65%, y elegir aleatoriamente la incrementa ligeramente hasta el 72% y 71.5%. En resumen, si creemos en el Principio de Peter, lo mejor es promocionar a los peores en cada nivel de ocupación de la empresa. Si creemos en el Sentido Común, lo mejor es promocionar a los mejores. Y si no lo tenemos claro, lo mejor son las estrategias aleatorios, que cambiarán poco la eficiencia de la empresa pero siempre a favor.

Los estudios sociofísicos computacionales me recuerdan a «La Fundación» de Asimov. ¿Por qué será? Como ya sabéis los lectores de este blog, yo no creo que estos estudios tengan la más mínima utilidad y suelo calificarlos de Curioso Pero Inútil (aunque sé que muchos de vosotros no compartís mi opinión y disfrutáis con ellos).

PS (17 julio 2009): El artículo de Vladan Pankovic, «Peter and Anti-Peter Principle as the Discrete Logistic Equation,» ArXiv, Submitted on 15 Jul 2009, será de interés para algunos de los lectores de este blog. Propone que el efecto se explica si la comptencia sigue una ecuación logística (o de Verhulst). En dicho caso, también se observa el principio opuesto, que el autor llama anti-Peter (en una organización los miembros más incompetentes ascienden en categoría hasta alcanzar su mayor grado de competencia). En mi opinión, el modelo logístico no tiene ni pies ni cabeza, pero como la discretización de esta ecuación es un sistema caótico, como añadido permite comprender el caos de las organizaciones y empresas.

PS (03 agosto 2009): Más sobre el efecto Peter (el principio de Peter tiene dos subprincipios) utilizando la ecuación logística en V. Pankovic, M. Krmar, R. Glavatovic, «(ANTI)PETER Principle – Discrete (INVERSE) Logistic Equation with Imprecisely Estimated and Stimulated Carrying Capacity,» ArXiv, Submitted on 30 Jul 2009.