Metropolis y los métodos de Montecarlo (o la manía de usar Maniac para algo útil)

Las programadoras del ENIAC primero utilizaban paneles de cables.

Nick (Nicholas Constantine) Metropolis (nacido el 11 de junio de 1915) trabajó con Edward Teller y con J. Robert Oppenheimer en el proyecto Manhattan en Los Alamos durante la Segunda Gran Guerra. Tras ella, en 1948 lideró el grupo de Los Alamos que desarrolló y construyó el Maniac, uno de los primeros ordenadores electrónicos digitales. Metropolis desarrolló, junto a Teller, John von Neumann, Stanislaw Ulam, y Robert Richtmyer, los llamados métodos de Montecarlo (in inglés Monte Carlo, como les llamó el propio Metropolis). Es sorprendente, pero mucha gente asocia a Metropolis con las técnicas de muestreo basadas en la importancia, el llamado algoritmo de Metropolis, muy utilizadas en simulación de Montecarlo, olvidando su importante papel en el desarrollo de uno de los algoritmos más importantes en toda la Historia de la Informática.

El origen de métodos tan importantes como el método de Montecarlo siempre se puede trazar en el pasado muy lejos y siempre hasta llegar a los más grandes genios. Por ejemplo, Enrico Fermi, quien siempre estaba calculando algo, usó técnicas de muestreo estadístico en problemas de difusión de neutrones al menos en 1934, tras el descubrimiento en 1933 por Frederic Joliot e Irene Curie (la hija, también Nobel) de la radioactividad inducida en elementos ligeros mediante el bombardeo con partículas alfa (núcleos de Helio). Recuerda que Chadwick descubrió el neutrón un año antes. La idea de Fermi fue utilizar neutrones en lugar de partículas alfa. Utilizó métodos de Montecarlo para realizar sus cálculos. Nunca lo publicó. Se conoce la historia porque se la contó a Emilio Segré.

Las programadoras del ENIAC más tarde utilizaban paneles control (idea de Nick).

En 1948, Nick visitó el ENIAC donde, gracias a una sugerencia de von Neumann, implementó por primera vez cálculos de Montecarlo computerizados. Contratado por la Universidad de Chicago, desarrolló el computador electrónico de Los Alamos llamado MANIAC (Mathematical and Numerical Integrator and Computer) que utilizaba la arquitectura de programa almacenado de von Neumann. Lo más maravilloso de tener uno de los primeros ordenadores a principios de los 1950s es que prácticamente cualquier que se hacía con él era pionera y muy importante. El computador abría un amplio abanico de posibilidades de investigación científica hasta ese momento inalcanzables. En el MANIAC se realizaron las primeras simulaciones de osciladores no lineales acoplados (problema de Fermi-Pasta-Ulam, programado por la señorita Tsingou), idea de Fermi en 1953 acabó como informe técnico sin publicar por su fallecimiento. Pero también se desarrollaron trabajos tan importantes como el análisis del código genético (Gamow, Metropolis; 1954), el muestreo basado en importancia (Metropolis, Teller; 1953), física computacional de fluidos en 2D (Metropolis, von Neumann; 1954), y muchos otros más. Casi cada artículo abría un nuevo campo de conocimiento.

MANIAC II sustituyó a MANIAC I en Los Alamos en 1956, que incluía un aritmética en punto flotante y era mucho más poderoso. MANIAC III, con circuitos de estado sólido, se desarrolló en la Universidad de Chicago. Los MANIAC funcionaron hasta 1977.

WiFi-For-Fun (o cómo funcionan la WiFi y WiMax en Mijas, Málaga)

Traducción libre del artículo de Robdert Morrow, “Wi-Fi-Fo-Fum,” Science, Vol. 320. no. 5879, pp. 1018-1019,  23 May 2008.

La gran revolución de la comunicación sin hilos en la última década ha sido la implementación de la Wi-Fi en los llamados “puntos calientes” (hot spots) tanto en nuestras casas, como en aeropuertos, hoteles y restaurantes. Con una cobertura entre 10 y 50 m, dependiendo de los obstáculos y de la calidad de la señal requerida, un módem Wi-Fi puede servir para todos los usarios de un pequeño bloque (ver la figura de arriba). Áreas mayores requieren el uso de varias estaciones. La última versión de los equipos Wi-Fi, basada en una versión de prueba del estándar IEEE 802.11n promete tasas de hasta 600 Mb/s (megabits por segundo), lo que es suficiente para la transmisión simultánea de varias señales de T.V. de alta definición. El problema de extender el rango útil de la Wi-Fi se encuentra con los problemas del coste y de la interferencia con otras fuentes de radio frecuencias. Estas dificultades se han resuelto con el nuevo estándar, WiMAX, que opera en la banda de radio estándar (en la que se encuentran los canales de radio comerciales) pero con una potencia de transmisión mayor.

La especificación original de la Wi-Fi es de 1990 en el proyecto 802.11 de la IEEE (Institute of Electrical and Electronics Engineers). Desde entonces, la especificación de la Wi-Fi ha mejorado mucho conforme se han obtenido tanto avances teóricos como prácticos. El primer estándar 802.11, publicado en 1997, soportaba transmisión de datos a 1 y 2 Mb/s. La aceptación internacional del estándar se facilitó con su uso a nivel mundial en la banda de 2.4-gigahercios (GHz), de uso gratuito prácticamente en todo el mundo. Originalmente, los emisores eran muy caros y los dispositivos de diferentes fabricantes se comunicaban bastante mal entre sí. Estos inconvenientes no impidieron que el protocolo 802.11 se usará en muchas corporaciones para conectar computadores sin necesidad de cables.

Un año clave para la evolución del 802.11 fue 1999. Primero, apareció 802.11b, que permitía transmisión a 5.5 y 11 Mb/s. Segundo, varios fabricantes se unieron en la asociación Wi-Fi Alliance con objeto de certificar y testear la compatibilidad e interoperabilidad de sus productos. Abanderar un logo Wi-Fi garantiza desde entonces que el producto puede comunicarse con otros productos también certificados, independientemente del fabricante. Finalmente, el tercer gran avance fue el protocolo 802.11a, que especificaba un proceso completamente nuevo para la comunicación mediante radio digital llamado multiplexado por división de frecuencia ortogonal (OFDM).

En el protocolo 802.11a, la modulación multicanal usa 48 subcanales de datos y 4 subcanales piloto, espaciados los más próximos posibles en frecuencia dentro de la misma banda sin causar interferencia mutua. Los subcanales piloto actúan como referencias para los cambios en las propiedades de la transmisión en diferentes condiciones ambientales. Cada subcanal propaga su propio flujo de datos, lo que permite tasas de transmisión de entre 6 y 54 Mb/s en la banda de licencia libre de 5 GHz. Los datos se transmiten por pulsos en ventanas de 4 µs llamadas símbolos; combinando información de amplitud y fase, varios bits se pueden transmitir en el mismo símbolo.

El estándar 802.11a se adoptó lentamente debido a que los transmisores (radios) de 5 GHx eran caras de fabricar, la banda de 5 GHz no estaba disponible de forma gratuita en todo el mundo, y los procesadores digitales de señal (DSP) para procesar la transmisión OFDM sólo se han abaratado recientemente. En junio de 2003, la aparición del estándar 802.11g resolvió todos estos inconvenientes. Además, cambios en la legislación de varios países permitió el uso de OFDM en la banda de 2.4 GHz, que operando a menor frecuencia permite un abaratamiento en la fabricación de los dispositivos (ya que los componentes electrónicos integrados pueden utilizar una tecnología de integración más sencilla al ser de mayor tamaño). Además, los procesadores DSP se volvieron más rápidos y baratos.

Si quieres dominar el mercado, tienes que seguir avanzando siempre. Los fabricantes de dispositivos 802.11 no son una excepción. La última mejora, 802.11n, será estándar IEEE a finales de 2008. El 802.11n también utiliza OFDM pero permite hasta 4 antenas de transmisión, cada una emitiendo de forma independiente. Con un DSP suficientemente poderoso, esta antenas también pueden utilizar “beam forming”, es decir, canalizar todas las señales en la misma dirección hacia el receptor.

Aunque la Wi-Fi es muy versátil no permite dar servicio a grandes regiones en las que se encuentren usuarios fijos, móviles y en movimiento con un coste bajo y una potencia ultrabaja. Varias ciudades que estudiaron la posibilidad de desplegar una red Wi-Fi de cobertura completa desecharon la idea ya que requería instalar miles de estaciones por todo el territorio. Con objeto de proveer el acceso a datos de alta velocidad y amplia cobertura, al menos para usuarios de posición fija, se desarrolló el estándar WiMAX fijo (IEEE 802.16- 2004). Proveer servicioes de datos de alta velocidad para usuarios móviles es el gran reto en la ingeniería de comunicaciones no guiadas terrestres. La soluciones actuales van desde las propuestas basadas en telefonía móvil 3G (de tercera generación) al estándar IEEE llamado 802.16e-2005 para la WiMAX móvil comercial. WiMAX tiene mucho en común con 802.11n, el uso de la OFDM (pero ahora hasta 2048 subportadores), el uso de múltiples antenas con flujos de datos independientes, y el uso de la técnica de beam forming.

Quizás la mayor ventaja de WiMAX sobre la Wi-Fi es que opera en varias bandas de frecuencia bajo licencia, lo que elimina la interferencia y cacofonía propia de las bandas no sujetas a licencia. Además, un servicio bajo licencia está sujeto a una legislación que permite que los transmisores WiMAX pueden alcanzar una mayor potencia, puedan ser fácilmente expandidos o ampliados, permitiendo una cobertura de más de 1 km, o al menos unas 20 veces más que la alcanzada por una estación base de Wi-Fi. WiMAX permite cubrir toda una ciudad con sólo una docena de estaciones base.

El gran inconveniente de la tecnología WiMAX es que en un contexto donde los usuarios son móviles, ciertas estaciones pueden llegar a recibir un enorme número de solicitudes de usuarios, lo que requiere métodos de asignación de recursos extremadamente avanzados. WiMAX lo permite asignando los diferentes grupos de subportadoras OFDM a diferentes usuarios. De esta manera, una estación base de WiMAX puede atender los flujos de datos de múltiples usuarios simultáneamente y en el caso de que su rendimiento baje, puede redirigir parte del tráfico a otras estaciones cercanas.

Se espera que las estaciones Wi-Fi dominen la cobertura en espacios interiores con una gran densidad de usuarios. Siendo WiMAX la mejor opción para cubrir áreas grandes poco densas. De esta forma, la mejor manera de garantizar cobertura permanente (por ejemplo en vehículos) es tener acceso a ambos sistemas. Afortunadamente, ya se pueden adquirir en el mercado dispositivos duales WiMAX y Wi-Fi a precio razonable.

Mijas, la ciudad de los burros taxis, una de las ciudades más “ricas” de España (con hipódromo, gran número de urbanizaciones de extranjeros que pagan religiosamente sus impuestos, con playa, y muchas más cosas, por ejemplo, el autor nació allí, … lo dicho, Mijas será de las primeras ciudades españolas con cobertura completa WiMAX. Ha sacado un concurso público por 300 mil euros en el Programa “Mijas Digital”

Nanotransistores con canal de nanotubos para los ordenadores del futuro

La mayoría de los ordenadores actuales utilizan microprocesadores con tecnología basada en transistores de efecto de campo FET de tipo MOS (metal-óxido-semiconductor). La tecnología microelectrónica más utilizada en la actualidad es la CMOS. El parámetro característico de un transistor MOS es la longitud del canal. Hasta hace poco se pensaba que era imposible bajar de una 1 micra para la longitud del canal, pero actualmente es fácil encontrar procesadores (los últimos de Intel) con 0,13 y hasta 0,08 micras (unos 80 nanómetros). La cuestión es, ¿se puede fabricar un transistor con una longitud de canal de pocos nanómetros? La física del estado sólido estándar no lo permite (requiere que por el canal pase un flujo de miles de electrones). Sin embargo, la nanotecnología ofrece varias posibilidades, siendo la más prometedora los transistores de nanotubos. Xinran Wang et al. “Room-Temperature All-Semiconducting Sub-10-nm Graphene Nanoribbon Field-Effect Transistors,” Phys. Rev. Lett. 100, 206803 ( 2008 ), presentan los transistores de efecto de campo basados en canal de nanotubos de menos de 10 nanómetros (sí, 0,01 micras), que tienen bastantes ventajas respecto a otros nanotransistores basados en nanotubos permitiendo todo tipo de dispositivos semiconductores. La tecnología GNFET dará bastante que hablar en el futuro.

Los transistores de efecto de campo FET basados en tecnología del grafeno son una de las tecnologías más prometedoras a la hora de sustituir a los transistores FET de los procesadores actuales. Los autores del artículo, por primera vez, han logrado fabricar con esta tecnología transistores con longitud de canal menor de 10 nm. La figura de abajo muestra la gran linealidad de las curvas de caracterización de estos nuevos transistores. La fabricación masiva de este tipo de transistores tardará unos años en llegar pero por ahora se encuentran entre las tecnologías más prometedoras.

Países “hermanos” que se votan por “costumbre” en Eurovisión (o más de lo mismo, hasta la jartá)

¿Por qué simular? ¿Para qué simular? ¿Cuándo simular? ¿Se puede simular el voto en Eurovisión? ¿Sirve para algo? El artículo de Derek Gatherer, “Comparison of Eurovision Song Contest Simulation with Actual Results Reveals Shifting Patterns of Collusive Voting Alliances,” Journal of Artificial Societies and Social Simulation, vol. 9, no. 2, 2006, trata de ofrecernos una respuesta a estas preguntas. El artículo, en inglés, está gratuito en Internet (por si te interesa el análisis estadístico realizado). Veamos la primera figura de resultados.

La figura muestra diagramas de Venn mostrando los “amigos” que se votan “por costumbre” a un nivel estadístico de confianza del 95% para una ventana de 6 años entre 1975 y 1980, seguidos de cuatro ventanas de 5 años consecutivos hasta el año 2000. GB: Reino Unido, FR: Francia, IL: Israel, DE: Alemania Oriental, SE: Suecia, GR: Grecia, CY: Chipre, DK: Dinamarca, NL: Holanda, IE: Irlanda, ML: Malta, HR: Croacia, SL: Eslovenia, MK: Macedonia, IS: Islandia, NO: Noruega, EE: Estonia.

El Imperio Vikingo está coloreado en azul claro empieza con la “amistad” DK-SE en 1986-1990, desaparece en 1991-1995 y se reagrupa rápidamente en una “amistad” a 5 bandas (coalición) en 1996-2000. El bloque de los balcanes (naranja) se origina 1991-1995 como un grupo ad hoc agrupando ML-HR, pero en 1996-2000, HR logra adicionar a las extintas repúblicas yugoslavas SL y MK, centrando el bloque báltico en Yugoslavia. La “amistad” GR-CY (rosa) se ha mantenido desde 1986-1990 en adelante.

La figura muestra diagramas de Venn entre los países “amigos” a un nivel de confianza 95%, para una ventana de 5 años entre 2001 y 2005. NL: Holanda, BE: Bélgica, ES: España, AD: Andorra, TR: Turquía, BH: Bosnia-Herzegovina, HR: Croacia, SL: Eslovenia, MK: Macedonia, AL: Albania, CS: Serbia y Montenegro, GR: Grecia, CY: Chipre, RO: Rumanía, PL: Polonia, UA: Ucrania, RU: Federación Rusa, LI: Lituania, LA: Letonia, EE: Estonia, FI: Finlandia, SE: Suecia, DK: Dinamarca, NO: Noruega, IS: Islandia. El núcleo de la coalición de los balcanes (en naranja) es la alianza triple las repúblicas ex-yugoslavas CS, HR y MK (rosa)

El sistema de votación por televoto ha conducido a la aparición de un gran número de coaliciones desde 2001 y al crecimiento de las existentes. El imperio vikingo se ha expandido hacia el este y hacia el sur hasta incluir a Finlandia, Letonia y Lituania. En el este, el antiguo “Pacto de Varsovia” ha conducido a la alianza entre Rusia, Polonia y Ucrania. En el oeste, se han “hermanado” España y Andorra. En el norte-centro de Europa lo han hecho Holanda y Bélgica. Lo más sorprendente es el increíble crecimiento del bloque balcánico en tan sólo 2 o 3 años. Por un lado, se le han incorporado los eternos “hermanos” Grecia y Chipre. En el corazón del bloque de los balcanes siguen estando Serbia, Croacia y Macedonia. Pero los antiguos yugoslavos del núcleo del bloque balcánico también han logrado que se les arrimen Rumanía y Albania.

¿Cómo evolucionarán estas coaliciones? Sólo el tiempo lo dirá. ¿Puede hacer algo la EBU (unión europea de cadenas de televisión) para reducir el efecto de estas coaliciones? Un retorno a los jurados técnicos es muy difícil dada la gran repercusión económica del televoto. Una posibilidad curiosa sería no sólo prohibir el voto al propio país sino también a todos los países del entorno más afin, pero dado el chovinismo de muchos países europeos sería imposible que implantaran un sistema de este tipo. De todas formas, el fuerte poder del voto de los emigrantes turcos, griegos y de la extintas repúblicas yugoslavas, en gran parte distribuidos por toda europa, sería muy difícil de evitar incluso si se penalizan de alguna forma las coaliciones. El problema es de difícil solución.

RTVE – Geopolítica eurovisiva.

El festival de Eurovisión, las redes sociales y la investigación en teoría para la toma de decisiones

Sofronis Clerides, Thanasis Stengos, “Love thy Neighbor, Love thy Kin: Strategy and Bias in the Eurovision Song Contest,” IDEAS, 2006, han analizado el voto en Eurovisión, 1981-2005, encontrando que hay una fuerte evidencia de que los países se agrupan en clusters que sistemáticamente intercambian votos independientemente de la calidad de las canciones y/o actuaciones. Estudian factores culturales, geográficos, económicos y políticos, así como la posición en la parrilla de emisión, el idioma de la letra, o el género del participante. Sorprendentemente encuentran que no hay evidencia de estrategias o alianzas de voto previos a la votación.

El artículo es muy interesante y los autores se atreven a afirmar “but also because musically the contest is mediocre at best, many people would argue that the most exciting part of the ESC is not the singing but the voting,” (el festival es musicalmente mediocre por lo que la parte más interesante es la votación), lo que está de acuerdo con los índices de audiencia. Lo más interesante del festival para los investigadores en redes sociales es que “the festival itself constitutes an example of a truly international forum where a country can express an opinion about another country, free of political or economic considerations” (el festival es un foro en el que se observa la opinión de un país sobre otros países vecinos). El análisis estadístico de los autores supone que todos los países participantes tienen la misma probabilidad de producir buenas y malas canciones, es decir, que en una votación “justa” los resultados serían completamente aleatorios. Algo, obviamente, que no es verdad. Aunque la globalización está tendiendo a ello.

En el caso ideal, como hay 58 puntos en juego (12+10+8+7+…+1) y N países, el número medio esperado de puntos por país (o participante) es de 58/(N-1), que para 23 participantes (media en los últimos 25 ediciones) resulta que cada país debería recibir unos 2.64 puntos de cada uno de los demás países. Si un país en media puntúa mucho más de 3 puntos a otro país es que hay un claro sesgo. Por ejemplo, Chipre y Grecia se puntúan más de 10 puntos entre ellos (clara afinidad), pero Rumania y Letonia nunca se han puntuado entre sí (obviamente, datos del estudio de 1981-2005).

Se puede construir una red de afinidades (alianzas) entre países. Los países se han colocado en su posición geográfica aproximada (con ciertos ajustes para facilitar la visibilidad del grafo) y se han conectado el país A y el B con una flecha desde A si este país ha dado al menos 6.1puntos (la media más dos desviaciones típicas) como media en todos los certámenes en los que han participado ambos.

 

La figura muestra claramente varias alianzas o grupos de países. Por un lado los países nórdicos (Sweden, Finland, Norway, Denmark, Iceland and Estonia), las antiguas repúblicas soviéticas (Estonia, Latvia, Lithuania, Moldova, Russia, Ukraine), y las antiguas repúblicas yoguslavas (Bosnia-Herzegovina,
Croatia, FYR Macedonia, Slovenia, Serbia & Montenegro).

Ninguna flecha apunta hacia España, aunque teníamos cierta preferencia hacia Italia (cuando participaba, claro).

Los autores han desarrollado un análisis econométrico tratando de identificar la razón de estos clusters de países en función de dos factores: la afinidad o simpatía que una país siente hacia otro y la calidad percibida en la canción a concurso. Este último factor lo han dividido a su vez en la calidad objetiva (atribuible a parámetros propios de la canción) y la calidad subjetiva (debida a la idiosincracia y preferencias del país por cierto tipo de canciones). Para la afinidad entre países han estudiado factores como la proximidad (si hay frontera común es 0 sino la distancia entre los aeropuertos de sus capitales), el idioma del país, la religión, las relaciones tipo colonia o colonizador, o si es el país anfitrión. Para las preferencias en relación a la canción han tenido en cuenta si es o no en inglés, un intérprete masculino solo, uno femenino, un dueto, un grupo, así como la posición de intervención.

Los resultados son muy interesantes, aunque no puedo resumirlos todos. La afinidad entre países es un factor muy importante en las votaciones, pero sorprendentemente es más importante la afinidad cultural qeu la proximidad geográfica. El estilo de la canción también es un factor muy importante. El idioma preferido es el inglés (esto era una desventaja cuando era obligatorio que la canción de un país fuera en su idioma propio, hace años que eliminaron esta restricción). El orden de aparición también es importante, y los últimos son más votados que los primeros. Ser el país anfitrión también influye en recibir más votos. Las intérpretes femeninas reciben más votos que los masculinos, además se prefieren los duetos a los grupos.

Han testeado varias hipótesis. ¿Qué es más justo el voto de un jurado “técnico” (pre-1998 ) o el televoto público (post-1998 ) ? Claramente, todas las variables que miden la afinidad entre países son mucho más relevantes en el voto tras 1998. El idioma inglés en la canción era más importante antes de 1998. Ser intérprete femenina era más importante antes de 1998 y ahora menos.

¿Hay alianzas entre países para premiar las canciones (de países afines) que se encuentran entre TOP5 de los favoritos antes del festival? Por ejemplo, este año Rusia partía de favorita. ¿Se han puesto los países del eje ex-soviético de acuerdo para votar más a este país y lograr que gane? De este año no tenemos datos pero los autores desde 1981-2005 no encuentran evidencia estadística de este tipo de estrategias de voto. Sin embargo, antes de 1998 sí encuentran estrategias del tipo, este año te voto yo y el próximo vótame tú (sí cuando el jurado era “técnico”). Ahora que vota el público parece que “todos” tenemos menos memoria colectiva.

¿Se pueden corregir los resultados de las votaciones eliminando los sesgos que se han encontrado? Los autores se atreven y ofrecen su propuesta de reordenación “justa” de los participantes (por supuesto, algo muy discutible como cuando una tortilla me la como yo pero digo que te has comido la mitad). Acabaré con sus resultados para los años 1998 (16º puesto de Mikel Herzog, hubiera quedado 10º) y 2004 (10º puesto de Ramón, hubiera quedado 4º).

 

Eurovision: La opinión de los expertos versus la opinión del público (o cómo lograr que algún día gane España)

El puesto 16 para España en Eurovisión, ¿es el mejor puesto posible? ¿Puede España alcanzar un puesto mejor con el nuevo sistema de votaciones vía SMS del eurofestival. ¿Debería España hacer como Italia y “abandonar” el festival? Obviamente RTVE es la gran ganadora del festival (casi 14 millones de espectadores vieron la actuación de Chikilicuatre en La 1). La 53 edición marcó más de 9,3 millones de fieles seguidores desde las 21:00 hasta las 00:17 horas de la noche (9.336.000). La cadena registró una impresionante cuota de pantalla del 59,3% durante algo más de 3 horas.

Muchas voces reclaman que un jurado técnico (si no substituyendo al jurado SMS público, al menos complementándolo) es una necesidad para revitalizar al festival y lograr que vuelva a sus mejores tiempos. ¿No está ahora en sus mejores tiempos (minuto de oro del día, 22:35: 13.873.000 y 78,1%)?

Se lleva discutiendo muchos siglos (desde “La República” de Platón) si sólo los expertos deben juzgar la calidad de las obras de arte o de los productos culturales, o si por el contrario podemos confiar en los gustos del público general. El artículo de MARCO A. HAAN, S. GERHARD DIJKSTRA and PETER T. DIJKSTRA, “Expert Judgment Versus Public Opinion – Evidence from the Eurovision Song Contest,” Journal of Cultural Economics, 29: 59-78, 2005, trata de contestar a esta pregunta utilizando el Concurso de la Canción de Eurovisión. Los autores muestran que el juicio de los expertos es mucho menos sensible que el público llano a factores no relacionados con la calidad (como todo el mundo sabe). Aunque el estudio también muestra que el juicio de los expertos también depende de dichos factores (al menos empíricamente en las finales de Eurovisión). Os recuerdo que este concurso de la European Broadcasting Union (EBU) hasta 1998 solicitaba de cada país un un jurado de “expertos”, pero desde entonces en la mayoría de los países se implantó la elección mediante un “jurado popular” (comercialmente más rentable). Os recuerdo también que desde 1960 hasta 1998, los miembros del jurado podían oir las canciones antes del festival, pero no ver su interpretación. Hasta 1998, la ejecución en directo en el Festival sólo podía utilizar la música interpretada por la orquesta sinfónica que el país organizador seleccionaba. El “televoto” fue introducido en 1998 consiste en que cada ciudadano de los 43 países miembros de la EBU que participan en el Festival (aunque no estén en los 25 de la final) realiza una llamada telefónica o envía un SMS con su voto (cada hogar sólo puede enviar 3 votos).

Los autores del artículo han estudiado todos los festivales con jurado “técnico” desde 1957-1997 y los que utilizaron televoto entre 1998-2002 (pero no a todos los países, por ejemplo, España no ha sido tenido en cuenta, pero sí Portugal). Si el jurado técnico tomara la decisión en términos de méritos de calidad de la canción exclusivamente, el resultado final sería completamente independiente del orden de aparición del cantante (aleatorio). Evidentemente, todo el mundo sabe que este no es el caso. El estudio estadístico muestra claramente este hecho, resultando que una canción que aparece al final tiene un 12% más de posibilidades de ganar que una que aparece al principio. Sólo se salvan los primeros entre los primeros (o los últimos entre los últimos) que tienen una posición final mejor de la que estadísticamente se esperaría para los primeros (o los últimos). Este resultado se ha comprobado en muchos otros concursos de canciones o musicales. Aparentemente, cualquier jurado recuerda mejor las últimas interpretaciones, aunque las primeras también “resuenan” en la mente.

La primera conclusión interesante del artículo es que el orden de aparición afecta más al voto del público que al de los expertos.  El análisis de regresión realizado lo muestra claramente (ver figura 1 del artículo). La conclusión más importante del estudio es que sin ambigüedad estadística los expertos juzgan mejor la calidad que el público en general (les afectan menos factores externos como el orden en que se concursa). Aunque, por supuesto, su juicio no es perfecto.

El tema de Eurovisión dárá más que hablar en este blog. Lo prometo.

A bote pronto se me ocurre una barbaridad. Una posibilidad para que España gane quizás sea que España “deje de ser” España y se convierta en una República de Comunidades Autónomas (similar a la ex-Yugoslavia o la ex-Repúblicas Soviéticas). En este caso, nuestras Autonomías lograrían que ganara una de nuestras Televisiones Autonómicas y España reinaría el festival. A muchos no gustará esta idea.

Otra propuesta descabellada. ¿Has votado en Eurovisión? Probablemente no. ¿Por qué? Porque no eres emigrante. Los países que tienen muchos emigrantes, pongamos de Rumanía, votan preferentemente a Rumanía (a quién se ha votado más en España). Claramente ganan los países que tienen más emigrantes. Otra posibilidad para que volvamos a ganar es que emigremos… o que nos vayamos de vacaciones por Europa el día de la votación. ¿Qué tal visitar Moscú el año que viene?

 

 

Presentación en Málaga del libro “1964”

Si eres malagueño quizás te gustará pasarte el próximo 28 MIERCOLES a la 20:00 por la LIBRERÍA LUCES donde “Carlitos” (Charlie) presentará su FAMOSO libro “1964”. El acto será orquestado por José Luis González Vera, conocido y querido escritor, poeta, filólogo, columnista y buen bebedor de cerveza (mientras el cambio climático no afecte significativamente a su producción, a los bebedores australianos seguramente sí les afectará).

http://www.edicionesartime.com/novelas/novela_1964.htm

“Sídney (Australia), 8 abr (EFE).- El precio de la cerveza se incrementará en las próximas décadas dado que el cambio climático perjudicará a la producción de cebada de malta, ingrediente esencial de esa bebida alcohólica, según un estudio de un científico de Nueva Zelanda. Jim Salinger, experto medioambiental del Instituto del Agua e Investigación Meteorológica neozelandés, señala en el informe divulgado hoy, que el calentamiento global destruirá gran parte de los cultivos del citado cereal en Oceanía.” (menéame).

¿Cómo aparcar el coche en el centro de una ciudad? (o estudio teórico y experimental del aparcamiento en el centro de una ciudad)

No, esta no es la mejor manera de aparcar.

Aparcar el coche en el centro de cualquiera de nuestras ciudades es un GRAN problema. La manera clásica de tratar de resolver este problema matemáticamente es el modelo del “aparcamiento aleatorio” (random car parking model) de Renyi. Este modelo ignora un parámetro importante a la hora de elegir aparcamiento, la distancia entre coches (ya aparcados o la que estimamos que dejaremos cuando lo logremos). Este modelo teórico predice que la función densidad de probabilidad p(D) para la distancia entre coches D crece hacia infinito conforme D decrece a cero, lo que obviamente es irrealista. De hecho los datos experimentales en múltiples ciudades mustran que p(D) decrece a cero conforme D lo hace. Petr Šeba, “Parking in the city: an example of limited resource sharing,” ArXiv preprint, 10 Apr 2008, trata de solventar este defecto del modelo de Renyi.

Petr estudia el proceso de aparcar el coche en el centro de una ciudad como si se tratara de un problema de gestión de recursos compartidos o limitados (el espacio disponible de asfalto reservado para aparcar). De esta forma muestra cómo determinar una distribución de probabilidad para predecir la distancia entre coches aparcados que depende de la longitud del segmento de calle reservado para aparcar. El modelo le permite demostrar que existen principios psicofísicos generales que guían las maniobras que realizamos al aparcar nuestro coche. Estos principios han sido determinados y validados analizando el proceso de aparcamiento en una pequeña ciudad checa, Hradec Kralove (el autor es checo).

Técnicamente, Petr interpreta el proceso de aparcar como un partición estadística del espacio limitado como parking entre las personas que compiten entre sí intentando aparcar. La partición es descrita mediante una distribución de Dirichlet con parámetro g. Este parámetro está fijado por la capacidad del conductor de aparcar en espacios muy “justos” logrando un aparcamiento con una distancia entre coches muy pequeña. El modelo matemático le permite obtener la distribución del espaciado entre coches como una solución en estado estacionario del proceso de aparcamiento / desaparcamiento. En promedio, si un coche mide L metros, se necesitan 1.3*L metros para poder aparcar satisfactoriamente. Su modelo conduce a que la probabilidad p(D) sigue una distribución beta, que es una distribución fuertemente asimétrica. En este caso caracterizada por un parámetro g=3. Petr trata de justificar este parámetro aludiendo a la teoría de la percepción binocular de la distancia, siendo esta parte psicofísica del modelo la más susceptible a crítica. Las datos tomados experimentalmente que presenta para confirmar su hipótesis, en mi opinión, son bastante dudosos. Aún así, el artículo es de gratificante lectura y por tanto recomendable.

Circuitos electrónicos flexibles (o el corcho y el papel de nanotubos)

La figura muestra (A) el proceso de fabricación de circuitos CMOS ultrafinos que utilizan nanotiras (nanoribbons) de silicio de gran flexibilidad ante dobleces y que se pueden estirar/comprimir recuperando su forma original. (B to D) Fotografías de algunos de los circuitos fabricadods. En (B) aparece un recuadro (inferior derecha) que muestra un único inversor CMOS. Estos circuitos se pueden (C) enrollar y (D) arrugar sin alterar su funcionamiento. El trabajo se ha publicado en Dae-Hyeong Kim et al. “Stretchable and Foldable Silicon Integrated Circuits,” Science, Vol. 320. no. 5875, pp. 507-511, 25 April 2008.

La electrónica flexible antes de este trabajo utilizaba materiales orgánicos conductores, pero su rendimiento es mucho peor que la electrónica obtenida con materiales inorgánicos. En este trabajo se ha desarrollado por primera vez una manera de combinar nanotiras de silicio con un sutrato flexible de goma o plástico que permite crear circuitos electrónicos robustos, flexibles y “doblables” sin sacrificar el rendimiento de la electrónica convencional. La característica más interesante de estos nuevos circuitos flexibles es que la propia circuitería electrónica prácticamente no sufre los esfuerzos provocados por el doblado o estiramiento, que se concentran en el substrato flexible, por ello el rendimiento electrónico no se ve afectado.

El corcho tiene propiedades muy curiosas. Por ejemplo, cuando se estira o comprime en la dirección axial, cambio muy poco en su dirección radial, es decir, tiene un coeficiente de Poisson próximo a cero. La mayoría de los materiales tienen un coeficiente de Poisson positivo, aunque algunos también tiene un coeficiente negativo, como ciertas espumas de polímeros que se expanden lateralmente cuando son estiradas. El artículo de Lee J. Hall et al. “Sign Change of Poisson’s Ratio for Carbon Nanotube Sheets,” Science, Vol. 320. no. 5874, pp. 504-507, 25 April 2008, describe la creación de un material parecido al papel formado por una mezcla de nanotubos, tanto monocapa como multicapa. Variando la fracción de nanotubos multicapa logran controlar el coeficiente de Poisson del material resultante, pasando de un valor positivo a uno negativo, incluyendo la posibilidad de un valor nulo. El nuevo material de la familia de los “papeles de nanotubos” (buckypaper) tendrá importantes aplicaciones prácticas en el desarrollo de nuevos materiales compuestos (composites) para formar hojas planas, músculos artificiales, y sensores mecánicos y químicos.