Procesadores multinúcleo y supercomputación en el hogar, pros y contras

Prototipo de Intel de un procesador con 80 núcleos.

Procesadores de doble núcleo, de cuádruple núcleo, prototipos de Intel con 80 núcleos, ¿son los procesadores multinúcleo el futuro? Parece que no hay otra manera de mejorar el rendimiento de los procesadores actuales. Sin embargo, ingenieros de los Sandia National Laboratories, en New Mexico, utilizando simulaciones han mostrado que el problema de la tecnología multinúcleo es el cuello de botella del ancho de banda limitado de la memoria, como nos recuerda S.K. Moore, “Multicore is bad news for supercomputers,” IEEE Spectrum, 45: 15-15, November 2008 .

El resultado de estos investigadores muestra que el rendimiento de aplicaciones intensivas en datos (que requieren el acceso a enormes bases de datos) no mejora utilizando la tecnología multinúcleo cuando el número de núcleos supera 8. Más aún, para 16 núcleos empeora (los resultados de las simulaciones indican que 16 y 2 núcleos conducen a un rendimiento equivalente, en este tipo de aplicaciones). Por supuesto, los ingenieros en arquitectura de computadores, si desean que el mercado acepte de buena gana los procesadores multinúcleo con más de 8 núcleos, tendrán que resolver los problemas que se han detectado. Básicamente, la barrera de la memoria (“memory wall”) la gran disparidad entre la velocidad de cómputo del procesador (CPU) y la velocidad a la que fluyen los datos entre procesador y memoria.

¿Cómo incrementar el ancho de banda de acceso a memoria? La solución convencional, una buena jerarquía de memorias caché de diferente tamaño (tanto dentro como fuera del propio procesador) no parece prometedora (en aplicaciones que usan ingentes cantidades de datos), según las simulaciones. Según este estudio sería necesario que toda la jerarquía de cachés estuvieran dentro del propio procesador. Los ingenieros en arquitectura de computadores tendrán que resolver el problema de cómo lograrlo. La enorme velocidad con la que progresa este campo me hace pensar que cuando los procesadores multinúcleo con gran número de núcleos estén en el mercado ya se habrá logrado resolver el problema detectado por los investigadores de los Laboratorios Nacionales Sandia.

La física no es todopoderosa (o la imposibilidad de una Teoría de Todo)

David H. Wolpert. Image courtesy: NASA Ames' Dominic Hart.

Kurt Gödel y Alan Turing, entre otros, demostraron que la matemática no es todopoderosa, tiene límites. Hay verdades indemostrables que han de ser asumidas como nuevos axiomas. En general, un número real no es computable (calculable), no existe ningún algoritmo para calcularlo. ¿Es la física todopoderosa? ¿Existirá alguna vez una Teoría de Todo que permite entenderlo todo? David H. Wolpert, del NASA Ames Research Center, California, ha “demostrado” que el Universo físico en su totalidad no puede ser completamente comprendido por ningún sistema de inferencia (inductivo). Podemos interpretar su nuevo teorema, demostrado mediante un argumento de diagonalización de Cantor, similar al usado por Gödel y Turing en sus propias demostraciones, como que “No existe la Teoría del Todo”, el Santo Grial de la Física, como mucho descubriremos una “Teoría de Casi Todo.”

P.-M. Binder, “Philosophy of science: Theories of almost everything,” en el número de Nature  que ha aparecido hoy nos comenta este interesante trabajo de David H. Wolpert, “Physical limits of inference,” Physica D: Nonlinear Phenomena, 237: 1257-1281, 2008 , en un número especial de Physica D dedicado a los nuevos paradigmas de computación y sus límites “Novel Computing Paradigms: Quo Vadis?.” El artículo de 25 páginas sólo he tenido tiempo de ojearlo, necesita una lectura cuidada (y que yo refresque mis conocimientos sobre metamatemática, ontologías y demostración en lógica formal). Prometo este fin de semana leerlo con atención, ya os contaré. Ahora, sigo los comentarios e ideas ofrecidas por Binder.

Durante el siglo XX la Física ha encontrado gran número de límites a nuestro conocimiento sobre la realidad. Por ejemplo, el principio de incertidumbre de Heisenberg en Mecánica Cuántica, la imposibilidad de transmitir información más rápido que la velocidad de la luz en Teoría de la Relatividad, o la imposibilidad de predecir el comportamiento a largo plazo de sistemas dinámicos no lineales en Teoría del Caos Determinista.

El trabajo de Wolpert, en línea con los trabajos de los grandes lógicos Kurt Gödel y Alan Turing, considera la idea de máquinas de inferencia que pueden medir datos experimentales y realizar cálculos con objeto de comprender y predecir la Naturaleza. Estas máquinas de inferencia no requieren la existencia de humanos que las usen. Son meras descripciones formales en términos de dos funciones: una estipula el estado inicial de la máquina (llamada función de set-up) y la otra describe las observaciones, la teoría y sus predicciones (llamada función de conclusión).

Wolpert utiliza la técnica de demostración llamada diagonalización de Cantor (ya usada tanto por Gödel como por Turing en sus propios teoremas) con objeto de probar que en el espacio de todas las secuencias de eventos (world-lines) consistentes con las leyes de la física no existe ninguna máquina de inferencia que prediga todas las conclusiones de cualquier otra máquina de inferencia para todas las posibles observaciones o preparaciones de experimentos posibles. El resultado de Wolpert es interesante porque es independiente de los detalles de las leyes físicas consideradas y de las características computacionales de la máquina de inferencia utilizada.

Una de las consecuencias más interesantes del trabajo de Wolpert es que todos los sistemas complejos, igual que los sistemas caóticos deterministas, tienen un horizonte predictivo. Podemos predecir ciertos resultados pero no todos los resultados. El trabajo de Wolpert nos indica que incluso las ecuaciones (las leyes) que rigen dichos sistemas complejos pueden ser imposibles de determinar (inferir), podemos conocer algunas (parte) de dichas leyes, pero quizás nunca las conozcamos todas.

El descubrimiento de Wolpert nos indica que quizás las limitaciones en nuestra comprensión de la realidad pueden ser de carácter fundamental y nunca podamos aspirar a lograr una Teoría de Todo, nos tendremos que conformar con una Teoría de Casi Todo.

Las computadoras de Harvard (o el harén “astronómico” de Pickering)

Interesante artículo el de Sue Nelson, “The Harvard computers,” Nature 455, 36-37 ( 4 September 2008 ), sobre la época en la que las computadoras no eran máquinas sino mujeres. La foto, tomada en el Observatorio Harvard en Cambridge, Massachusetts, cerca de 1890, muestra 8 mujeres vistiendo trajes de estilo victoriano que están calculando, son “computadoras humanas” (término usado desde principios de los 1700s), miembros del así llamado “harén de Pickering”. Estas mujeres están analizando fotografías del firmamento, catalogando estrellas.

Desde que se acoplaron cámaras fotográficas a los telescopios fue necesario el uso de personas que catalogaran y clasificaran la infinidad de datos que se obtenían. Un trabajo repetitivo que requería medir el brillo, la posición y el color de cada estrella en la placa fotográfica. Desde los 1880s hasta los 1940s, el Observatorio Harvard amasó medio millón de placas de cristal fotográfico, unas 300 toneladas de material que contenían la foto de unos 10 millones de estrellas. Un equipo de mujeres se encargaba de analizar estas fotografías, muchas veces por un sueldo ínfimo (los computadores eran mujeres porque el salario de éstas era más bajo que el salario de los hombres) y sin formación científica alguna (salvo raras excepciones). Bueno, seamos rigurosos, William Elkin, director del Yale Observatory, en 1901 afirmó que “prefería contratar mujeres como computadoras, no sólo porque aceptaban un salario más bajo, también eran más adecuadas para el trabajo rutinario ya que tenían más paciencia.”

Edward Pickering, director del Harvard College Observatory desde 1877 hasta 1919, utilizó a muchas mujeres muy inteligentes en su trabajo de computadoras que condujeron a importantes descubrimientos científicos. Por ejemplo, Williamina Fleming, que en 1881, con 24 años, entró a formar parte de la plantilla de Harvard, desarrolló junto con Pickering un sistema de clasificación de los tipos estelares basado en la intensidad de sus líneas espectrales del hidrógeno aún en uso, que fue clave en la identificación de las estrellas enanas blancas. Se estima que Fleming examinó unas 200.000 placas fotográficas durante toda su vida.

Annie Jump Cannon, también miembro del harén de Pickering, capaz de medir el color y clasificar hasta 300 estrellas por hora, con un récord de 300.000 en toda su vida, fue quien desarrolló la clasificación de las estrellas en tipos O, B, A, F, G, K, y M, que aún se utiliza. Henrietta Swan Leavitt, investigadora en el grupo de Pickering, estudió las estrellas de brillo variable (ceféidas) y descubrió la relación entre sus periodos y su brillo intrínseco, clave para medir distancias astronómicas y fundamental para el descubrimiento de la expansión del universo por Edwin Hubble.

Los computadores digitales sustituyeron a las computadoras humanas. Es curioso, pero en 2006, la Planetary Society y la University of California, Berkeley, lanzaron el proyecto Stardust@Home (web). Retomando “viejos tiempos”, voluntarios sin formación científica previa fueron entrenados mediante tutoriales online para escanear fotos de aerogel en sus pantallas de ordenador y encontrar posibles rastros de polvo interestelar (no existe programa de ordenador que lo haga también como la vista de una persona). En la primera fase del proyecto 23.000 voluntarios buscaron cerca de 40 millones de imágenes. Sin su ayuda, el equipo investigador hubiera necesitado más de 20 años de trabajo. El proyecto Stardust inspiró al proyecto Galaxy Zoo en 2007, que usa voluntarios para clasificar galaxias espirales y elípticas a partir de imágenes del Sloan Digital Sky Survey. En 6 meses los voluntarios identificaron más de 500 galaxias solapadas (sólo se conocían 20 casos). Las imágenes son espectaculares.

Si te interesa formar parte de estos proyectos, aún estás a tiempo, serás uno de los herederos del harén de Pickering.

Interesante historia de las fórmulas y algoritmos para pi

El artículo de Jesús Guillera Goyanes, “Historia de las fórmulas y algoritmos para pi,” Gaceta de la Real Sociedad Matematica Española, 10(1):159-178, 2007, nos presenta algoritmos y fórmulas tan interesantes como los de Arquímedes, Viete, Wallis, Newton, Comtet, Gregory, Leibniz, Machin, Euler, e incluso Gauss y Ramanujan. Los algoritmos de Borwein están entre los más eficientes. El artículo acaba de ser traducido al inglés (“History of the formulas and algorithms for pi,” Jesus Guillera, ArXiv preprint, 5 Jul 2008 ).

A los interesados en el artículo también les gustará la propia tesis doctoral del autor, “Series de Ramanujan: Generalizaciones y conjeturas,” defendida el 2 de julio de 2007. El trabajo de Ramanujan todavía nos deparará muchas más sorpresas en el futuro.

Tampoco me puedo resistir a recomendaros el artículo “Fun with Fourier series,” Robert Baillie, ArXiv preprint, submitted on 1 Jun 2008 , del que extraigo la figura de abajo, como botón de muestra.