Publicado en Nature: Ratificada la existencia de la energía oscura gracias al test de Alcock-Paczynski

La expansión cósmica del universo se está acelerando; la causa es una fuerza “desconocida” llamada energía oscura. Descubierta gracias al uso de supernovas Ia como candelas para medir distancias cósmicas y verificada gracias al análisis de la radiación de fondo cósmico de microondas por el satélite WMAP, se ha ratificado gracias al test de Alcock-Paczynski (1979), un método geométrico que permite determinar la abundancia de la energía oscura y su ecuación de estado. Esta técnica estudia las distorsiones geométricas entre el movimiento observado en cuerpos lejanos y el movimiento estimado a partir del corrimiento Doppler de la luz observada. Marinoni y Buzzi han ratificado la existencia de la energía oscura gracias al estudio de 509 sistemas binarios galácticos y han determinado sus parámetros con un 68’3% de confianza estadística, en concreto, la ecuación de estado cumple que -0’85 < w < -1’12 (según WMAP-7 es w = -1’1 ± 0’14, al 68% C.L.) y la cantidad de materia oscura que es 0’60 < ΩΛ < 0’80 (según WMAP-7 es ΩΛ= 0’725 ± 0’016, al 68% C.L.). Un nuevo resultado tan preciso como los obtenidos gracias a las supernovas Ia. Un gran resultado técnico publicado en Christian Marinoni, Adeline Buzzi, “A geometric measure of dark energy with pairs of galaxies,” Nature 468: 539–541, 25 November 2010, que nos desglosa Eugenie Samuel Reich, “Dark energy on firmer footing. Geometric test supports the existence of a key thread in the fabric of the Universe,” News, Nature, Published online 24 November 2010.

Un sistema galáctico binario, formado por dos galaxias A y B en rotación mutua, con un corrimiento al rojo medio de z y una separación angular de θ, está orientado respecto a un observador terrestre con cierto ángulo. Estudiando muchos sistemas binarios se puede construir el histograma de las posibles orientaciones. Uno espera que esta distribución sea completamente al azar, una distribución con simetría esférica en la que todas las orientaciones son igualmente probables. Pero en un universo dominado por la energía oscura se observará una cierta asimetría en las orientaciones posibles, que tendrá una orientación preferente en la dirección del observador (ver la figura de abajo). Dicha asimetría es la que han determinado Marinoni y Buzzi para galaxias muy distantes, a miles de millones de años luz de distancia, gracias al proyecto DEEP2. Futuros estudios aplicando la misma técnica a los datos obtenidos con el futuro Telescopio Espacial Euclídes de la ESA podrán mejorar la precisión de este tipo de medidas hasta el punto de superar la precisión obtenida con supernovas Ia, según Marinoni.

El matemático Jorma Jormakka proclama haber resuelto cinco problemas del milenio

Son siete problemas, quedan seis aún por resolver y al finlandés Jorma Jormakka solo le falta uno para lograr un pleno. Si Grigory Perelman no hubiera demostrado la Conjetura de Poincaré, primer Premio del Milenio concedido por el Instituto Clay, dotado con un millón de dólares, creo que puedo asegurar sin equivocarme que Jorma Jormakka la habría demostrado ya. La hipótesis de Riemann no tuvo secretos para él (“On the zeroes of the Riemann zeta function,” 16 Jun 2008). Tampoco el problema de la regularidad de las soluciones de las ecuaciones de Navier-Stokes en 3D (“Solutions to 3-dimensional Navier-Stokes equations for incompressible fluid,” 21 Sep 2008). Además logró encontrar un contraejemplo para la conjetura de Birch y Swinnerton-Dyer (“On the rank of elliptic curves,” 24 Sep 2008). Pecata minuta para un genio como Jorma, pues también logró demostrar que P≠NP (“On the existence of polynomial-time algorithms to the subset sum problem,” 29 Sep 2008). Y, finalmente, ahora acaba de publicar la solución al problema de la masa en las ecuaciones de Yang-Mills (“Solutions to Yang-Mills equations,” 15 Nov 2010). El Dr. Jorma Jormakka es el mejor matemático del s. XXI, fuera de toda duda. ¿Cómo que no? ¡Ha sido capaz de resolver 5 problemas del milenio y 4 de ellos en 2008! Ahora mismo debe estar trabajando en la conjetura de Hodge (el único problema que le queda). Estoy seguro que en los próximos meses también logrará resolver este problema. ¡Loemos todos los grandes logros del “genial” Jorma Jormakka!

Jorma Jormakka ha afirmado en múltiples ocasiones que todavía ningún experto ha sido capaz de encontrar un error en sus demostraciones (y además algunos de los artículos anteriores han sido publicados en revistas internacionales). Los expertos opinan que los cinco problemas que ha “resuelto” Jormakka hasta el momento, en realidad no son los mismos problemas que los planteados por los correspondientes Premios del Milenio. Se parecen, por ello él afirma que los ha resuelto, pero no son los mismos (los expertos lo saben bien). Un problema matemático tiene un enunciado muy concreto y sin ambigüedades. Pero un problema tan importante como un problema del milenio tiene varias formulaciones equivalentes, que solo unos pocos matemáticos en el mundo saben por qué son equivalentes al problema original. Jorma no se molesta en estos detalles. Él escoge un problema “equivalente” y lo demuestra. No se molesta en comprobar si el problema es realmente “equivalente” o solo más o menos equivalente. ¡Qué torpes son los expertos que no valoran la genialidad de Jorma! Luchando contra los “elementos” Jorma busca la gloria eterna en el mundo de las matemáticas. ¡¿O solo busca el millón de dólares del premio?!

Incluso un doctor en matemáticas es un amateur en ramas de la matemática diferentes a la suya. Hay muy pocos genios como Hilbert o Poincaré que se puedan mover a gusto por cualquier rama de las matemáticas. Incluso Terry Tao, alumno aventajado de Elias Stein, “el niño prodigio de los números,” es incapaz de explicar en detalle la formulación técnica de los seis premios del milenio aún abiertos. ¿Puede un amateur resolver un problema del milenio? ¿Puede un amateur demostrar que P≠NP? (R. J. Lipton, “Can Amateurs Solve P=NP?,” Gödel’s Lost Letter and P=NP, July 1, 2010).

PS (25 nov. 2010): Aclaración del propio Jorma Jormakka (en los comentarios aparece en inglés).

“El artículo anterior puede llevar a engaño a los lectores. Yo no demostré la hipótesis de Riemann, aunque al principio me pareció que así era; los revisores de una revista no pudieron encontrar ningún error (aunque el artículo fue rechazado), pero (Enrico) Bombieri sí lo encontró en el acto [Bombieri es experto en la hipótesis de Riemann y es miembro del IAS de Princeton]. El artículo sobre la la conjetura de Birch y Swinnerton-Dyer no presenta ninguna demostración, solo un nuevo enfoque para atacar la demostración; en 2008 no pude concluir la demostración porque no me dio tiempo; estos problemas [tan difíciles] requieren mucho tiempo y consumen una enorme cantidad de papel y lápices. [Además, escribí una demostración de la conjetura de Hodge] pero un experto [finlandés] encontró un error [y por eso no la envié a ArXiv].

[Me gustaría aclarar que] hasta donde yo sé todos mis artículos abordan el problema correcto [del Milenio según se describe en el Instituto] Clay; no abordan ninguna versión equivalente. [Además,] todos mis artículos han sido estudiados por expertos finlandeses antes de ser publicados en ArXiv y ellos no han encontrado ni errores ni malentendidos.

Aunque muy pocos matemáticos están en condiciones de trabajar en muchos campos, cualquiera puede aprender un tópico nuevo. Cualquier matemático podría estudiar un nuevo tema fuera de su campo habitual, el problema es que no suelen estar motivados para hacerlo. Estos problemas del milenio parecen difíciles pero no son tan duros como la mayoría de la gente cree. Hay un férreo bloqueo por parte del establishment y de los medios de comunicación cuando alguien trata de publicar [demostraciones de estos problemas.] Probablemente  todos [los problemas del milenio] ya se han resuelto, pero no sabemos nada acerca de dichas soluciones.

[Hay muchas cosas de la historia que se nos ocultan.]”

Nuevos resultados de THINGS confirman las ideas de la teoría MOND salvo para NGC 3198

MOND (Modified Newtonian Dynamics) es una modificación “empírica” de las leyes de Newton con objeto de explicar las curvas de rotación galáctica sin necesidad de materia oscura (que forma parte del modelo galáctico estándar). El análisis de 12 nuevas curvas de rotación galáctica de alta precisión obtenidas gracias al HI Nearby Galaxy Survey (THINGS) confirma la teoría MOND con un parámetro a0 = (1’22 ± 0’33) × 10-8 cm/s², salvo en tres casos. En dos de estos casos, NGC 2903 y NGC 2976, ni MOND, ni la materia oscura son capaces de explicar la curva de rotación galáctica observada. En el tercer caso, NGC 3198, la materia oscura sí explica la curva, pero MOND requiere un valor de a0 = 0’9 × 10-8 cm/s²; los autores creen que entender gracias a MOND esta curva galáctica permitirá mejorar nuestra comprensión de dicha teoría y sus detalles. ¿Quién será capaz de explicar la curva de rotación de la galaxia NGC 3198 utilizando la teoría MOND? El artículo técnico, para los interesados en los detalles, es G. Gentile, B. Famaey, W.J.G. de Blok, “THINGS about MOND,” ArXiv, 18 Nov 2010 (Accepted for publication in A&A).

Este estudio aporta nuevos datos de interés sobre la validez de la hipótesis MOND ya que las 12 galaxias estudiadas han sido seleccionadas con sumo cuidado para poder verificar dicha teoría. Estudios previos que han aplicado las ideas de MOND a galaxias seleccionadas de forma arbitraria afirman que MOND solo es capaz de explicar el 75% de las curvas de rotación galáctica (aunque los defensores de MOND afirman que el 25% restante no se explica porque no conocemos con precisión la simetría y forma de dichas galaxias); por ejemplo, para galaxias enanas, R. A. Swaters, R. H. Sanders, S. S. McGaugh, “Testing Modified Newtonian Dynamics with Rotation Curves of Dwarf and Low Surface Brightness Galaxies,” ArXiv, 29 May 2010 (ApJ 718: 380-391, 2010). De hecho, NGC 3198 no es la única galaxia en la que la hipótesis MOND tendría que funcionar y no funciona como debe: otro ejemplo es NGC 300, ver T. Westmeier, R. Braun, B. S. Koribalski, “Gas and dark matter in the Sculptor group: NGC 300,” ArXiv, 2 Sep 2010 (Accepted for publication in MNRAS).

XIII Edición Carnaval de la Física: Reflexiones sobre la enseñanza de Física y Química en España

Mi segunda contribución para la XIII Edición del Carnaval de la Física, organizada por el blog Gravedad Cero, sin que sirva de precedente, en lugar de presentar algún experimento curioso que se pueda incorporar en el aula, tanto por profesores de enseñanzas medias como por profesores de primeros cursos de la universidad, será una reflexión sobre la educación en Física y Química en España. Como es la costumbre en este blog, me apoyaré en algunos artículos que recomiendo que consulten los interesados en más detalles: Antonio de Pro Bueno, “Algunas reflexiones sobre la enseñanza y el aprendizaje de la Física y de la Química,” Educar en el 2000, pp. 12-17, Septiembre 2003; Antonio de Pro Bueno, Gaspar Sánchez Blanco, María Victoria Valcárcel Pérez, “Análisis de los libros de texto de Física y Química en el contexto de la reforma LOGSE,” Enseñanza de las Ciencias: Revista de Investigación y Experiencias Didácticas, 206-208, 2008; R. Pérez Cordón, “¿Se imparten distintos Bachilleratos en el territorio español?,” Revista Española de Física 6: 35-40, 1992; y Antonio Corróns Rodríguez, “La física y los físicos en España,” Revista Española de Física 6: 6-7, 1992.

Los profesores de universidad estamos alejados del proceso de enseñanza y aprendizaje previo al ingreso de nuestros alumnos. La mayoría percibe que los alumnos cada año llegan peor preparados y con grandes lagunas conceptuales, metodológicas y en sus competencias. A la pregunta ¿cómo es posible que el índice de fracaso escolar sea tan alto en los primeros cursos universitarios de las carreras de ciencias?, la respuesta más generalizada es que la LOGSE tiene la culpa. Pero, ¿realmente podemos echarle la culpa de todo lo que está sucediendo? ¿Existen problemas con la enseñanza de la Física y de la Química en la ESO y el Bachillerato en España? La mayoría de los lectores dirá que sí, que es evidente la crisis que tiene la enseñanza de las ciencias (y, en particular, de Física y Química) en la educación española. La reducción paulatina de la carga lectiva en los programas oficiales, la evaluación conjunta de materias sin distinguir las disciplinas científicas que las integran, la promoción del alumnado sin alcanzar los niveles mínimos, y muchas otras causas son vox populi. Ahora bien, ¿qué contenidos de Física y de Química debemos enseñar? ¿Deberían estar incluidos la teoría de la relatividad, la teoría cuántica, la astrofísica, la electrónica, la química industrial, etc.? ¿Debería un alumno saber lo que es el grafeno al acabar sus estudios de bachillerato? ¿Debería un alumno conocer la diferencia entre el grafeno y el grafano al entrar en la universidad?

No es lo mismo la ciencia de los científicos que la ciencia escolar. Los físicos y los químicos eligen libremente trabajar sobre las ciencias como actividad profesional; los estudiantes -en la educación obligatoria- son obligados a estudiar la Física y la Química. Los científicos no son especialistas en todos los ámbitos del conocimiento; el alumnado debe aprender todas las Ciencias. Los científicos dedican todo el día a trabajar sobre tareas similares en un campo muy limitado de la investigación; los estudiantes deben simultanear el estudio de la Física y la Química con el de materias con las que parecen tener pocos puntos de encuentro. Los científicos defienden sus ideas usando argumentos que han sido fruto de numerosas reflexiones y experiencias; los estudiantes normalmente no se implican tanto en la defensa de sus creencias científicas. Se supone que los científicos tienen un gran desarrollo intelectual; los estudiantes de estos niveles educativos están creciendo intelectualmente pero tienen aún unas importantes limitaciones cognitivas. ¡Qué dificultades tienen los alumnos para aprender la Física y la Química!

La cuarta ley de la termodinámica: Es imposible que un estudiante, en un solo curso, obtenga un entendimiento útil y razonable de las leyes de la termodinámica y de sus principales consecuencias.” John B. Fenn (visto en Manuel García Velarde, Francisco Cuadros Blázquez, “¿Qué enseñamos?… ¿qué aprenden?: ¡cuidado con el abismo!,” Revista Española de Física 6: 41-42, 1992).

En la enseñanza en general y en la obligatoria en particular, no se puede establecer un isomorfismo entre los conocimientos de ciencia que usan los científicos y los que fluyen en el aula. Muchos profesores tratan de impartir programas sobrecargados de contenidos y se quejan por no disponer de tiempo suficiente para explicarlos. Si no nos da tiempo a enseñarlos, ¿cómo le va a dar tiempo al alumnado a aprenderlos? Sabemos que la Física y la Química, sus productos, procesos, y formas de hacer y pensar, no han sido fruto de un momento. Cualquier hallazgo ha tenido detrás pequeñas y grandes aportaciones, individuales y colectivas, anónimas y reconocidas, aceptadas y controvertidas, demostradas y especulativas, etc. ¿Nos puede sorprender que nuestros alumnos tengan dificultades para aprenderlos en el tiempo que tenemos? La experimentación, la investigación, la argumentación y la comunicación son componentes clave en la evolución del conocimiento físico y químico, y su integración en el aula parece casi imprescindible.

¿Qué objetivo tiene la labor de los profesores de Física y Química? Muchos profesores no tienen claro si su labor profesional es formar a futuros físicos, químicos, ingenieros, etc., o si tienen que contribuir a la formación básica de ciudadanos libres, democráticos, reflexivos, informados y felices. ¿Qué importancia real tiene el aprendizaje de estas materias? ¿Por qué la Administración no se “moja” y pone las cartas claras sobre lo que quiere que los profesores logren en sus alumnos?

La Física y la Química son ciencias experimentales pero en España se estudian bajo la guía exclusiva de un libro de texto, cuyo papel es determinante en lo que se enseña en las aulas. Aprobado por la Administración, el libro de texto favorece la creencia extendida de que los conocimientos que necesitan los profesores están garantizados con los estudios universitarios, requisito obligado para ganar la oposición. Se olvida la importancia de los programas de formación docente y el hábito de discutir los contenidos que enseñamos en los seminarios de los centros. Por supuesto, el libro de texto aporta seguridad a los estudiantes y a muchos profesores. Las ciencias son difíciles de aprender y el alumnado no siempre es capaz de comprender o seguir las explicaciones del aula; es conveniente disponer de algo “concreto” para estudiar y para facilitar la construcción de los nuevos conocimientos. Pero se olvida que el libro de texto es una ayuda que puede facilitar el proceso de enseñanza y aprendizaje, aunque no aporte, en sí mismo, garantías para hacerlo. Los profesores tienen la obligación (imperativo de la LOGSE) de desarrollar sus propias unidades docentes, apoyados por los libros de texto, pero llegando más allá. ¿Qué contenidos recogen los libros de texto que se usan para la enseñanza de la física y química en la ESO? ¿Se ajustan a los contenidos oficiales que establecía la Reforma LOGSE? Ojear libros de texto de Fïsica y Química de diferentes editoriales nos muestra grandes diferencias en los contenidos tratados y en la profundidad con la que se tratan. Más aún, hay diferencias notables entre diferentes Comunidades Autónomas. Hay auténticas lagunas formativas en el temario impartido que salen a la luz, por ejemplo, en las Olimpiada Española de Física (un magnífico banco de pruebas para averiguar la calidad de la enseñanza en la ESO y el Bachillerato).

La responsabilidad que recae sobre los profesores de Enseñanzas Medias es muy grande, pues la formación en ciencias experimentales de los futuros alumnos universitarios recae casi en exclusiva en ellos. Dominar la materia a impartir es de suma importancia en el profesorado (en España la mayoría de los profesores de Física y Química son químicos, porque, por un lado, los conocimientos de física de los químicos son mejores que los conocimientos de química de los físicos, y por otro lado, el número total de licenciados en química es mayor que en física). Sin embargo, no basta con dominar la asignatura para motivar al estudiante. ¿Motivar al estudiante se aprende? ¿Quién enseña al profesorado a motivar al estudiante?

Los oncogenes también aparecen en los tumores benignos, luego no pueden determinar la malignidad de un tumor

La investigación en el cáncer tiene como objetivo fundamental identificar los cambios moleculares que causan que células normales se desarrollen hasta formar tumores malignos. La acumulación de aberraciones genómicas por la activación de oncogenes y la desactivación de genes supresores de tumores podría ser la causa, pero muchos tumores benignos también las presentan (aunque en la wikipedia se afirma con rotundidad que los oncogenes son los responsables de la transformación de una célula normal en una maligna que desarrollará un determinado tipo de cáncer). Os recuerdo que un oncogén es gen “anormal” que procede de la mutación de un gen “normal” llamado protooncogén. Pero, ¿son los oncogenes suficientes para causar un tumor maligno? No, según la evidencia más reciente, ya que también aparecen en tumores benignos como en el caso de la queratosis seborreica (QS), una forma benigna de un tumor cutáneo. Hafner et al. nos presentan dicha evidencia en la revista internacional PNAS (varios coautores del artículo son españoles del CNIO). Han estudiado la frecuencia de mutaciones dos rutas metabólicas (FGFR3–RAS–MAPK y PI3K–AKT) que estudios previos han asociado a estos tumores benignos y han encontrado que todas las células también presentan una o varias mutaciones en oncogenes. El 89% de las células en QS presenta una mutación de un oncogen y el 45% más de una. Estas mutaciones de oncogenes también han sido encontradas en tumores malignos. Las mutaciones de los oncogenes no son suficientes para inducir la malignidad de un tumor. Más aún, la frecuencia de las mutaciones de oncogenes tampoco está correlacionada con la malignidad. El potencial de malignidad de una mutación en un oncogen depende del oncogen concreto considerado y de su interacción con la expresión de otros genes. La inactivación de otros genes supresores de tumores por comutación facilita la transformación del tumor en maligno. Además, el trabajo de Hafner et al. sugiere que un tumor crece a partir de una sola célula que prolifera y se extiende (la llamada teoría monoclonal). Nos lo cuentan Scott E. Woodman, Gordon B. Mills, “Are oncogenes sufficient to cause human cancer?,” PNAS, Published online before print November 17, 2010, quienes se hacen eco del trabajo de Christian Hafner et al., “Multiple oncogenic mutations and clonal relationship in spatially distinct benign human epidermal tumors,” PNAS, Published online before print November 15, 2010.

El estado actual de las colisiones de iones pesados en el LHC del CERN

El detector ALICE del LHC del CERN ya tiene sus dos primeros artículos en ArXiv con nuevos resultados sobre el plasma de quarks y gluones obtenidos gracias a las primeras colisiones de iones pesados (plomo-plomo o Pb-Pb) a 2’76 TeV c.m. que se iniciaron el domingo 7 de noviembre. Los físicos teóricos de cuerdas están expectantes por sus resultados. La posibilidad que los modelos de teoría de cuerdas basados en la dualidad gravedad/gauge (o en la correspondencia AdS/CFT) permitan predecir nuevas propiedades del plasma de quarks y gluones (QGP) aún por descubrir los tiene a muchos en ascuas. No es para menos, las colisiones Pb-Pb a 2’76 TeV conllevan energías que son catorce veces mayores a las que se han podido obtener en el RHIC, que descubrió que el QGP es un líquido ideal (de muy baja viscosidad) pero fuertemente acoplado (gracias a una propiedad técnica llamada flujo elíptico). El segundo de los artículos de ALICE ha verificado esta propiedad, el flujo elíptico de las partículas, confirmando que el QGP es un líquido ideal en colisiones ión-ión a 2’76 TeV. Para los físicos interesados en estos artículos son: The ALICE Collaboration, “Charged-particle multiplicity density at mid-rapidity in central Pb-Pb collisions at sqrt(sNN) = 2.76 TeV,” ArXiv, 17 Nov 2010, y “Elliptic flow of charged particles in Pb-Pb collisions at 2.76 TeV,” ArXiv, 17 Nov 2010. Para mí el más intersante es el segundo. En ambos casos se trata de resultados muy interesantes obtenidos en poquísimo tiempo; me atrevo a conjeturar que estos artículos ya estaban escritos a la espera de los primeros datos para completarlos con las figuras oportunas; en otro caso es difícil pensar que un artículo en el que los nombres de los autores ocupan 5 páginas haya sido escrito tan rápido.

Las técnicas de la teoría de cuerdas permiten el estudio de las propiedades de líquidos ideales fuertemente acoplados. Antes de su descubrimiento en el RHIC, todo el mundo pensaba que las propiedades del QGP eran las de un gas ideal. La primera cuestión que ha estudiado ALICE es si a mayor energía (más de un orden de magnitud mayor que en el RHIC) el comportamiento como líquido ideal del QGP encontrado se mantiene y no aparece una nueva fase de tipo “gaseosa.” Los primeros resultados que se acaban de publicar confirman el comportamiento como líquido. Un gran acicate para que los teóricos de cuerdas sigan trabajando en el estudio del QGP desde un enfoque “novedoso.” Quizás logren predecir alguna propiedad que pueda ser estudiada gracias a ALICE, logrando elevar las teorías de cuerdas al pedestal de las teorías matemáticas que son teorías físicas.

En el LHC del CERN no solo está estudiando las colisiones Pb-Pb el detector ALICE, también están haciéndolo ATLAS y CMS. Este último ha logrado detectar por primera vez en la historia un bosón Z generado en las colisiones de iones pesados. La figura de arriba muestra un evento candidato a la desintegración de un bosón Z en un par de muones, observado el 9 de noviembre de 2010. También han observado el domingo 14 de noviembre su primer bosón Z que se desintegra en un par de electrones. Un ejemplo maravilloso del buen estado del detector CMS que no fue diseñado para estudiar colisiones entre iones pesados (como ALICE). El anuncio oficial es “First Z bosons detected by CMS in heavy-ion collisions,” CMS, CERN, Nov. 18th, 2010 [versión pdf] y se han hecho eco de esta excelente noticia varios blogs, como Tommaso Dorigo, “Z Bosons From Heavy Ion Collisions,” A Quantum Diaries Survivor, Nov. 19th, 2010.

El detector ATLAS ha publicado un evento (observado el 28 de octubre) que podría ser la primera evidencia de la supersimetría, la desintegración de un bosón Z en dos muones (con momentos transversales de 50 y 126 GeV/c) más una pérdida de energía enorme de unos 161 GeV. Esta pérdida de energía tan grande podría corresponder a una partícula supersimétrica, la opinión oficial es que se trata de una desintegración Z→μμνν en dos muones y dos neutrinos (según Pippa Wells, “ATLAS Status Report,” 104th LHCC Meeting). Un solo evento no puede ser reclamado como evidencia de nueva física. El año que viene promete ser apasionante y seguramente se observarán muchos más eventos de este tipo lo que permitirá dar una confirmación (o refutación) definitiva de mi hipótesis de que este evento podría ser la primera observación de una partícula supersimétrica en el LHC del CERN. Más información en “Candidate Z Decay with Large Missing ET,” ATLAS, CERN.

Las colisiones protón-protón en el LHC retornarán sobre el 21 de febrero según nos han indicado en el 104th LHCC Meeting, chaired by Terry Wyatt (Universidad de Manchester), 17-18 November 2010, at CERN. Según Roger Bailey, “LHC Machine Status Report,” el modo de operación del LHC para el próximo año todavía tiene que ser discutido en el próximo Charmonix (workshop que tendrá lugar entre el 24-28 de enero de 2011), pero las colisiones en 2011 serán casi seguro con haces de protones a 4 TeV, es decir, con colisiones a 8 TeV c.m. Habrá que discutir qué parámetros tope se tratarán de alcanzar. Bailey afirma que como mínimo el tope será alcanzar 936 paquetes de protones (con una separación de 75 ns) y unos 1’2 × 10¹¹ protones por paquete; en estas circunstancias la luminosidad pico esperada es de 6’4 × 10³² /cm²/s, es decir, 11/pb al día, lo que totaliza 2’2/fb tras 200 días de operación. Bailey pone el máximo alcanzable en unos 1400 paquetes de protones (separados a 50 ns), con unos 1’5 × 10¹¹ protones por paquete, una luminosidad pico de 2’2 × 10³³ /cm²/s, y un total de 7’6 /fb tras 200 días. Que los responsables del LHC se atrevan con estos números en 2011 es un claro indicativo de lo bien que se ha portado esta máquina durante 2010. Habrá que estar al tanto de las novedades. Máxime porque con estos números el LHC podrá explorar el rango de 114 – 600 GeV en busca del bosón de Higgs, como nos aclara la siguiente figura preliminar del experimento CMS (más información en Tiziano Camporesi, “CMS Status Report,” 104th LHCC Meeting).

La “menopausia” en gusanos puede ayudar a estudiar la menopausia de las mujeres

En los gusanos Caenorhabditis elegans la calidad de los huevos se garantiza mediante el control de anormalidades en los cromosomas regulados por rutas de señalización específicas (que involucran la insulina y el factor TGF-β). Con la edad esta regulación falla y la calidad de los huevos sufre mermas. Si un mecanismo similar opera en los mamíferos, esta línea de investigación podría ayudar a retrasar la menopausia en la mujeres. Según nos aclaran Kevin Flurkey y David E. Harrison, “Reproductive ageing: Of worms and women,” Nature 468: 386–387, 18 November 2010, haciéndose eco del artículo técnico de S. Luo et al., “TGF-β and insulin signaling regulate reproductive aging via oocyte and germline quality maintenance,” Cell 143: 299-312, 15 Oct. 2010.

El nuevo artículo de Luo et al. extiende trabajos previos con resultados muy interesantes. En los gusanos, una mutación que reduce la función de un gen llamado daf-2, involucrado en la ruta de señalización de la insulina de tipo IGF-I, retrasa la senescencia reproductiva. Más aún, ciertas mutaciones en la actividad de la ruta de señalización TGF-β Sma/Mab, que regula el tamaño corporal y el desarrollo de rasgos de los machos, extiende la vida reproductiva de los gusanos. El nuevo trabajo de Luo et al. demuestra que intervenir decreciendo la actividad de ambas rutas incrementa la vida reproductiva y retrasa los efectos de la senescencia, como reducir el número de huevos, la fertilidad de los ovocitos y el número de embriones que fracasan, al mismo tiempo que disminuye el incremento con la edad del número de alteraciones cromosómicas. Los autores proponen que C. elegans es un organismo modelo para describir la regulación neuroendocrina de la menopausia en las mujeres. Estas ideas pueden tener relevancia clínica si los mecanismos de regulación neuroendocrina de la menopausia en humanos son similares a los de los gusanos. Los resultados de Luo et al. para humanos son todavía muy provisionales pero según los autores son una vía prometedora para el futuro.

Garrett Lisi, el físico surfero, logra publicar un artículo en Scientific American sobre su teoría graviGUT basada en E8

El físico surfero A. Garrett Lisi es el rey Midas de la física matemática. Todo lo que toca lo vuelve oro. Muchísimos blogs de divulgación científica y no científica del mundo entero se hacen eco de cada uno de sus artículos, aunque no ha logrado publicar (¿aún?) en ninguna revista de prestigio (como Physical Review Letters). Ahora nos sorprende con un nuevo artículo en el número de diciembre de 2010 de Scientific American (aparecerá en español en Investigación y Ciencia en febrero de 2011). Un artículo de 8 páginas titulado “A Geometric Theory of Everything,” que ha escrito junto a James Owen Weatherall. El artículo repasa las ideas más elementales sobre la aplicación de la teoría de grupos a la física de partículas elementales y de pasada menciona las teorías de tipo graviGUT más recientes (entre ellas la suya). La suya tiene la ventaja de que está muy bien adornada con sus “preciosistas” gráficos. Garrett ya ha publicado parte de su teoría (dos artículos) en el Journal of Physics de la IOP, y antes de descubrir la teoría que la ha convertido en rey Midas fue coautor de un artículo en Physical Review E. En este blog ya hemos hablado múltiples veces de Garrett, por ejemplo, en “Nuevo artículo de Garrett Lisi, el físico surfero, sobre su teoría de todo excepcionalmente simple basada en E8,” 28 Junio 2010; “El estado actual de la teoría de todo excepcionalmente simple del físico surfero Garrett Lisi,” 30 Mayo 2010; “La respuesta de Garrett Lisi a la crítica de Distler y Garibaldi a su teoría de todo basada en E8,” 3 Abril 2010; “Duro revés para la “teoría de todo” basada en E8 de Garrett Lisi, se siente amigo, así es la vida,” 24 Mayo 2009; “La belleza de la teoría de grupos en física de partículas (o más sobre Garrett Lisi y E8),” 28 Octubre 2008; y “Garrett Lisi y su nueva teoría algebraica sobre todo (o a la Lisimanía le falta la geometría y la física cuántica),” 24 Octubre 2008.

El nuevo artículo de Garrett va en la línea de mi breve entrada “¿Por qué se utiliza la teoría de grupos en física de partículas elementales?,” 27 Octubre 2008, aunque obviamente 8 páginas dan para mucho más. El artículo nos cuenta lo que son los grupos de Lie, los haces fibrados, las conexiones, y cómo se aplican en el Modelo Estándar y en la Teoría de la Relatividad General. La búsqueda una teoría unificada que aúna las simetrías SU(3)xSU(2)xU(1) del Modelo Estándar y el grupo de Lorentz Spin(3,1) de la Relatividad General le lleva a Garrett a introducir un grupo de Lie suficientemente grande. Esta idea, las graviGUT, las concreta en su artículo en dos casos partículares: su propia teoría (faltaría más) que usa el grupo de Lie excepcional E8 y la teoría de Nesti y Percacci que usa un grupo de Lie mucho más pequeño SO(3,11). Ambas teorías tienen grandes problemas técnicos, como ya hemos discutido en este blog y no podemos esperar que ninguna de las dos describa correctamente la realidad que nos rodea. Recomiendo la relectura del artícuo “Duro revés…” en el que nos hicimos eco de las dificultades encontradas por Garibaldi (matemático experto en grupos de Lie) y Distler (físico matemático experto en grupos de Lie). Ni Garrett ni ningún otro físico o matemático han sido capaces de resolver dichas dificultades, que según Garibaldi y Distler son imposibles de resolver. Pero ya se sabe, nunca digas nunca jamás…

Aún así, muchísimos blogs se han hecho eco del artículo como Peter Woit, “A Geometric Theory of Everything,” Not Even Wrong, November 17th, 2010; y Tommaso Dorigo, “A Geometric Theory of Everything,” A Quantum Diaries Survivor, Nov. 18th, 2010. Pero hay muchísimos otros más, … incluso la Mula Francis. ¿Cómo es posible? ¡Qué tendrá el Rey Midas de la Física Matemática para atraer la atención de todos hacia sus “grandes” logros científicos! ¡O hacia sus grandes logros divulgativos!

VIII Carnaval de Matemáticas: El número pi oculto en el desarrollo de las neuronas de la corteza visual

 

Imagina que haces un experimento para calcular cierta magnitud y obtienes el valor 3’14. ¿Qué es lo primero que te viene a la mente? El número pi (π), la relación entre la longitud de una circunferencia y su diámetro. Arquímedes, el gran científico de la antigua Grecia, realizó el primer cálculo sistemático del valor de π y obtuvo dicho valor. Veinte y tres siglos después, los científicos siguen maravillados cuando π les aparece de forma inesperada. Matthias Kaschube y sus colegas han encontrado que ciertas características en la distribución de las neuronas en la corteza visual del cerebro tienen una densidad cercana a 3’14 (π). ¿Por qué? Han desarrollado un modelo de autómatas celulares que permite explicar dicho número y que sustenta su hipótesis de que dicha distribución de neuronas no tiene un origen genético (aunque se preserva en el árbol evolutivo), sino que debe ser el resultado de la autoorganización de estas neuronas durante el desarrollo de la corteza visual. Nos lo ha contado Kenneth D. Miller, “Neuroscience: π = Visual Cortex,” Science 330: 1059-1060, 19 November 2010, haciéndose eco del artículo técnico de Matthias Kaschube et al., “Universality in the Evolution of Orientation Columns in the Visual Cortex,” Science 330: 1113-1116, 19 November 2010. Este artículo será mi segunda contribución para el VIII Edición del Carnaval de Matemáticas albergado este mes por Juan Martínez-Tébar, autor de Los Matemáticos no son Gente Seria

La corteza visual primaria (llamada V1) está formada por una fina lámina de seis capas de neuronas. Las neuronas V1 son altamente selectivas a los bordes entre luz y oscuridad y a la orientación de estos bordes (algunas a la orientación vertical, otras a la horizontal y otras a diagonales con diferentes ángulos). Estas neuronas están organizadas en “columnas,” de modo que las neuronas debajo de una dada prefieren la misma orientación que las de más arriba. Las técnicas de imagen de la estructura neuronal del córtex permiten visualizar el “mapa” de la orientación que prefiere cada neurona a través del córtex visual (ver la figura que abre esta entrada). Estos mapas de orientación tienen una estructura cuasiperiódica: las orientaciones preferidas cambian continuamente a través del córtex, repitiéndose cada cierto número de neuronas con un “periodo” denotado por λ. Los mapas también contienen “nodos” o “molinetes,” puntos en los que convergen todas las orientaciones posibles. Kaschube y sus colegas han comparado (con una precisión sin precedentes) la densidad y disposición de los “molinetes” en tres mamíferos: el galago, un primate, la musaraña arbórea, relacionada de forma estrecha con los primates, y el hurón, un carnívoro relacionado lejanamente con ellos. Esta medición precisa de la distribución de “molinetes” ha requerido el desarrollo de nuevos filtros para “suavizar” el ruido en las imágenes del córtex; no entraré en los detalles.

Lo más sorprendente que han encontrado Kaschube y sus colegas es que la densidad media de molinetes por λ² es constante para estas tres especies, un número curioso, π, con un error del orden del 1%. El promedio es de 3’14 y el intervalo de valores observado es [3’08, 3’20] con un nivel de confianza del 95%; este intervalo corresponde a π ± 2%. El análisis de mapas de orientación generados de forma aleatoria indica que el valor esperado debería ser 3’50, mucho mayor que 3’14. ¿Qué es lo que significa que la densidad sea π? y ¿por qué la densidad de “molinetes” es π? Kaschube y sus colegas han encontrado una respuesta matemática realmente hermosa. Fred Wolf, autor principal del artículo, lleva muchos años desarrollando un modelo matemático para la formación de los patrones observados en el mapa de orientación neuronal utilizando autómatas celulares. Sistemas basados en reglas en las que una neurona elige su orientación preferida en función de lo que elige las neuronas que tiene a su alrededor. El modelo se basa en dos parámetros la orientación preferida y la selectividad. Estas variables se desarrollan a través de interacciones mutuas entre neuronas vecinas. Para obtener un valor de pi es necesario incorporar una interacción de largo alcance (entre neuronas alejadas por una distancia mayor que el periodo λ); estas interacciones existen en la región V1 y corresponden a conexiones sinápticas de larga distancia entre las neuronas. No entraré en los detalles de las reglas que resultan en que la distribución de “molinetes” presenta una propiedad de universalidad caracterizada por una densidad igual a π (en las simulaciones numéricas es un valor próximo). La universalidad observada en la organización de las neuronas del córtex visual aparece en líneas evolutivas divergentes; sin embargo, los mapas de orientación varían aparentemente al azar de una célula a otra, por lo que su origen exclusivo en la genética no parece razonable.

Por supuesto, estos modelos teóricos para el desarrollo de patrones en el neurocórtex están todavía en sus primeras fases de desarrollo y hay muchas incógnitas aún por resolver para que se pueda afirmar que se entienden en completo detalle desde el punto de vista matemático. La demostración experimental definitiva de que estos modelos son correctos requiere que se eliminen de alguna forma las conexiones de largo alcance entre neuronas durante el desarrollo del cerebro y que se pueda observar cómo entonces los patrones que se observan en lugar de tener un distribución determinada por el número pi adquieran un valor más próximo a 3’50. Por ahora parece difícil que se pueda lograr en los próximos años. Los alardes técnicos que se requieren parecen excesivos. Aún así, Wolf, Kaschube y sus colegas no cejaran en su empeño en demostrar que pi forma parte de nuestra manera de ver el mundo mucho más allá de lo que podemos imaginar.

VIII Carnaval de Matemáticas: La paradoja de Banach-Tarski y el axioma de elección

Esta tira cómica de Xkcd nos ilustra la paradoja de Banach-Tarski y nos recuerda la necesidad de usar el axioma de elección en su demostración. Sin embargo, el teorema de Banach-Tarski se puede demostrar sin utilizar el axioma de elección, basta usar el teorema de Hahn-Banach, que equivale a una especie de versión débil del axioma de elección. Os recuerdo a los despistados que el teorema de Banach-Tarski afirma que se puede dividir una esfera en un conjunto finito de partes disjuntas (conjuntos no medibles según Lebesgue) que pueden ser rotadas, trasladadas y vueltas a unir para dar lugar a dos esferas idénticas a la original. Este teorema se suele demostrar utilizando el axioma de elección. Los interesados pueden encontrar una demostración magistralmente simple del genial Terence Tao en su exposición “The Banach-Tarski Paradox,” Classroom Notes, UCLA, 2004. Sin embargo, el axioma de elección no es necesario. Se puede demostrar el teorema de Banach-Tarski utilizando el teorema de Hahn-Banach como demostró Janusz Pawlikowski (1991) como corolario trivial de la demostración de Matthew Foreman y Friedrich Wehrung (1991) de que dicho teorema implica la existencia de conjuntos que no son medibles según Lebesgue. Quizás debemos recordar que el axioma de elección implica el teorema de Hahn-Banach, que se puede demostrar utilizándolo, pero no al contrario, ya que el teorema de Hahn-Banach puede ser demostrado sin utilizar el axioma de elección. No he podido resistir la tentación de hablar del teorema de Banach-Tarski como mi contribución a la VIII Edición del Carnaval de Matemáticas organizado este mes por Juan Martínez-Tébar, “Los Matemáticos no son Gente Seria.” Quizás es una contribución muy técnica, pero es que Claudi y Tarski me recuerdan (gracias a Google) el artículo Enric Trillas y Clausi Alsina, “Logic: going farther from Tarski?,” Fuzzy Sets and Systems 53: 1-13, 1993 (el título promete más de lo que ofrece el artículo pero eso es lo de menos aquí).

El axioma de elección nos dice que si tenemos un conjunto no vacío, X, entonces para cada subconjunto no vacío S de X es posible elegir algún elemento s de S. Esto es, existe una función f que asigna a cada conjunto no vacío S de X un representante f(S) en S. Puede parecer un resultado matemático “obvio” (o intuitivo), pero cuando hablamos de conjuntos arbitrarios, cuyo cardinal puede ser infinito, lo obvio a veces no es tan obvio. Lo más curioso es que es un resultado matemático que no se puede demostrar (salvo a partir de algún resultado equivalente, como que todo espacio vectorial tiene una base). Por ello se denomina axioma. Más aún, este axioma es independiente del resto de los axiomas de la matemática (la aritmética de Zermelo-Fraenkel, por ejemplo), como demostró Paul J. Cohen en 1963 (Medalla Fields en 1966 por ello) utilizando ideas previas de Kurt Gödel (circa 1935-1938). Los matemáticos constructivistas prescinden del axioma de elección y desarrollan una matemática completa y consistente sin utilizarlo para nada, una matemática que, para sorpresa de muchos, es casi idéntica a la matemática que lo utiliza. Aún así, muchos creen que para todo teorema demostrado utilizando el axioma de elección, si existe su demostración sin dicho axioma, esta última es mucho más complicada que la primera. Aunque no siempre es así.

Antes de presentar la prueba de Terence Tao, un breve comentario sobre Terry. Tao obtuvo la Medalla Fields en 2006 en el ICM de Madrid y sigue siendo una referencia todoterreno en la matemática actualidad. Terry es el matemático bloguero por excelencia y su blog “What’s New” es editado todos los años en forma de libro por la American Mathematical Society. Si eres matemático, te recomiendo dicho blog, la mayoría de las veces muy técnico, pero siempre con grandes ideas de las que disfrutar.

Al grano. El grupo de Lie de las rotaciones en el el espacio tridimensional, SO(3), es un grupo continuo cuyo cardinal es infinito no numerable (hay tantas rotaciones en el espacio como valores reales posibles para tres ángulos). SO(3) contiene subgrupos G cuyo cardinal es infinito numerable (cuyas rotaciones tienen un subíndice natural, un número como 1, 2, 3, …). La primera versión del teorema de Banach-Tarski afirma que existe un subgrupo numerable G de SO(3) que se puede partir en cuatro trozos (subconjuntos disjuntos), convenientemente rotados, permiten construir dos copias idénticas de G cada una formada solo por dos de dichos trozos. En símbolos podemos escribir el siguiente teorema

Teorema: Existe un subgrupo numerable G of SO(3) con una partición G=G1∪G2∪G3∪G4, y dos rotaciones A,B en SO(3) tales que G=G1∪ AG2 y G=G3∪ BG4.

Demostración: Lo primero que se necesitan son dos rotaciones A y B tales que el subgrupo G de SO(3) generado por las cuatro rotaciones A, B, A-1, B-1 sea un subgrupo de cardinal numerable no finito; este subgrupo está formado por I, A, B, A-1, B-1, AB, AB-1, BA, BA-1, B-1A, B-1A-1,AAB, AAB-1, etc., por todas las “palabras” con un número arbitrario de “letras” formadas por las cuatro “letras” A, B, A-1, B-1. Es muy fácil encontrar dos rotaciones tales que no hay dos “palabras” iguales en este conjunto de “palabras” (los detalles y el álgebra los postergaremos al final de esta entrada para no “ensuciar” la demostración).

Llamemos G(A) a todos las “palabras” de G que empiezan con A (es decir, por I, A, AB, AB-1, AAB, AAB-1, ABA, ABA-1, etc.); ídem para G(B), G(A-1) y G(B-1). Obviamente, el grupo G se puede partir de la forma G={I}∪G(A)∪G(B)∪G(A-1)∪G(B-1), donde por {I} se denota el grupo trivial formado solo por el elemento identidad. Ahora viene la sorpresa. El grupo G también se puede escribir como G=G(A)∪ AG(A-1), ya que todas las “palabras” de G empiezan por A o son una palabra que se obtiene de quitarle la A-1 inicial a una palabra de G(A-1), es decir, pertenecen a G(A) o a AG(A-1).  De igual forma G=G(B)∪ BG(B-1).

Casi hemos acabado, pero no hemos acabado aún, ya que hemos partido G en 5 partes y hemos obtenido dos copias de G usando solo cuatro de dichas partes, pero queríamos partir G en cuatro partes. Necesitamos añadir la identidad a G(A) para que se transforme en G1. Piensa un poco, si quieres, pero la respuesta es muy fácil, bastan palabras por la inversa de A, de tal forma que G1=G(A)∪{ I, A-1, A-2, A-3, …}, y G2=G(A-1)\{A-1, A-2, A-3, …} (el operador \ es la diferencia de conjuntos). Obviamente, G3=G(B), G4=G(B-1), y ya hemos acabado la demostración.

El teorema anterior no requiere el axioma de elección, pero el siguiente corolario, que extiende dicho resultado del grupo de rotaciones numerable G a la esfera S² sí requiere su uso.

Corolario (paradoja de Hausdorff):  Existe un subconjunto numerable C de la esfera S² y una descomposición S²\C = Ω1∪ Ω2 ∪ Ω3∪ Ω4 tal que S²\C = Ω1∪ AΩ2 ∪ Ω3∪ BΩ4, para dos matrices de rotación A, B en SO(3).

Demostración: Sean A, B, G, G1, G2, G3, y G4 los mismos que en el teorema anterior. Cada rotación en G tiene dos puntos fijos en la esfera S² (la intersección en S² de su eje de rotación); sea C la unión de todos estos puntos fijos (obviamente un subconjunto numerable de S²). El grupo de rotación G actúa de forma libre sobre S²\C  (es decir, para todo x en dicho conjunto y g en el grupo, la ecuación gx=x tiene como única solución g=I, la identidad). Tomemos el subconjunto X de S²\C obtenido tomando un representante en S²\C de cada órbita del grupo G, entonces el axioma de elección nos permite obtener un recubrimiento S²\C = ∪x Gx (donde la unión es para todos los x en X); recuerda que la órbita Gx son todos los elementos que se obtienen de aplicar cualquier elemento g de G a x. Ahora tomando por definición Ωi = ∪x Gix, el corolario queda demostrado a partir del teorema anterior.

El conjunto numerable C puede ser eliminado utilizando el siguiente lema.

Lema. Sea C un subconjunto numerable de la esfera S². Entonces existe una descomposición S² = Σ1 ∪ Σ2, tal que S²\C = Σ1 ∪ R Σ2, para alguna rotación R en SO(3).

Demostración: Tomemos una rotación aleatoria R. Como C es numerable, podemos asegurar con probabilidad igual a la unidad que cualquier par de elementos de C pertenece a R-órbitas diferentes, es decir, Ri ∩ Rj = Ø, para i ≠ j. Eligiendo Σ2= C ∪ RC ∪ R²C ∪ …, y Σ1= S²\Σ2, obtenemos el resultado que queríamos demostrar.

Combinando este lema con el corolario anterior obtenemos un nuevo corolario.

Corolario. Existe una partición de S² = Γ1 ∪ Γ2 ∪ … ∪ Γ8, y matrices de rotación R1, R2, … R8 de SO(3) tales que S² = ∪i Ri Γi = ∪j Rj Γj donde i=1,2,3,4 y j=5,6,7,8.

Finalmente, como la bola (esfera sólida) B³ (la bola sin su punto central) en coordenadas polares corresponde al producto de la esfera S² y el intervalo (0,1], se puede concluir lo siguiente.

Corolario (paradoja de Banach-Tarski). Existe una partición de la bola B³ = E1 ∪ E2 ∪ … ∪ E8, y matrices de rotación R1, R2, … R8 de SO(3) tales que B³ = ∪i Ri Ei = ∪j Rj Ej donde i=1,2,3,4 y j=5,6,7,8.

En la demostración original de la paradoja de Banach-Tarski se elimina el problema de que el centro de la bola no esté incluido gracias al uso de traslaciones, además de rotaciones (los llamados movimientos en el espacio). Tao nos deja completar la prueba para este caso como ejercicio. Ahora bien, os lo ahorraré ya que para la “duplicación” de la calabaza en la tira cómica de Xkcd basta este resultado (las calabazas de Halloween son huecas).

Este resultado matemático puede resultar paradójico pero es importante recordar que alguno de los conjuntos Ei tiene que ser no medible según Lebesgue, lo que quiere decir que es un conjunto similara a un fractal, un conjunto muy intrincado y difícil (si no imposible) de imaginar. Los conjuntos que no son medibles según Lebesgue son “bestias” o “monstruos” más allá de lo que nuestra imaginación (no matemática) puede alcanzar.

Ahora para acabar nos quedaría demostrar que existen la rotaciones A,B en SO(3) que utilizamos en el teorema. Lo más sencillo es escribir dos ejemplos concretos de forma explícita: A será la matriz de rotación respecto al eje z con un ángulo θ tal que cos(θ)=3/5 y sin(θ)=4/5; y B es la matriz de rotación respecto al eje x también con un ángulo  θ tal que cos(θ)=3/5 y sin(θ)=4/5; sus inversas  A-1 y B-1 son obviamente las matrices correspondientes a un ángulo -θ (las matrices 3×3 traspuestas de las anteriores). Es fácil demostrar que ninguna composición no trivial de estas cuatro matrices da la identidad; el secreto es que los números 3, 4 y 5 son primos entre sí. Eliminando el denominador común, basta probar que ninguna composición no trivial de 5A, 5B, 5A-1 y 5B-1 da una matriz divisible entre 5. Un resultado casi obvio que dejamos al lector, para que piense un poco.

Con esto damos por terminada nuestra pequeña incursión matemática en la paradoja de Banach-Tarski. Espero no haber aburrido a los que odian la matemática porque no la entienden y tampoco a los que la aman porque las demostraciones hayan sido demasiado técnicas. Pero un Carnaval de Matemáticas bien merece algún que otro artículo que haga una incursión técnica en las paradojas para la intuición que atesora el Gran Libro de las demostraciones de Erdös.