Cómo enseñar a los adolescentes a derivar sin utilizar límites

Newton y Leibniz derivaban funciones sin utilizar el concepto de límite. Concepto que hasta Cauchy no se popularizó. Sin embargo, hoy en día pretendemos que los adolescentes aprendan a derivar tras saber calcular límites. Les pedimos que ricen el rizo y aprendan un concepto “difícil” de principios del s. XIX para dominar un concepto “fácil” de finales del s. XVII. Les complicamos la vida. Más tarde el alumno se da cuenta que derivar es muy fácil. Aprenderse una pocas reglas sencillas y aplicarlas directamente. Y el alumno se pregunta ¿para qué me habrán enseñado el concepto de límite? Parece fácil la respuesta, para complicarle la vida al alumno. Ni más ni menos. ¿Se puede enseñar a calcular derivadas directamente? Por supuesto que sí, como ya se hizo durante más de un siglo. Nos lo recuerda, porque a veces es necesario que nos recuerden lo obvio, Michael Livshits, “You could simplify calculus,” ArXiv preprint, Submitted on 22 May 2009 .

Un profesor (P) le pide a un alumno (A) que calcule la derivada de x^4 en el punto x = a. El estudiante, inteligente donde los haya, escribe el siguiente cociente de diferencias \frac{x^4 - a^4}{x - a}, tras ello, factoriza el numerador y lo reescribe como \frac{(x - a) (x + a) (x^2 + a^2)}{x - a} , cancela los x - a, y obtiene como resultado (x + a) (x^2 + a^2), donde substituye x = a para obtener finalmente 4 a^3, que es la respuseta correcta, por supuesto. Al profesor no le gusta esta solución y discute con su alumno como sigue:

P: Tu respuesta es correcta, pero ¿por qué no has utilizado la definición de la derivada como un límite? Estas estudiando un curso de cálculo, debes hacerlo como hay que hacerlo.

A: ¿Realmente hay que utilizar límites? Me parece una pérdida de tiempo, es mucho más fácil simplificar  y substituir x = a. Me parece más elegante. it looks like it works fine.

P: ¿Pero entiendes por qué funciona?

A: Hmmm, veamos. Creo que funciona porque el límite de (x + a) (x^2 + a^2) para x \rightarrow a es 4 a^3, por tanto, en lugar de calcular el límite podemos introducir directamente x = a en (x + a) (x^2 + a^2).

P: ¿Cómo se llaman las funciones a las que les puede subsituir x = a directamente en lugar de calculando su límite en a?

A: ¿Función continua en a? Sí, ya me acuerdo.

P: ¡Correcto! Debes saber que los matemáticos diferenciaban polionomios, raíces cuadradas, y funciones trigonométricas en el s. XVII, mucho antes de que se inventaran los conceptos de función continua y los límites  en el s. XIX. ¿Por qué no tratas de derivar a tu manera las siguientes funciones: \sqrt[3]{x}, y \frac{x^2}{3 + x^3} ?

A: Vale, lo haré. Creo que seré capaz de lograrlo.

Estimado lector, si eres aficionado a las matemáticas, ¿te atreves a lograrlo?

Te ayudaré un poco. ¿Cómo podemos calcular la derivada de \sqrt{x}. Podemos escribir el cociente de diferencias \frac{\sqrt{x} - \sqrt{a}}{x - a} y tratar de hacer que esta expresión tenga sentido bajo la sustitución x = a. ¿Cómo lograrlo? Podemos reescribir el denominador como (\sqrt{x})^2 - (\sqrt{a})^2 y factorizarlo como (\sqrt{x} - \sqrt{a}) ( \sqrt{x} + \sqrt{a}), de manera que \frac{\sqrt{x} - \sqrt{a}}{x-a}=\frac{\sqrt{x}-\sqrt{a}}{(\sqrt{x}-\sqrt{a})(\sqrt{x}+\sqrt{a})}=\frac{1}{\sqrt{x}+\sqrt{a}}, expresión que tiene sentido al hacer x=a, resultando en la respuesta correcta (\sqrt{x})' = 1 / (2 \sqrt{x}).

Lo dicho, estimado lector, te atreves a emular esta proeza con \sqrt[3]{x}, y \frac{x^2}{3 + x^3}.

Las conclusiones de los autores del ranking de universidades españolas

El Mundo publica una clasificación de las universidades españolas por carreras, todos los años. Este año El País publica la clasificación de las universidades españolas del Instituto de Análisis Industrial y Financiero (IAIF) de la Universidad Complutense de Madrid. Cada uno es completamente diferente. Yo creo que lo más interesante del estudio no es el ranking sino las conclusiones que han obtenido los que han realizado el estudio a partir del ranking. Permitidme resumirlas (el documento .doc tiene 153 páginas).

Antes de nada, os recuerdo que en este tipo de estudios la costumbre en España es extralimitarse a la hora de extraer conclusiones. ¿Realmente se puden obtener del estudio las siguientes conclusiones?

“El trabajo está basado en la metodología del análisis factorial que sintetiza la información de las variables altamente correlacionadas en un indicador compuesto, hipotético y no observable. También se puede resaltar que todos los indicadores son de carácter relativo, evitando así posibles derivados del tamaño de cada institución.”

La posición de cada universidad en el ranking no es lo más importante. Lo relevante es el valor real del índice, reflejado aquí como distancia relativa respecto al líder. En muchos casos, la diferencia entre universidades es de unos pocos puntos o incluso centésimas de punto.”

“La gran mayoría de los planes de estudios propuestos recientemente para adaptar la universidad española a las exigencias de “Bolonia” se basa en acuerdos que reflejan el poder de los departamentos a los que se adscribe el profesorado, mientras que los posibles análisis o estudios con respecto a las necesidades futuras de conocimientos y habilidades de los estudiantes apenas se consideran.”

Una evaluación obligatoria (del profesorado) que influya en los complementos salariales (los quinquenios) y en el acceso a plazas de promoción, podría incentivar a los profesores para dedicarse con más ímpetu a sus actividades docentes.”

Un sistema de universitario donde la excelencia ha perdido importancia y donde la descentralización de la educación no ha estado acompañada de un nivel mínimo de control por parte del Estado. Falta control de calidad y autocrítica de escuelas, institutos y universidades.”

La selección del personal docente e investigador es un proceso poco transparente. En cuanto a los requisitos generales para poder ser acreditado se debería exigir un nivel mínimo de inglés, publicaciones en revistas indexadas en el ranking JCR, y unas evaluaciones docentes positivas (excepto para la acreditación de profesor ayudante). Los procesos de selección deberían garantizar la transparencia mediante el uso obligatorio de internet para publicar de forma instantánea todas las decisiones y avisar a los candidatos por correo electrónico de las mismas.”

“La calidad de las tesis doctorales en España es muy diversa, lo que no se refleja en su calificación al ser costumbre que los doctorandos obtengan de forma generalizada un “cum laude”. Se deben valorar las diferencias en su calidad. [Debería ser obligatoria] para poder leer la tesis doctoral la publicación previa de los resultados en revistas de prestigio internacional dentro el campo científico del tema de la tesis. El número de “cum laúdes” se [debería] limitar a un 10 por ciento y el máximo número de sobresalientes a un veinticinco por ciento. Estos requisitos permitem a los que contratan a estos investigadores que pueden valorar su nivel académico real.”

“Otro problema que afecta a la calidad de las universidades es el bajo nivel salarial de los profesores. Un aumento generalizado de los salarios no tiene en cuenta que la productividad de un amplio conjunto de profesores es mínima, por lo que los cambios retributivos deben asociarse a la productividad.”

“La excelencia ha de ser el requisito central para progresar en la universidad sustituyendo al apadrinamiento [“enchufismo”] que actualmente domina la carrera académica. Se requiere el establecimiento de incentivos financieros que discriminen las instituciones académicas en función de su productividad y su calidad.”

No sé el porqué pero a mí la última frase es la que me resulta más reveladora. El puesto en el ranking no importa, pero eso sí, mide muy bien la productividad en docencia e investigación de cada universidad, habría que financiar a cada universidad por su productividad en docencia e investigación, entonces ¿importa el puesto?

Autores del estudio: Mikel Buesa (el “jefe” y, se le ve el plumero, también el “comentarista”) y Joost Heijs y Omar Kahwash (los “curritos”).

PS (26/mayo/2009): Noticia y comentarios en Menéame (sin desperdicio) “La universidad pública apuesta por la investigación; la privada, por la docencia,” =>”Ninguna universidad española está entre las 100 mejores del mundo. Hay que rebuscar, incluso, para encontrarlas entre las grandes europeas. Pero, ¿cómo se relacionan entre ellas? ¿Cuál es la mejor universidad de España? El Instituto de Análisis Industrial y Financiero (IAIF) de la Universidad Complutense de Madrid acaba de elaborar un listado que evalúa docencia e investigación en las 69 universidades presenciales de España. Entre las 25 mejor clasificadas, una privada, la que encabeza el ranking, la Universidad de Navarra.”

La materia oscura galáctica puede ser debida a que las galaxias no son neutras

¡Qué chorrada! Todo el mundo sabe que las galaxias son eléctricamente neutras. Hagamos los cálculos. Si el superagujero negro en el centro de nuestra Vía Láctea emitiera un flujo radial de protones, el campo eléctrico resultante generaría energía, es decir, masa, que introduciría un término gravitatorio adicional a la fuerza newtoniana. ¿Qué predice dicho término? Lo mismo que la materia oscura. La masa “perdida” de la galaxia es del mismo orden de magnitud que la gravedad introducida por la energía total del campo eléctrico generado por el flujo de protones. ¿Una broma? No, solo un propuesta de Kenneth Dalton, “The Missing Mass of the Milky Way Galaxy,” ArXiv preprint, 22 May 2009 .

Un flujo de protones que genera un campo eléctrico cuya energía “pesa” como 10^10 masas solares. La galaxia es muy grande. El flujo de protones cerca del núcleo galáctico tiene que ser del orden de 2 × 10^−13 cm^−3 y algo menor a la distancia a la que se encuentra el Sol del orden de 10^(-16) cm^−3. ¿Mucho o poco? Un millón de veces menor que el flujo de rayos cósmico estimado que incide en la atmósfera terrestre (cuyo origen fundamental es el Sol), de unos 10^(-10) cm^-3. El número de protones que abandanorían el halo de nuestra galaxia sería de 0.5 ×10^(41) protones seg^(-1). Un flujo tan grande se “comería” toda la materia de la galaxia. Sí, salvo que la energía de los protones emitidos en el centro galáctica fuera menor que 10^18 eV.

Números razonables. ¿Dónde está la trampa? ¿Cómo es que nadie se había dado cuenta antes? 

Abstract: A model is proposed in which cosmic ray protons flow radially through the galaxy. The resulting electric field energy creates a gravitational force, in addition to the conventional Newtonian force. The model yields a rotation curve that agrees well with observation. In particular, it predicts the flat velocity profile found in the outer fringe of the galaxy. The total electric field energy is calculated. It is the missing mass of the galaxy.

El arte de “colar” un artículo “basura” en una revista internacional de “prestigio”

Las revistas internacionales han crecido en volumen una barbaridad. Tanto han crecido que lograr la revisión de sus artículos por especialistas es cada vez más difícil. El resultado, muchos revisores son “aficionados.” Bueno, perdón. Jóvenes investigadores sin el peso de los años sobre sus hombros. ¿Pasa algo? No, todo lo contrario. Bueno, ¿o sí? Se está “colando” una cantidad de “basura” increíble. Realmente descomunal. ¿Qué pasa si esos “malvados graciosos” que generan artículos automáticamente mediante páginas web logran colar un artículo “basura” en una revista internacional? Nada de nada. A nadie le importa. Todo el mundo hace la vista gorda y ¡adiós buenas! Hay decenas de ejemplos pululando por internet. ¿Qué pasa si un investigador escribe un artículo “basura” que envía a tantas revistas como sea necesario hasta que logra “colarlo” y que se lo publiquen? Absolutamente nada. Todo lo contrario, un gran investigador es por colarlo haberlo ha (como diría el maestro “Joda”).

Dibujo20090521_cover_Elsevier_Applied_Mathematics_ComputationUn ejemplo tristemente famoso es el artículo del israelí Rohollah Mosallahnezhad, “Cooperative, Compact Algorithms for Randomized Algorithms,” aceptado para publicación en la revista de Elsevier Applied Mathematics and Computation, cuyo editor principal es John L. Casti (y donde yo he publicado más de un artículo). Afortunadamente, los autores (“malvados graciosos”) se retractaron y el editor lo “borró” (aunque ya tenía DOI). ¿Autores o autor? ¿Por qué se retractaron los autores? El artículo había sido generado por el programa SCIgen que genera artículos aleatoriamente. ¿Qué hubiera pasado si los autores no hubieran informado al Dr. Casti de su “broma”?

Por cierto, todo esto fue en noviembre de 2007. En diciembre de 2007 el Dr. Casti aprovechó para jubilarse. Desde enero de 2008 la revista tiene un nuevo editor principal Melvin Scott. ¿Dignidad? ¿Dimisión? ¿Pura casualidad? Quizás solo el peso de los años sobre sus hombros.

No es un problema de EL$EVIER, también se la han colado a las publicaciones de IEEE, por ejemplo. Lo que pasa es que Elsevier es muy grande y los problemas en Elsevier son más “vistosos” que en editoriales más pequeñas. Buscando en Google <site:linkinghub.elsevier.com “Withdrawn Article in Press”> aparecen 1020 entradas. Más de mil artículos. ¿Cuántos serán producto de “malvados graciosos”?

Otro ejemplo. Elsevier publicó 6 revistas entre los años 2000 y 2005 que estaban “financiadas” por compañías farmacéuticas “anónimas” que aparecían como revistas médicas con revisión por pares y lograron alcanzar índice de impacto en el JCR del ISI. En concreto “Australasian Journal of General Practice,” “Australasian Journal of Neurology,” “Australasian Journal of Cardiology,” “Australasian Journal of Clinical Pharmacy,” “Australasian Journal of Cardiovascular Medicine,” “Australasian Journal of Bone & Joint [Medicine].” Nos lo cuenta Bob Grant, “Elsevier published 6 fake journals,” TheScientist.com, 7 May 2009 , quien muestra evidencia de que el “Australasian Journal of Bone and Joint Medicine,” es una publicación pagada por la compañía farmacéutica Merck (y publica muchos artículos “científicos” favorables a los productos de la propia Merck).

¿A alguien le importan estas cosas? Cuando encuentras un artículo por Internet publicado en una revista internacional con índice de impacto, ¿te cuestionas si es “basura” o no? ¿Te crees todo lo que lees en revistas impactadas? ¿Te crees todo lo que lees en este blog? A la Mula Francis también se le cuela mucha “basura,” faltaría más.

El problema de suponer lo que se quiere demostrar en neurociencia

Dibujo20090524_Circular_analysis_dangers_double_dipping

En muchos experimentos neurocientíficos se obtienen una cantidad enorme de datos pero sólo se analizan en detalle una cierta fracción, normalmente pequeña, en la que se basan los resultados que acaban siendo publicados. La selección de estos datos puede producir un análisis circular (en el que las hipótesis distorsionan los resultados). En dicho caso, el análisis estadístico “riguroso” realizado está sesgado e invalida los resultados obtenidos. En particular, el uso de las mismos datos para inferir los resultados y para validar el modelo (el proceso llamado “double dipping“) invalida completamente los resultados estadísticos obtenidos (que asumen la independencia entre ambos conjuntos de datos). Este problema nos lo demuestran en el contexto de las neurociencias, Nikolaus Kriegeskorte, W Kyle Simmons, Patrick S F Bellgowan, Chris I Baker, “Circular analysis in systems neuroscience: the dangers of double dipping,” Nature Neuroscience 12: 535-540, May 2009 . Los autores nos ofrecen varios ejemplos de las “trampas” que nos pone la estadística y algunas ideas (políticas) sobre cómo evitar este problema (mucho más común de lo que parece en las ciencias en el borde entre “lo natural y lo social,” como es el caso de las neurociencias).

La figura ilustra claramente el problema. La fila de arriba (a)  nos recuerda que el resultado refleja los datos solo indirectamente, gracias a un prisma (el análisis) que requiere ciertas hipótesis. La fila del medio (a) ilustra cómo las hipótesis pueden interactuar con los datos para dar forma al resultado. Idealmente (en medio izquierda), los resultados reflejan ciertos aspectos de los datos (azul) sin ninguna distorsión (aunque las hipótesis determinan qué aspecto de los datos se refleja en el resultado). A veces (en medio centro), una inspección detallada del análisis realizado muestra que hay datos que se han perdido en el proceso y que las hipótesis (rojo) predeterminan los resultados. En dicho caso el análisis es completamente circular (la línea roja punteada). Más a menudo en la práctica (en medio derecha) tanto las hipótesis como los datos predeterminan el resultado (morado), no sólo las hipótesis, los datos también influyen en cierto grado. ¿Cuáles son las causas de esta circularidad argumental o deductiva? La fila de abajo (b) muestra las 3 causas más comunes: el criterio utilizado para seleccionar los datos (izquierda), la técnica de promediado y clasificación de los datos utilizada (centro) y los criterios utilizados para ordenar los datos  (derecha). Estas 3 causas reflejan las hipótesis utilizadas (rojo), distorsionando las estimaciones e invalidando el análisis estadístico realizado.