|
|
Matemáticas y realidad
(artículo publicado en Laberintos nº 2 - diciembre 2000 revista cultural del IES Elaios de Zaragoza)
Si preguntamos “¿por qué son necesarias las Matemáticas?”
recibiremos en general una vaga respuesta, del tipo “porque
desarrollan la capacidad de pensar”. La misma que obtendríamos si
preguntásemos por qué es instructivo el juego del ajedrez. En tal caso,
¿por qué no jugar al ajedrez en lugar de aprender Matemáticas?. Decía
Miguel de Unamuno (1864-1936) que, efectivamente, el ajedrez desarrolla la
capacidad de pensar ... pero sólo para ganar partidas de ajedrez. Se
supone que las Matemáticas no son un juego cerrado, sino que nos permiten
comprender y actuar sobre la realidad, de modo que los conocimientos matemáticos
tienen universalidad.
Este paradigma de las Matemáticas como intérprete de la realidad
ha tenido a lo largo de la historia argumentos diferentes, incluso
contrapuestos. Como veremos, cada enfoque se vio sobrepasado por la
irrupción de nuevos aspectos de la realidad, provocando, mediante
rupturas epistemológicas, un conocimiento cada vez más profundo.
EXPLICAR EL MUNDO CON NÚMEROS
El mito y la religión siempre han apaciguado nuestros temores ante
lo desconocido. A medida que la racionalidad conquistaba parcelas en la
comprensión del mundo se creyó desvelar su secreto y se confirió a ese
saber una totalidad religiosa. Los pitagóricos (s. VI a.C.) soñaron un
universo regido por los números enteros donde la elevación del alma se
conseguiría por medio de las Matemáticas.
“Todas las cosas que pueden ser conocidas tienen número, pues
no es posible que sin número nada pueda ser conocido ni concebido...”
(Filolao).
La evidencia de segmentos incomensurables (diagonal del cuadrado de
lado unidad) y de problemas que se intuían irresolubles (cuadratura del círculo,
duplicación del cubo y trisección del ángulo) mostraba la insuficiencia
de la aritmética simple de los números enteros (equivalente en geometría
a las construcciones con regla y compás). Al constatar en el mundo real
de las figuras geométricas la presencia de medidas que no pueden
obtenerse como cociente de números enteros (hoy números irracionales),
se rompía la cosmología pitagórica.
La maldición esperaba a quien, aceptando estos números
subversivos, perturbase la música de las esferas que escuchaba Pitágoras
en el silencio de la noche: “Es fama que el primero en dar al dominio
público la teoría de los irracionales pereciera en un naufragio, y ello
porque lo inexpresable e inimaginable debería siempre haber permanecido
oculto. En consecuencia, el culpable, que fortuitamente tocó y reveló
este aspecto de las cosas vivientes, fue trasladado a su lugar de origen,
donde es flagelado a perpetuidad por las olas” (Escolio del libro X
de los Elementos de Euclides, atribuido al filósofo Proclo
Diadoco).
Uno de esos números, el irracional
F = (1 + raíz 5) / 2 , ha sido curiosamente el portador hasta nuestros días de
cierto pitagorismo. El canon clásico de belleza adoptado por escultores,
pintores y arquitectos, desde Praxiteles (s. IV a.C.), pasando por
Leonardo Da Vinci (s. XV) hasta Santiago Calatrava (s. XX), utiliza
repetidamente como figura básica para las composiciones el “rectángulo
áureo”. En este rectángulo, el cociente del lado mayor entre el lado
menor es M,
llamado el “número de oro”.
Ese canon estético sería sólo un convenio, un hecho cultural,
sino fuera porque aparece una y otra vez en la Naturaleza: como la razón
entre los radios crecientes en las espirales de las caracolas; o entre los
números de miembros de las sucesivas generaciones a partir de una pareja
de palomas; o entre los segmentos de una flor; o entre las espirales de
una piña, etc. En todos esos casos se obtiene el “número de oro”.
Hay por lo tanto una extraña coincidencia entre observaciones del mundo
natural y reglas de la estética formal. Ello hace pensar que en realidad
se trate de dos caras de la misma moneda: la ley que rige la armonía de
las cosas, la “divina proporción”, según Luca Pacioli (1445-1517).
El ideal griego fue recuperado en el Renacimiento y asimilado a la
figura judeocristiana del creador-legislador divino. En los albores de la
ciencia experimental, Galileo (1564-1642) es pionero en el estudio de la
dependencia funcional entre magnitudes variables, al relacionar las
distancias y tiempos de caída de un móvil. Formulando matemáticamente
las relaciones entre magnitudes físicas, la Ciencia describiría las
leyes que rigen el mundo: “ El gran libro del Universo está
continuamente abierto ante nuestros ojos. Pero no se puede descifrar si
antes no se comprende el lenguaje y se conocen los caracteres en que está
escrito. Está escrito en lenguaje matemático ... sin ello deambulamos
vanamente por un oscuro laberinto” (Saggiatore. Galileo
Galilei).
La imagen mecanicista iniciada con Galileo alcanzó su apogeo en el
siglo XVII con Newton, Huygens, Boyle, etc. y desarrolló el “método
científico”. Este método ha sido “la técnica más segura ideada
por el hombre para controlar el flujo del azar y establecer creencias
estables” (Nagel y Cohen) y ha tenido como consecuencia las
tecnologías, transformadoras de nuestras vidas. Pero no consiguió
eliminar en todos los casos la incertidumbre, un elemento ineludible en
nuestra experiencia de la realidad.
AZAR Y CONOCIMIENTO
Según esa experiencia, la repetición de un fenómeno bajo las
mismas condiciones no siempre conduce a los mismos resultados. En tal
caso, decimos que se trata de un fenómeno aleatorio, cuyos posibles
resultados son más o menos probables. Pero el azar, ¿existe en sí o su
admisión simplemente da, en palabras de Poincaré (1854-1912), “la
medida de nuestra ignorancia”?.
El afán del científico que busca la comprensión universal se
refleja en estas palabras escritas por Pierre Simon de Laplace
(1749-1827): “Supongamos por un momento una inteligencia que pudiera
comprender todas las fuerzas que animan la naturaleza y su respectiva
situación, junto con la de los seres que la componen -una inteligencia lo
suficientemente vasta para someter estos datos a análisis-; ésta
incluiría en la misma fórmula el movimiento de los grandes cuerpos del
universo y los de los átomos más ligeros; nada sería incierto para ella
y tanto el futuro como el pasado estarían ante sí” (Prefacio a la
“Théorie Analytique des Probabilités”. 3ª edición, 1820).
Según este parecer, la probabilidad de un suceso tan sólo sería la
asignación subjetiva que hace un individuo incapaz de comprender toda la
realidad.
La otra interpretación de la probabilidad, objetiva o empirista,
asigna a cada suceso un valor numérico que es el límite ideal de los
valores observados para su frecuencia relativa cuando el número de
observaciones es muy grande. Esto implica la convicción, paradójica en
si misma, de que el azar se ciñe a ciertas leyes.
En 1933, Kolmogorov enunció
una Axiomática que es el punto de partida de la Teoría de la
Probabilidad como una rama más de la Matemática formal. Si ésta había
sido lenguaje para el modelo determinista, también lo era para su
aparente contrario, el modelo probabilista. Pero, ¿cuál de estos dos
modelos es el “verdadero”?.
La Física Newtoniana estaba estructurada de modo tal que a partir
del estado de un sistema en un instante dado puede preverse el futuro
movimiento del sistema. Pero la descripción del movimiento de las partículas
subatómicas resultó ser imposible dentro de la Mecánica Clásica. Para
conseguirla, en el siglo XX la Mecánica Cuántica permitió la irrupción
de la probabilidad en las Ciencias Físicas.
Se suponía que la imprecisión en las mediciones se debía a la
calidad de los métodos e instrumentos usados y que, al mejorar ésta,
disminuiría aquélla. El físico alemán Werner Heisemberg (1901-1976)
enunció el Principio de Incertidumbre, al comprobar que “es
imposible medir con precisión el momento (velocidad) de una partícula al
mismo tiempo que se hace una medida igualmente precisa de su posición”;
de modo que, “cuanto más exactamente se determina la velocidad de
una partícula, tanto menos exactamente puede determinarse su posición, y
viceversa. No pueden determinarse ambas simultáneamente con la misma
precisión”, debido a la influencia que el instrumento de
observación ejerce sobre la partícula. Entonces, “podemos
distribuir como queramos la incertidumbre, pero nunca eliminarla” (La imagen de
la Naturaleza en la Física actual. W. Heisemberg, 1955).
Heisemberg llegó a acotar inferiormente el producto de los errores
posibles con la llamada “constante de Planck” (el menor paquete de
energía que se encuentra en la Naturaleza). Por mucha precisión que
logremos, nuestro error tendrá al menos ese valor. La consecuencia
inmediata es que estos movimientos carecen de una trayectoria previsible;
no pueden ser descritos de forma precisa y continua en el espacio y el
tiempo, conforme al ideal clásico. No parecen sujetos a leyes
deterministas y hay que recurrir a su control
estadístico mediante series de
observaciones puntuales. Entonces, cualquier previsión de estados futuros
deberá hacerse en términos de probabilidad. Así, las posiciones de la
partícula se representan por una variable aleatoria y suelen utilizarse
expresiones como: “la probabilidad de que el electrón se encuentre
en el intervalo [x , x+dx] es p(x)·dx”.
Albert Einstein (1879-1955) se negaba a reconocer que ésta fuera
una explicación definitiva y completa, advirtiendo que, si las
partículas constituyentes de la materia están definidas por funciones de
probabilidad, hay una pérdida del concepto de esencia individual. Sus
esfuerzos iban en sentido contrario, con la Teoría del Campo Unificado.
En carta del 7 de septiembre de 1944 escibe a Max Born (1882-1970): “Tú
crees en el Dios que juega a los dados y yo creo en la ley y en la
ordenación total de un mundo que es objetivamente y que yo trato
de captar de una forma locamente especulativa”.
Pero la descripción probabilista ha resultado ser útil para
aproximarnos al control de la realidad. “Hemos aprendido ya a vivir
contando con el azar; hemos descubierto algunas de sus leyes y hemos
llegado, consiguientemente, a darnos cuenta de que el azar no es el caos”
(La Investigación Científica. Mario Bunge, 1980). LA PLURAL REALIDAD GEOMÉTRICA
Si las leyes naturales han sido expresadas en un lenguaje matemático,
con ecuaciones o con probabilidades, el propio espacio físico, escenario
de esas leyes, fue descrito geométricamente. Euclides (s. IV a.C.) en los
Elementos enuncia unos axiomas que resumen “lo evidente” de
nuestra percepción espacial. A partir de esos axiomas, que nadie podía
rebatir, se construyó la Geometría hasta el siglo XIX.
A lo largo de esos siglos se intentó reducir el conjunto de
axiomas euclídeos, pues se suponía que el Axioma V (“desde un punto
exterior a una recta sólo se puede trazar una paralela a la misma”)
podía ser demostrado a partir de los demás axiomas y, en tal caso, ser
suprimido del conjunto inicial.
El problema alcanzó su auténtica dimensión mediante su inversión.
En lugar de intentar la demostración directa, lo que suponía la admisión
del paralelismo único, se negó éste de dos formas: suponiendo que “no
hay paralelas”, en la Geometría Elíptica; o que “hay
infinitas paralelas”, en la Geometría Hiperbólica. Por
contraposición, la Geometría Euclídea se califica de Parabólica.
De esta forma se alcanzaron simultáneamente otras Geometrías No Euclídeas
(Gauss, Lobachetvski, Bolyai y Riemann) que son correctas desde el punto
de vista lógico y, como pudo saberse mucho después, también son físicamente
viables, según que se apliquen al ámbito microscópico o macroscópico.
Einstein ideó un modelo de expansión del Universo que corresponde a un
espacio-tiempo con Geometría Hiperbólica, cuya curvatura produce la
fuerza de la gravedad. Este tipo de geometría fue representado por el
artista holandés M.C.Escher (1888-1972) en el grabado “Límite circular
III”.
Si las tres geometrías son lógicamente correctas y cada una
expresa parte de la realidad, entonces la verdad en Matemáticas ya no se
establece por su total ajuste con la realidad física. La verdad matemática
residiría exclusivamente en la corrección lógica.
VERDAD SIN REALIDAD
Al romper sus ataduras con la realidad, las Matemáticas se
convierten en el s. XIX en una ciencia puramente formal. Cada teoría es
un perfecto edificio lógico construido a partir de los axiomas elegidos y
por la estricta aplicación del método hipotético-deductivo, donde llega
a acumularse una ingente cantidad de resultados cuyo alcance y significado
llegan a perderse. A este respecto, Poincaré llegó a decir: “Para
demostrar un teorema no es necesario, ni siquiera conveniente saber de qué
estamos hablando”.
El siguiente pasaje de “Alicia en el País de las Maravillas”
(Lewis Carroll, 1865) ha sido frecuentemente citado para ilustrar la
intencionalidad que subyace a la elección de una axiomática y la
eficiencia del razonamiento lógico-forma aplicado a partir de ella.
- “¿Me podrías indicar, por favor, hacia dónde tengo que ir desde
aquí?”.
-
“Eso depende de a dónde quieras llegar”, contestó el Gato.
-
“A mí no me importa demasiado a dónde...”, empezó a explicar
Alicia.
- “En ese caso da igual hacia dónde vayas”, interrumpió
el Gato.
-
“... siempre que llegue a alguna parte”, terminó Alicia a modo
de explicación.
-
“¡Oh! Siempre llegarás a alguna parte”, dijo el Gato, “si
caminas lo bastante”.
Como dijera el Gato, la Matemática había caminado lo bastante
para alcanzar un gran desarrollo. En el Congreso Internacional de París
(1900), David Hilbert (1862-1943) proclamó ante una satisfecha comunidad
de investigadores: “Toda proposición verdadera puede ser probada”.
No tardarían en sobrevenir las crisis.
Primero fue Kolmogorov quien, prescindiendo del Principio de No
Contradicción (o del Tercio Excluso: “una proposición y
su contraria no pueden ser verdaderas a la vez”), llegó a construir
una Lógica No Aristotélica, de modo semejante a la existencia de Geometrías
No Euclídeas. Entonces, si la Lógica ya no es una, tampoco lo es la
verdad lógica.
Pero la crisis más profunda, aún no cerrada, se abrió en 1931
con el Teorema de Gödel. Giuseppe Peano (1858-1932) había enunciado los
Axiomas de los Números Naturales, fundamentando así la intuición matemática
más común. Kurt Gödel (1906-1978) demostró que aceptando esos axiomas,
casi obvios, se pueden formular infinitas proposiciones indecidibles; es
decir, pueden construirse unas Matemáticas igualmente correctas si se
aceptan esas proposiciones como verdaderas o si se aceptan como falsas.
Tras Gödel queda planteada la necesidad de definir nuevamente el sentido
de la Matemática, su relación con la verdad y la realidad.
¿POR QUÉ MATEMÁTICAS?
Este complejo trayecto milenario nos devuelve a la pregunta
inicial: “¿por qué aprender Matemáticas?”. El psicólogo del
aprendizaje Jean Piaget ofrece una respuesta a partir de las estructuras
abstractas que constituyen el objeto de estudio de la Matemática actual.
Según el grupo de matemáticos Bourbaki, tres son las estructuras
matemáticas fundamentales, irreducibles entre sí, a partir de las cuales
se construyen todas las teorías. Éstas son: las estructuras algebraicas
(grupo), las de orden (retículo) y las topológicas (espacio topológico).
La Psicología Genética ha descubierto que las estructuras mentales del
niño se organizan espontáneamente en esas mismas tres categorías:
operación, orden y espacialidad. Por ello, argumenta Piaget, pensar en
Matemáticas es hacerlo sobre las estructuras del propio pensamiento. De
ahí la “naturalidad” de las Matemáticas, interiorización de la
experiencia de conocimiento humana, y de ahí que se produzca la
transferencia de los aprendizajes en el campo matemático al conocimiento
en general.
Octubre
2000 - Año Mundial de las Matemáticas José María Sorando Muzás
I.E.S.
"Elaios"
Departamento
de Matemáticas |
Espiral áurea del Nautilus
Límite circular III. M.C. Escher 1959
En el arte hispano-musulmán, la estructura de grupo rige los movimientos en el plano de la figura generadora de un mosaico. |
||
|
(C)
José María Sorando Muzás
|