¡ZAPPING 300!
INDICE - PRINCIPAL - NOTICIAS

SUMARIO DE ZAPPING

ZAPPING 0300, 21-Jun-2007
Omega
por Marcelo Dos Santos (www.mcds.com.ar)

I.- INTRODUCCIÓN

Aunque yo mismo y los demás autores que colaboran con la sección no lo podamos creer, aquí está el Zapping número 300. Aprovecho la oportunidad, entonces, para felicitar al personal de Axxón, a su infatigable director y, por supuesto, a los más de 3 millones de lectores que han honrado a esta columna con sus constantes y consecuentes visitas.

Y ya que hablamos de números, pienso, ¿por qué no festejar el tricentenario de Zapping con un artículo dedicado a uno de los problemas más difíciles y disparadores de la imaginación que pueda encontrarse en el reino de la matemática?

Aquí va, pues, mi presentación de Omega.


II.- OBERTURA: ¿UN SUEÑO DENTRO DE UN SUEÑO?

Ya los antiguos griegos creían en el determinismo, y afirmaban —con razón, a nuestros ojos de científicos modernos— que nada ocurre porque sí. En otras palabras, todo efecto tiene una causa, cada hecho una razón y cada término un origen. Nada más lógico. Los griegos aplicaron este impecable razonamiento a toda la ciencia de su tiempo, y la matemática, por supuesto, quedó también incursa en él.

El hecho de que cada cosa ocurre por una razón se conoce como Principio de la Razón Suficiente, y puede profundizarse más. No tan sólo cada cosa ocurre por una razón: además, si una cosa es cierta, es cierta por una buena razón. Hay motivos ocultos tras los hechos. Seremos capaces de desentrañar algunos y otros no, pero si algo es cierto o falso, podemos afirmar con un 100% de certeza que hay motivos válidos y operativos para que sea lo uno o lo otro.

Claro que, en la vorágine de nuestra vida diaria cargada de stress y teñida por el oscuro cristal de nuestras emociones, muchas veces los motivos ocultos tras la realidad pueden parecernos invisibles, volviendo al Principio de la Razón Suficiente difícil de creer. Puede ser, pero que nosotros dejemos de aceptarlo a veces no lo hace menos válido y real. Podremos no entender por qué un malvado mata a un niño ni por qué una nación grande invade a una pequeña, pero los fantasmas de los griegos del siglo V a.C. nos informan que, aunque no lo veamos, el motivo existe, siempre, en alguna parte.


Gottfried Leibnitz

Hubo un hombre que descubrió que nuestra incapacidad para ver los motivos de ciertos hechos se debe a que la cadena de razonamientos necesaria para lograrlo es demasiado larga, compleja, sutil o las tres cosas, y nuestra mente es incapaz de penetrarla. A pesar de ello, afirmó, "en último término, Dios siempre conoce la razón". Este hombre, matemático y filósofo, fue quien elaboró la formulación moderna —la que acabamos de explicar— del Principio de la Razón Suficiente. Su nombre era Gottfried Wilhelm von Leibnitz, y toda nuestra historia comienza, en realidad, con él.

Su verdadero apellido era Leibnütz Schmuck, aunque en determinado momento comenzó a firmar "Leibniz", "Leibnitz", "Von Leibnitz" e incluso "Barón (Freiherr) von Leibniz", a pesar de que jamás recibió título nobiliario alguno. Leibnitz nació en Leipzig en 1646 y desde muy pequeño mostró la soberbia potencia de su intelecto: a los seis años de edad se hizo cargo de la biblioteca personal del titular de la cátedra de Filosofía Moral de la Universidad de Leipzig, a los doce aprendió latín y griego por sí mismo, a los catorce era ya estudiante universitario y a los veinte poseía títulos habilitantes en filosofía, derecho, lenguas clásicas y lógica y había publicado su primer libro. Completó los estudios de abogado —que duraban ocho años— en sólo cinco meses.

Se convirtió muy joven en el mayor especialista europeo sobre Descartes y Pascal, y sus múltiples talentos y capacidades llamaron la atención del célebre físico y matemático holandés Christiaan Huygens, quien lo tomó bajo su tutela y se convirtió en su mentor.

El cerebro de Leibnitz comenzó a desarrollarse a ritmos aún mayores junto a la guía de Huygens, llegando a inventar sus propias versiones del cálculo integral, diferencial e infinitesimal. Mientras hacía esto, diseñaba un plan completo para que Francia invadiera Egipto. En 1798, Napoleón decidió efectuar la operación sin atenerse al plan de Leibnitz, lo que determinó su rotundo fracaso.

Amigo de Anton van Leewenhoek —descubridor de los microbios— y colega y polemista del teólogo y filósofo Baruch Spinoza, los logros y los avances logrados por Leibnitz son demasiados y demasiado importantes como para analizarlos aquí. Nos conformaremos con decir que fue historiador, físico, filósofo, teólogo, biólogo, lógico, estratega, genealogista, bibliotecólogo y, por supuesto, matemático.

Y, además, dio el puntapié inicial a la historia de Omega.

El padre de la moderna concepción del universo, sir Isaac Newton, publicó su obra fundamental, los Principia Mathematica, en 1686. Un año antes, Leibnitz se hallaba estudiando la manera de mejorar las prestaciones de las bombas de agua que desagotaban los túneles de las minas, porque la mayor mina de mineral de plata de Alemania se enfrentaba con el problema de las inundaciones permanentes, que no solo ponían en peligro la producción sino también las vidas de los mineros.

Trabajando en campo abierto, el sabio se esforzaba en modificar las bombas para conseguir mejores resultados, cuando las grandes tormentas de nieve del invierno de 1685 lo obligaron a suspender sus esfuerzos.

El científico alemán, poco afecto a perder el tiempo, decidió aprovechar los días de mal tiempo para poner por escrito algunas de sus ideas que no había tenido ocasión de anotar. Ese borrador se conoce hoy como el "Discurso de metafísica". Obtenido el boceto de su libro, envió un resumen a su colega más respetado, el filósofo, teólogo y matemático jansenista Antoine Arnauld, que se sintió tan aterrorizado por algunos de los conceptos de Leibnitz que le respondió en durísimos términos. Leibnitz se sintió tan deprimido que nunca envió a Arnauld el libro completo, y, de hecho, lo escondió y jamás volvió a hacérselo leer a nadie. Allí quedó, pues, olvidado durante muchísimos años, para ser redescubierto, publicado y comenzado a estudiar solo décadas después de la muerte de su autor. ¿Qué sería lo que había molestado tanto al investigador francés y que convenció al alemán de olvidarse de su libro?

La cuestión crucial del Discurso de Leibniz es tan profunda que, incluso hoy en día, perturba la mente y el espíritu. En las partes V y VI, el libro discute la siguiente pregunta: ¿Cómo podemos diferenciar un mundo que se rige por las leyes científicas de otro que se comporta completamente al azar? En otras palabras: ¿cómo puede la mente humana discernir entre lo que se puede explicar y lo que no? Si lo pensamos bien, la pregunta es portentosa, y muchas de las respuestas que se nos ocurren nos llenan de miedo.

Leibnitz razona de la siguiente manera: alguien sacude la pluma sobre el papel. Múltiples manchas de tinta cubren la hoja. El conjunto de gotitas negras es finito y mensurable. Sin embargo, a pesar de que las gotas de tinta se han dispersado sobre la superficie según un proceso azaroso, siempre existirá una curva que pase por todos los puntos. Dicho de otro modo, la distribución de las manchas siempre podrá expresarse mediante una ecuación matemática. Lo que parece puro azar es en realidad el resultado de una fórmula concreta y bien determinada. Uno de los métodos para identificar esta ecuación es la denominada "Interpolación de Lagrange". Hay muchos otros.


Probando la idea de Leibnitz

La consecuencia de esto es abismal. La existencia de una curva matemática que explique la distribución de las gotas no nos capacita para distinguir entre el orden y el azar, porque aunque la ecuación existe, las gotitas fueron regadas incuestionablemente en forma caótica. Incluso es posible que algunas estén ordenadas y otras no, pero independientemente de ello nosotros no podemos decir cuáles son unas y otras.

Y continúa el genial germano diciendo que, si la curva que contuviese todos los puntos fuese —como indica el sentido común— extremadamente compleja, no habría ninguna diferencia entre que existiera o que no. La mente humana no sería capaz de desentrañarla. Para nosotros, el orden y el caos serían indiferenciables. La tal curva no nos serviría para nada, y desde luego que no se podría extraer ninguna ley científica de ella. A todos los efectos prácticos, la complejidad extrema, ordenada pero infinitamente complicada, es indistinguible del caos... y eso es lo que llamamos "azar". De ahí para arriba, solo Dios sería capaz de encontrar orden en el aparente caos.

El inteligente Leibnitz, como hemos dicho, archivó su libro maldito y, que se sepa, nunca volvió a profundizar en esta clarividente idea.


III.- PRIMER MOVIMIENTO: LA RESPUESTA A TODAS LAS PREGUNTAS

Uno de los personajes de "Diario de las Estrellas" del insigne escritor polaco Stanislav Lem pensaba mucho en asuntos como este. Se trata del bisabuelo del protagonista Ijon Tichy, que había estado trabajando en una así llamada "Teoría General del Todo": una teoría que explicara todas las teorías, un teorema que demostrara todos los teoremas, una ecuación que solucionase todas las ecuaciones... Las resonancias de la curva de Leibnitz son evidentes.

En el siglo XX, numerosos científicos tomaron esta idea muy en serio, y comenzaron a proponer búsquedas de lo que, en definitiva, hoy se conoce como "Teoría del Todo" o TDT.

Además de explicar todas las teorías de las ciencias físicas, la TDT debería enlazar todos los aspectos y facetas de esas mismas ciencias. Así, por ejemplo, la ciencia más inclinada a probar una TDT —la física—, encontraría por fin un marco teórico que incluyera en un todo coherente la mecánica cuántica, la gravitación clásica, la relatividad y todo lo demás en un solo corpus conceptual.

Albert Einstein, por citar solo un caso, pasó la mayor parte de su vida adulta intentando encontrar una TDT para la física, la cual, si bien nunca demostrada ni siquiera en principio, se conoce como Teoría del Campo Unificado. Si alguna vez se probara que existe, mostraría a las cuatro fuerzas fundamentales del universo —gravitación, fuerza nuclear fuerte, fuerza nuclear débil y electromagnetismo— como facetas diferentes de un mismo fenómeno. Hoy en día, la única candidata a TDT de la física es la Teoría de las Supercuerdas o Teoría M, pero tiene el inconveniente de incluir numerosas dimensiones espaciales que ni siquiera se sabe si existen.

El caso de la TDT física ha fallado (por lo menos hasta ahora), pero, desde hace miles de años, otra categoría completa de científicos ha esperado contra toda esperanza que alguien fuese capaz de desarrollar una TDT para su ciencia. Nos referimos a los matemáticos.


David Hilbert

La experiencia de Leibnitz en el siglo XVII dejaba poco margen para la especulación, pero muchos consideraron que el hecho de que una ecuación fuese tan extraordinariamente compleja que no pudiese ser resuelta no obstaba para que la misma fuese cierta. Como dijimos antes, los matemáticos o al menos algunos de ellos seguían deseando, a comienzos de los años 30 del siglo XX, que alguien consiguiera expresar un teorema que demostrara todos los teoremas existentes e incluso los posibles. La misma esperanza de antes: la ecuación que contuviera todas las ecuaciones, la teoría que demostrara todas las teorías. La TDT matemática.

Una de las ideas —falsas— pero más fácilmente aceptadas por la mente humana es "Podemos descubrir cualquier cosa si somos lo suficientemente inteligentes para lograrlo y trabajamos durante el tiempo suficiente". Tal era la teoría del célebre y trascendente matemático prusiano David Hilbert. Intentando, en los primeros años del siglo pasado, desarrollar un ambicioso juego de axiomas (verdades que no necesitan ser probadas para verificar que son ciertas) y reglas matemáticas que incluyera toda la matemática conocida, desde las más simples sumas y restas hasta el más complicado cálculo infinitesimal, Hilbert pensaba llegar a codificar todos los razonamientos aplicables en su ciencia y exhibirlos en un solo marco teórico. Estaba buscando la TDT.

Como es obvio, esta TDT hilbertiana tendría que ser coherente, lo que en matemática significa que no se puede probar un postulado y su contrario simultáneamente. Además de consistente, la TDT debía ser completa, en el sentido de que nada podía quedar sin explicar: cualquier postulado era verdadero o bien era falso, una de las dos, pero nunca ambas o ninguna. Tenía que existir, pensaba Hilbert, un procedimiento mecánico que decidiera sin asomo de duda si una proposición se deducía de un grupo de axiomas o no.

El hombre que puso las cosas en su lugar es un norteamericano hijo de inmigrantes argentinos, nacido en Nueva York en 1947.

"Hilbert no creía que existiera límite alguno a lo que se pudiera lograr aplicando el pensamiento matemático", afirma el matemático Gregory J. Chaitin, del Centro de Investigaciones Thomas J. Watson de la empresa IBM, uno de los matemáticos más importantes del mundo actual.


Gregory Chaitin a la entrada de su oficina
del Thomas J. Watson Research Center

Criado en Nueva York y Buenos Aires, Greg es, además, profesor visitante de la Universidad de Auckland, California, profesor de la Universidad de Buenos Aires, Presidente del Comité Científico del Instituto de Sistemas Complejos de Valparaíso, miembro de la Academia Internacional de Filosofía de la Ciencia y autor de nueve libros de matemática, dos de los cuales son de divulgación y siete de índole técnica.

Como explica Gregory, los trabajos de Hilbert partían de la base de que sería posible, comenzando con las más breves y simples fórmulas, recorrer toda la secuencia de los teoremas y ecuaciones posibles, demostrando en el proceso la verdad o falsedad de cada una de ellas, sin dejar ninguna sin respuesta y alcanzando la exactitud total. En principio, este proceso de comprobación generaría todos los teoremas matemáticos posibles, o, lo que es lo mismo, sería el teorema que demostraría todos los teoremas: un modo particularmente elegante de concebir una TDT en matemática.

Hubiese sido lindo si Hilbert hubiera estado en lo cierto. Lamentablemente, se equivocaba.


IV.- SEGUNDO MOVIMIENTO: TODO ES INCOMPLETO

Entre la numerosa población étnica y lingüísticamente alemana que vivía en la Moravia de principios de siglo, entonces Austria-Hungría, luego Checoslovaquia y actual República Checa, nació en 1906 el hijo de un poderoso empresario textil. Fue bautizado Kurt Gödel, y pasó por numerosas nacionalidades a lo largo de su vida. Nacido austrohúngaro, recibió la ciudadanía checoslovaca a la edad de 12 años tras el colapso del imperio. Se nacionalizó austríaco a los 23, recibió su nacionalidad alemana a los 35 cuando Hitler anexionó Austria, y culminó su vida como ciudadano norteamericano al optar por esa nacionalidad a los 42 años. Si viviese hoy, sería checo.

De muy pequeño se inclinó hacia las ciencias, particularmente a la matemática, la historia y la medicina. En la primera de ellas obtendría sus mayores logros, por los que se haría célebre y renombrado.


Dos cerebros portentosos: Albert Einstein y Kurt Gödel

Gödel, amigo de Einstein —con quien compartía una insaciable y voraz curiosidad— comenzó a sufrir algunos problemas psicológicos que se convirtieron en una obsesión paranoica cuando ya vivía en Estados Unidos con todo y ciudadanía. Creía que unos agentes enemigos esperaban la oportunidad para matarlo con veneno, de modo que sólo se alimentaba con la comida que le preparaba su mujer. Al enfermar ésta, el miedo de Gödel al envenenamiento era ya tan grande que dejó de comer por completo, falleciendo de inanición en 1978. Tenía 71 años y pesaba 29 kilos.


El triste fin de un genio:
Kurt Gödel poco antes de morir de hambre

Como demuestra el Principio de la Razón Suficiente, nada es porque sí. El interés de Gödel por la TDT tampoco. Aunque al principio de sus estudios se interesó en la física teórica, pronto la influencia de Bertrand Russell lo empujó a profundizar en la lógica matemática, la teoría numérica, y también en la filosofía matemática.

De visita en Bolonia, tuvo la oportunidad de escuchar una conferencia de David Hilbert, y la profunda impresión que recibió al escuchar sus teorías decidió, en cierta forma, el curso de su vida futura. Porque Gödel quiso demostrar que la TDT matemática era posible... que en verdad existía.

Para doctorarse en matemática por la Universidad de Viena, el científico tomó como tesis doctoral el sempiterno problema planteado en el libro de Hilbert "Principios de lógica teórica", a saber: ¿Son suficientes los axiomas de un sistema formal para derivar de ellos todos y cada uno de los postulados que son ciertos dentro de todos los modelos de ese sistema? Aunque Gödel pudo probar que esto era cierto —cuyas conclusiones hoy conocemos como Teorema de la Completitud de Gödel—, lo que le valió dar una disertación doctoral a los 23 años y obtener el doctorado al año siguiente, el matemático decidió continuar profundizando en este asunto.

Gödel era muy joven todavía, lo que parece ser una constante en este tipo de ciencias. Newton elaboró su teoría gravitacional a los 24 años; Einstein desarrolló la relatividad especial a los 26. En consonancia con ellos, Kurt Gödel probó dos de sus teoremas más importantes a la edad de 25 años. Actualmente se los conoce como "Teoremas de la Incompletitud de Gödel", han sido probados una y mil veces y sus conclusiones son, de nuevo, abismales.



Amigos son los amigos: Gödel y Einstein
Vamos a tratar de explicar, en lenguaje simple, ambos teoremas. Luego pasaremos a la importancia que tienen para la lógica matemática y, por ende, para nuestra visión del mundo.

Recordemos que Hilbert quería un grupo de axiomas que probaran toda la matemática. Gödel dio por tierra con esta ambición, al encontrar que:

  • Un sistema matemático capaz de describir la aritmética de números naturales no puede ser a la vez consistente y completo.
  • La consistencia de los axiomas del sistema no puede ser probada por ese mismo sistema.

El primer teorema recuerda claramente el Principio de Incertidumbre de Heisenberg, básico para toda la moderna física de partículas y una de las leyes fundamentales de la naturaleza, que dice que el electrón tiene dos características: el spin o giro y la posición espacial. No podemos conocer ambas a la vez. Si sabemos una, la otra permanece oculta.

Aquí, las dos características del sistema de axiomas matemáticos no pueden ser ciertas a la vez: consistencia y completitud. Por consistencia se entiende que todas las proposiciones tienen que ser probadas verdaderas o falsas. Ninguna de ellas puede ser verdadera y falsa a la vez, y ninguna puede ser no-verdadera y no-falsa al mismo tiempo. Completitud significa que todas ellas deben recibir una prueba (de verdad o falsedad, lo mismo da). Pero el Primer Teorema de Gödel demuestra que consistencia y completitud no pueden coexistir a la vez.

El segundo teorema prueba que el sistema, completamente coherente y consistente, no puede probar su propia consistencia, por lo que, al alcanzar la consistencia, automáticamente aparece un axioma que no puede ser probado, lo que elimina la completitud.

Esto tiene trascendentes implicaciones: significa que inclusive en el ámbito de la aritmética básica (suma y multiplicación), cualquier sistema de axiomas (recuérdese que se trata de verdades que no necesitan ser probadas) que pretenda contener toda la verdad acerca de lo más simple (por ejemplo los números naturales), fallará por principio. Si se logra que sea completo, será inconsistente. Si se lo lleva a la consistencia total, será incompleto. En pocas palabras: en todo sistema matemático siempre habrá postulados que no pueden probarse.


Entrada de la Universidad de Viena durante los actos del centenario del nacimiento de Gödel. Fue en 2006, el mismo año en que Chaitin descubrió a Omega

El problema no es que esos postulados sean ciertos o no. Lo que son, son. Son ciertos o son falsos. Lo son y basta. El problema es que nosotros no podemos verificarlos o invalidarlos. Esta verdad como un puño destruye las ilusiones de Hilbert de encontrar una TDT para la matemática.

Es más: la matemática está llena de afirmaciones que esperan ser probadas o desechadas. Independientemente de que sean ciertas o no, siempre habrán algunas que queden en la oscuridad.

La demostración de los teoremas de Gödel puso en jaque al determinismo y al realismo matemático, llevándonos a un nuevo lugar. No se trata de descubrir nuestra propia ignorancia: se trata de que la realidad presenta una imposibilidad de responder a todas las preguntas. No es que seamos bobos: es que es imposible.

Los matemáticos Ernest Nagel y James R. Newman publicaron en 1956 un artículo titulado "La prueba de Gödel" en Scientific American. Dos años después, decidieron darle forma de libro, una obra pequeña y manuable que explicaba cómo Gödel había utilizado herramientas matemáticas para demostrar las limitaciones de la propia matemática.

Chaitin, que a la sazón tenía solo 11 años, descubrió el librito en la Biblioteca Pública de Nueva York y su vida cambió para siempre: "Me obsesioné con él. Lo llevaba conmigo todo el día e intentaba explicarles su contenido a los demás niños".

Le impresionó particularmente el modo elegante e inatacable con que Gödel demolía los postulados de Hilbert por el mero expediente de mostrar dos declaraciones paradójicas.

Imaginemos una declaración matemática que dice:

Esta declaración es falsa


Como ya hemos observado que en matemática toda declaración que se puede probar es verdadera, veamos qué podemos hacer con ella.

Por empezar, podemos intentar probarla. Si lo conseguimos (probar que es falsa) entonces será verdadera: una imposibilidad matemática tan total como dividir por 0.

Pero Gödel va aún más allá, y postula:

Esta declaración es imposible de probar


Gödel comprendió que acababa de construir una fórmula que decía ser imposible de probar. Si se consiguiera probar que es cierto (que ella es imposible de probar) estaríamos en presencia de una proposición que se contradice a sí misma (acabaríamos de probar que es imposible de probar), lo cual es una imposibilidad matemática total. Porque si se pudiera probar que es cierta, sería falsa, porque ella misma dice que es imposible de probar. Estaremos entonces ante la desagradable (e imposible) circunstancia de haber sido capaces de probar una falsedad.

Pero si no la podemos probar, el caso será aún peor, porque la declaración será verdadera. Entonces, todo nuestro sistema de pensamiento se habrá demostrado equivocado, porque habríamos acabado de demostrar que hay cosas que son ciertas pero imposibles de probar.

Por lo tanto, siempre habrá por lo menos una declaración que, a pesar de ser verdadera, sea imposible de probar. Si un sistema coherente que defina a todos los números naturales es consistente, es incompleto, porque contiene declaraciones que no se pueden probar. Más aún: si el conjunto de axiomas verdaderos prueba ser consistente, entonces es falso.

La ambición de desarrollar una Teoría del Todo acababa de ser destruida por la mente de un solo hombre: un joven austríaco de 26 años.

El matemático, lógico y criptógrafo inglés Alan Turing —padre del mundialmente famoso "Test de Turing" para definir la inteligencia artificial—, continuó, profundizó y reformuló el análisis de Gödel en un artículo publicado en 1936.

El ejemplo que señala el científico británico es francamente soberbio. Suponga usted que le damos el siguiente número:

1,6180339887


Usted no sabe qué es, pero le resulta vagamente familiar, una especie de dejà vu matemático. Por lo tanto, lo que usted quiere saber es si esta secuencia específica de dígitos es el resultado de alguna ecuación famosa, una fórmula importante o el valor de una constante física o matemática conocida.

Lo es, por supuesto. Se trata del redondeo a 10 decimales de la Proporción Áurea, que se puede definir como

(1 + Ö 5) / 2

Se trata de un número irracional, lo que significa que tiene infinita cantidad de decimales, que aquí se ha reducido a una decena. Uno, resolviendo la ecuación anterior, podría calcularle la cantidad de dígitos que quisiera. Esto es simple.


Alan Turing

Lo que no es tan simple es hacer el camino inverso: a partir del número dado, redondeado a 10 decimales, retroceder para descubrir la ecuación que lo originó. Podría ser que el undécimo decimal fuera distinto, de tal modo que invalidara la ecuación y no fuese igual a 1 más raíz de 5 sobre 2. En ese caso, usted llegaría a la conclusión de que el número no es un redondeo del número áureo. De hecho, el número con 11 decimales podría ser el resultado de una ecuación totalmente diferente, o incluso un número azaroso que no significa nada. ¿Cómo saberlo si nosotros no le damos nada más que el número? La respuesta es: es imposible. No hay modo de saberlo. Si yo le pregunto si la frase: "Este número es una aproximación de la Razón Áurea con 10 decimales" es verdadera o falsa, simplemente no hay modo de decidirlo por métodos matemáticos. Por supuesto que la declaración es cierta, pero no puede probarse su certeza. No tenemos suficientes datos para hacerlo.


V.- TERCER MOVIMIENTO: SINFONÍA DEL CAOS

La cuestión gödeliana de la incompletitud y la incerteza, trascendental como es, quedó olvidada una vez más hasta el año siguiente (1932), en que un matemático alemán dijo: "Siempre intenté unir en mi trabajo la verdad y la belleza, aunque en caso de duda, siempre elegí la belleza". Este científico dio, en ese año, tres conferencias en la Universidad de Yale que trataban sobre metafísica, que luego fueron reunidas en un librito.


Hermann Weyl

Su nombre era Hermann Klaus Hugo Weyl, y estaba trabajando en Princeton luego de obtener numerosos logros científicos en Göttingen y Zürich. Amigo y colaborador de Hilbert y Minkowski, Weyl retoma los trabajos sobre el azar y la complejidad para señalar correctamente que Leibnitz no define bien, por desgracia, el modo de distinguir entre el azar y los sistemas que obedecen a una fórmula matemática concreta. Dice además que el problema reside en invocar solamente la mayor o menor complejidad de la ecuación. Para solucionar la falla de Leibnitz, afirma que la diferencia no estriba en la complicación, sino en qué funciones uno está o no capacitado para incluir en la fórmula.

¿Qué significa exactamente esta diferenciación? Que lo que a los ojos de una persona o una escuela de pensamiento puede parecer enormemente complejo (y, por lo tanto, azaroso), para otros, años después, resulta simple y perfectamente ordenado.

Nos tomaremos aquí la licencia de parafrasear al enorme filósofo y poeta de Nueva Inglaterra Ralph Waldo Emerson. Él escribió: "La tragedia está en los ojos que la ven, no en el corazón de quien la padece". Para Weyl, entonces, "La complejidad no está en la ecuación, sino en la mente de quien la estudia".

Pero el problema sigue presente: a pesar de la nueva definición de Weyl, tienen que existir nuevas maneras de evaluar la complejidad.


Gregory Chaitin

El cuasiargentino Chaitin, que redescubriera los trabajos de Leibnitz sobre azar y dificultad extrema leyendo, precisamente, las tres conferencias de Weyl de la década del 30, consiguió recientemente identificar la complejidad por un método más fácil y claro, tomado en préstamo de las ciencias de la computación. El campo que inventó en 1965 se conoce como Teoría Algorítmica de la Información, y rindió una manera eficiente y relativamente simple de medir los grados de complejidad de los objetos matemáticos.

Dice Chaitin: "La complejidad de un número es el tamaño del programa de computación más corto posible capaz de generar ese número". Un programa de computación, como se sabe, no es más que una serie de instrucciones escritas, que le dicen a la computadora qué hacer. Pues bien: si para generar un número dado se necesita un programa, el programa más corto posible que produzca ese resultado será la medida de la complejidad del número de marras. La longitud del programa se mide en bits.

Escribe Gregory Chaitin en el número de marzo de 2006 de Scientific American: "El menor número de bits —o sea, la longitud de la cadena de unos y ceros— que se necesita para almacenar ese programa se denomina `contenido de información del algoritmo´. Así, la secuencia infinita de los números naturales (1, 2, 3...) tiene muy poco contenido algorítmico, muy pequeña cantidad de información. Un programa informático muy breve es capaz de generar todos los infinitos números enteros".

Lo que dice Gregory se hace muy fácil de ver. El programa en cuestión sería simplemente:

1 x = 1

2 imprima x

3 haga x = x + 1

4 vaya al paso 2


"No importa cuánto tarda el programa en generar los números ni qué tanta memoria use: lo único que se toma en cuenta es su tamaño en bits", continúa el matemático.

Podemos clarificar la misma situación con otro ejemplo: un número compuesto de cien unos (1.111.111.111... y así cien veces). El programa para escribirlo es muchísimas veces más pequeño que el número mismo. Como es más chico que el resultado que produce, no se considera que este sea azaroso. En cambio, si un programa que imprime una cifra necesita ser casi tan largo (o más largo) que el número impreso, entonces sí está generando una secuencia al azar. La complejidad, según esta definición, es tan solo esto. Por decirlo de otra forma: "Una secuencia al azar no admite descripciones breves".

Ya sé que quiere ejemplos. Se los doy. Un número infinitamente complejo como p, que contiene infinitos dígitos, tiene una descripción algorítmica muy pequeña. Sin embargo, un programa que imprimiese un número compuesto de cifras al azar —y no le pidamos que haga una serie infinita, sino solamente un millón de dígitos— necesitará un contenido algorítmico de más de un megabit, es decir, será más largo que el número en sí.

Esto no es una teoría: Chaitin lo ha comprobado matemáticamente. La enunciación formal de este axioma es: "Ningún programa puede generar un número más complejo que sí mismo". En su divertido e inteligente lenguaje, el argentino expresa: "Una teoría de 50 bits no puede producir un teorema de 200 bits, así como una mujer de 50 kilos no puede parir una criatura de 200 kilos".

Volviendo al ejemplo clásico de las manchas de Leibnitz, Gregory aclara: "Supongamos que no riego las manchas al azar, sino que las voy colocando cuidadosamente en una línea recta que cruza la página, cada gotita exactamente a un centímetro de la siguiente. La teoría que describe esas manchas consta exactamente de cuatro parámetros: la ecuación para la línea recta, el número total de gotas, la ubicación exacta de la primera de ellas y la distancia entre una y otra. Ahora usted puede escribir un programa de computadora que, basándose en esta información, calcule la ubicación precisa de todas y cada una de las manchas. En términos de la Teoría Algorítmica de la Información, no se dice que ese programa está basado en la teoría subyacente, sino que el programa ES la teoría".

Como puede observarse, en el ejemplo de Leibnitz, donde uno simplemente miraba hacia otro lado y agitaba la pluma, las gotas se distribuyen al azar, y los cuatro parámetros de las gotas alineadas ya no sirven para nada. Si uno quisiera escribir un programa que reprodujera exactamente la posición de cada gota, tendría necesariamente que especificar la ubicación precisa de cada una en las instrucciones, lo que pronto demostraría generar un programa mucho más largo y complejo que el patrón de manchas en sí.

Inversamente, Chaitin pudo demostrar por la misma época que un programa no puede probar que un número más complejo que él mismo es azaroso ni que no lo es. Aquí doctor Chaitin otorga, al menos parcialmente, la derecha a Leibnitz: siendo la mente humana —como en efecto lo es— una clase de sofisticada computadora, siempre podrá haber una complejidad tan profunda y sutil que el intelecto no pueda hacer presa en ella. Cualquiera sea la clase de orden subyacente en esa complejidad, este siempre aparecerá ante nosotros como un caos perfectamente al azar.

Probar que una secuencia dada es al azar, como decía Leibnitz, siempre presentará, por lo tanto, insuperables dificultades para la matemática. Suponiendo que llegásemos a probar que un sistema se rige solo por el azar, nunca podríamos estar completamente seguros de no haber pasado por alto alguna ligera indicación de orden. Tal vez si hubiéramos visto ese orden, ello nos hubiese capacitado para reducir el tamaño del programa, demostrando de esa forma que la secuencia no era al azar.

Las matemáticas avanzadas que Chaitin ha utilizado para llegar a estas conclusiones indican que es mucho más probable encontrar caos que orden en ciertas ramas de la matemática que en otras. La versión de Greg del teorema de la complejidad de Gödel expresa: "Aunque casi todos los números son resultado del azar, no existe sistema formal de axiomas que nos permita probar este aserto". O sea: hay infinita cantidad de declaraciones matemáticas con las que nada podemos hacer o, mejor aún, la aritmética no puede ser reducida a los axiomas aritméticos. Por lo tanto, no hay forma de probar si una declaración aritmética es cierta o falsa utilizando la aritmética misma como herramienta de investigación. Para dar un ejemplo torpe pero claro: la cirugía no sirve para demostrar si un cierto corte hará bien o mal al paciente; para ello necesitamos de la anatomía. Si la anatomía nos dice que cortar una arteria matará al paciente, no importa si la cirugía considera deseable cortar la arteria (por ejemplo si el paciente presenta allí un tumor): la anatomía dice que si se la cortamos morirá, y eso se cumplirá siempre, porque la cirugía no sirve para probar a la propia cirugía.

Volviendo a la matemática de Chaitin, si la aritmética no puede probar la validez de sí misma, acabamos de probar que, en la práctica, la aritmética misma es un sistema esencialmente azaroso. Dice el científico: "Lo que he construido, conseguido probar y mostrado a los científicos es, ni más ni menos, que los hechos matemáticos que son ciertos, en realidad lo son... ¡pero por accidente! La inmensa mayoría de los hechos matemáticos podrían probarse con igual fortuna revoleando una moneda. Nunca podremos probar por medio de la lógica si son ciertos o falsos".

Es que hay problemas matemáticos que desafían las leyes aplicadas para intentar probarlos. Esto no quiere decir que la matemática sea anárquica, sino solo que nuestras herramientas lógicas no sirven para todos los usos. La mayor parte de ellos se rigen por la estadística y la probabilística, ciencias que no nos dan ni pueden darnos ningún grado de certeza respecto del resultado.

Un ejemplo clásico de uno de estos casos sería preguntar si una ecuación que incluye solo enteros tendrá un número infinito de soluciones enteras, algunas soluciones enteras y otras no, o ninguna solución entera en absoluto.

Es por eso que este matemático genial considera que su ciencia es mucho más experimental que lo que se creía hasta ahora: "Así como es científicamente imposible predecir el momento en que un átomo sufrirá una desintegración radiactiva, del mismo modo la matemática es impotente para contestar cuestiones particulares", dice. "A pesar de ello, así como un físico puede hacer predicciones con un razonable grado de certeza acerca de enormes números de átomos, yo me veo, en muchos casos, limitado a usar métodos parecidos".

Y la razón última de todo esto es mucho más filosófica que científica: "La creatividad es absolutamente imprescindible para el trabajo matemático. Nunca podremos eliminar la intuición de nuestra ciencia", concluye.

Medio siglo después de descubrir el libro de Nagel y Newman, Greg ha logrado un enorme éxito científico, al demostrar que en la misma matemática hay verdades imposibles de conocer. "Al revés que Gödel, lo que yo hice fue demostrar que hay algunos hechos matemáticos que no pueden enmarcarse en ninguna teoría por culpa de su enorme complejidad. En verdad, lo que descubrió Gödel seguramente es solo la punta del iceberg: tienen que existir infinitos teoremas verdaderos que simplemente no pueden ser probados por ningún sistema de axiomas finito". En otras palabras, una teoría válida debe ser más simple que los hechos que describe, porque si permitimos un grado arbitrariamente alto de complejidad en la ley, los hechos se vuelven azarosos, como las gotas de tinta de Leibnitz.

 

Las manchas de Leibnitz: la ecuación que define la curva
es igual de compleja que el patrón de las gotas


VI.- CUARTO MOVIMIENTO: LA ESPANTOSA VOZ DE OMEGA

Nuestro semicompatriota es humilde y concede a Leibnitz la paternidad última de sus ideas. "Él tuvo los dos conceptos claves para formular esta nueva teoría del azar", dice. "Simplemente no se dio cuenta de la conexión que tenían. Sin embargo, fue el primer ser humano en producir una máquina calculadora, y también el primero en comprender la importancia futura del código binario, en el que todo puede ser representado solo con unos y ceros. Leibnitz fue el primer científico informático y también el primer teórico de la información. Estoy seguro de que Leibnitz hubiese comprendido de inmediato y aceptado la validez de mi teoría moderna del azar".

En rigor de verdad, el descubrimiento de Chaitin fue compartido por el ruso Andrei Nicolaievich Kolmogorov, que postuló exactamente la misma definición de azar que Gregory. Sin embargo, lo hicieron independientemente, sin conocer cada uno el trabajo del otro: "Él estaba en el ocaso de su carrera y yo era un adolescente que comenzaba a hacer sus primeras armas en la matemática. Hasta donde yo sé, ninguno de los dos conocíamos tampoco el trabajo de Leibnitz. Si bien descubrimos la teoría del azar a la vez, Kolmogorov nunca se dio cuenta de la importante luz que la nueva definición echaría sobre los Teoremas de la Incompletitud de Gödel y sobre el Problema de la Detención de Turing. Yo sí tuve la suerte de pensar en ello".


Andrei Kolmogorov

En 1936, luego de asombrar al mundo presentando la primera computadora digital del mundo (la celebérrima Máquina de Turing), el matemático inglés soltó la pregunta que cambiaría al mundo.

La computadora funciona ejecutando un determinado programa. El programa eventualmente se detendrá cuando haya cumplido su labor, pero también es posible que continúe funcionando eternamente (si, por ejemplo, le pedimos que calcule todos los decimales de p). El problema de Turing es: ¿Se puede demostrar que existe un programa de computación que prediga con total certeza si el otro programa se parará o seguirá funcionando?

Una forma obvia de averiguar si la máquina se apagará o no es ponerse junto a ella y esperar a que se detenga. Pero si no se detiene, ¿cuánto tiempo deberemos esperar a que lo haga? ¿Un día, un mes, un año, un siglo? Supongamos que esperamos una era geológica entera, y que decidimos que el programa no se detendrá, porque hasta ahora no se ha detenido. Nos vamos, contentos de haber establecido un nuevo axioma. ¿Cómo podemos asegurar que el programa no se detendrá un segundo después de que nos hayamos ido? Que haya funcionado un millón de años no significa que no pueda detenerse tras un millón de años y un microsegundo. Esta solución no nos sirve.

Por otro lado, el programa de observación tiene que ser más corto que el programa en funcionamiento. ¿De qué nos serviría tener que ejecutar un programa infinitamente largo para probar si el otro es infinito o no? Sería igual o casi igual de trabajoso que sentarnos a esperar. Sería lo mismo. O sea, nada.

Escuchemos a Chaitin: "Veamos un par de ejemplos. Supongamos que el programa a estudiar consiste en las siguientes intrucciones: Tome todos los números entre 1 y 10, agréguele 2 a cada uno e imprima los resultados. Resulta obvio que el programa se detendrá tras 10 iteraciones. Pero si las instrucciones son, en cambio: Tome un número no negativo llamado x, y comience a multiplicarlo por dos hasta que el resultado sea mayor que 1, en ese caso el programa se detendrá cuando x no sea igual a cero. Si x = 0, seguirá funcionando para siempre, porque cualquier cosa por 0 siempre será 0. En estos dos ejemplos es muy fácil saber si el programa seguirá andando o no. Pero ¿qué pasa si el programa es muchísimo más complicado? Siempre quedará la chance de esperar, pero la cuestión de Turing es si existe una prueba que tarde una cantidad finita de tiempo en decidir si el programa hará alto. Y esta prueba debe ser útil para cualquier programa posible".

Entonces, ¿existe un programa así? ¿Puede existir?

Turing consiguió demostrarlo. Las respuestas a estas dos preguntas son: no y no.

Un programa capaz de conseguir eso sería más largo que el programa funcional. Lo que es lo mismo: una teoría que explicara todas las teorías necesariamente tendría que ser más compleja que todas ellas, y no nos serviría para nada. Un teorema que explicara todos los teoremas sería más complicado que las hipótesis que pretende demostrar, y todas estas cosas son imposibilidades matemáticas lisas y llanas.


Omega

Omega es la prueba de ello.

El doctor Chaitin descubrió a Omega (como bautizó a la así llamada "Constante de Chaitin") siguiendo este razonamiento: en lugar de mirar si para cada programa posible existe un programa de Turing, tomemos todos los programas posibles, metámolos en una caja y extraigamos uno al azar. ¿Qué posibilidades hay de que ese programa se detenga? Esta probabilidad es el número Omega (W).

¿Cómo se calcula W? Por medios probabilísticos. El siguiente ejemplo de Chaitin es muy claro. Supongamos que en todo el mundo existieran solamente dos programas destinados a detenerse, y sus líneas de código, traducidas a binario, son 11001 y 101. Son dos programitas simples, y sabemos que ambos se pararán. Ahora elijamos uno de ellos al azar (por ejemplo, lanzando una moneda). Tomar uno de ellos al azar es, matemáticamente hablando, lo mismo que generar uno al azar. Se podría generarlo, por ejemplo, lanzando otra vez la moneda, y anotando un 1 si sale cara y un 0 si sale ceca. En consecuencia, la probabilidad estadística de obtener un 1 es de 0,5 (la mitad, o sea 1/2 o 50%).

La probabilidad de obtener 101 es 1/2 x 1/2 x 1/2, es decir, 1/23. Paralelamente, la posibilidad de obtener 11001 es de 1/2 x 1/2 x 1/2 x 1/2 x 1/2, lo que es igual a 1/25. Así, si revoleo la moneda, la probabilidad de obtener cada uno de ellos es

1/23 + 1/25 = 0,15625


"En realidad", dice Chaitin, "por supuesto que hay muchísimos más programas que en verdad se detendrán, así que el verdadero valor de W será igual a la suma de innumerables términos expresados en la forma 1/2n. Además, hay que hacer restricciones acerca de qué tipos de programas son admisibles (para no contar cosas dos veces) y asegurarse de que W no adquiera un tamaño infinito".

Como W es la expresión de una probabilidad, su valor concreto siempre oscilará entre 0 y 1. Lo único que nos falta para definirlo matemáticamente con validez y precisión es establecer qué lenguaje de programación estamos usando, porque cada uno modifica ligeramente el valor de W.


VII.- QUINTO MOVIMIENTO: NO ME AMENACE, MI POSICIÓN ES IRREDUCTIBLE

La principal característica del número descubierto por el argentino, aquella que ha asombrado a los matemáticos de todo el mundo, es que cada uno de sus dígitos se genera absolutamente al azar. Aunque el número es concreto, es un objeto matemático perfectamente válido y ha sido obtenido tras procedimientos matemáticos completamente rigurosos, presenta la siguiente forma:

W = 0,rrrrrrrrrrrrrrrr...


donde cada r es igual a un dígito entre 0 y 9 obtenido al azar. Y hay infinitos de ellos. Nunca se terminan, porque, como p o Ö 2, W es un número irracional.

El hecho de que cada uno de sus dígitos sea azaroso se conoce en matemática como "irreductibilidad", en el sentido de que los infinitos números que lo forman no pueden expresarse de un modo más reducido que escribiendo el número completo. En este sentido, obsérvese que W es infinitamente largo, tan infinitamente largo como el programa informático necesario para generarlo.

Pero W tiene una importante diferencia respecto de números "normales" como p o Ö 2.

Miremos a este último:

Ö 2 = 1,4142135623730950488...


Siguiendo el razonamiento de Chaitin, utilizaremos un conocido procedimiento matemático para irnos aproximando cada vez más al valor preciso de Ö 2. Ya sabemos de antemano que nunca lo alcanzaremos exactamente (porque tiene infinitos decimales), pero podremos acercarnos todo lo que se nos antoje, por ejemplo a un millón de decimales, a diez billones o a un quintillón. Con tiempo suficiente, podremos lograr tanta aproximación como nos guste.

Isaac Newton desarrolló el método que Chaitin utiliza, conocido actualmente como "Iteraciones de Newton". La fórmula básica es la siguiente:

xk + 1= 1/2 (xk + 2/xk)


Comencemos con un 1:

x1 = 1


Luego, insertemos x1 en la ecuación para obtener x2:


x2 = 1/2 (1 + 2/1) = 1,5


Convengamos que 1,5 es un valor bastante alejado del valor real de Ö 2. Por lo tanto, repitamos el procedimiento:

x3 = 1/2 (1,5 + 2/1,5) = 1,414666666...


Nos vamos acercando, pero todavía no nos hemos aproximado lo suficiente:

x4 = 1/2 (1,414666667 + 2/1,414666667) = 1,414215686274509803...


Hemos alcanzado identidad hasta el quinto decimal. Es bastante, pero necesitaríamos infinitas iteraciones para lograr el valor real de infinita cantidad de dígitos.

Podríamos escribir un programita de computación que contuviera esta fórmula recursiva. En teoría, si lo hiciésemos funcionar un tiempo infinito, calcularía sin problemas los infinitos decimales de Ö 2.

Hasta aquí, todo muy lindo.

Sin embargo, la pregunta crucial aún subsiste: ¿Puede aplicarse un método similar para calcular los infinitos decimales binarios de W?

Chaitin se ocupa de respondernos. Al fín y al cabo, él fue quien encontró a W por primera vez: "Bueno, es evidente que conocer los primeros n dígitos decimales de W nos capacita para resolver la incógnita de Turing para todos los programas de hasta n bits de tamaño. Por eso, uno tiene un programa finito que puede resolver las incógnitas de una cantidad de bits inferior o igual a su propio tamaño. Pero como W tiene infinitos dígitos, necesitaríamos un programa finito que resolviera una cantidad infinita de decimales. Esto es imposible. Por lo tanto, un programa así no existe ni puede existir".

El motivo básico es que W es irreductible. No puede ser reducido a una teoría finita más pequeña que él. Cada componente del número es un dígito al azar, y, aunque W está definido matemáticamente de manera perfecta, sus infinitos bits desafían los intentos por capturarlos en un programa finito. Si ese "programa" existiese, constaría solo de una instrucción infinita:

1 Imprima 0,rrrrrrrrrrrrrr...


, donde r, una vez más, es un 0 o un 1 elegido al azar. Esta instrucción sería más grande que el universo mismo.

Concluye Chaitin: "Omega es la última incognoscibilidad. Queda definido con toda precisión una vez que uno establece qué lenguaje de programación usará, pero cada uno de sus infinitos bits es completamente incognoscible y completamente irreductible".

Nosotros agregamos: el problema de Turing no tiene solución, precisamente, porque, como hemos dicho, la respuesta al Problema de la Detención tiene el valor exacto de W



VIII.- GRAND FINALE: ADIÓS, TDT CRUEL...

Cualquier teoría matemática, como hemos dicho, está formada por un conjunto finito de axiomas, hechos básicos autoevidentes que no requieren de demostración, asociados con un conjunto de leyes que indican como aplicar la lógica al sistema.

La TDT matemática, entonces, sería un conjunto de axiomas de los cuales podríamos deducir todas las verdades matemáticas, derivar todos los objetos matemáticos, generar los teoremas que demostraran todas las hipótesis, definir las ecuaciones que resolvieran todas las curvas...

La TDT matemática tendría que poder hacer todo esto, pero también tendría que tener una extensión finita y una complejidad menor que todos sus resultados, porque si no estaríamos reduciendo la teoría al absurdo, al pretender desarrollar un teorema cuya demostración es más compleja que la hipótesis que pretende probar.

Pero, además de todo ello, la supuesta TDT matemática tendría que ser capaz de calcular todos y cada uno de los dígitos binarios de W. No olvidemos que se trata de un objeto matemático perfectamente normal, así que una Teoría del Todo tiene que contenerlo necesariamente.

Es por ello que una TDT tendría que darnos una teoría finita que fuera capaz de computar cualquiera, todos y cada uno de los dígitos de W. Pero, como Chaitin ha demostrado, esto es imposible, porque el numerito en cuestión presenta una complejidad infinita, de modo que ningún programa finito podría calcular ni uno solo de sus dígitos. Ello quiere decir que cualquier autorreputada "Teoría del Todo" sería en realidad una "Teoría del Casi Todo". Podría calcular todo lo demás, pero nunca sería capaz de calcular a Omega. Por lo tanto, una TDT matemática no existe, nunca existió y no puede existir.

En pocas palabras, Greg Chaitin ha descubierto un área de las matemáticas donde la verdad matemática no tiene estructura formal en absoluto: es amorfa, incognoscible y solamente puede atisbarse por medios estadísticos. La forma de definir a W es sencillamente decir: "Empieza con 0 coma, y a continuación viene una infinita serie de decimales, de los cuales cada uno tiene una probabilidad del 50% de ser un 0 y un 50% de probabilidad de ser un 1".


Es más fácil enamorar a la chica que definir matemáticamente la posición de las manchas

El objeto W, que, como hemos observado, solamente puede describirse en términos probabilísticos, ha mostrado cuál es el verdadero logro de Greg: acaba de descubrir un campo completo dentro de las matemáticas que alberga el más puro, sólido, ineluctable azar. Dice gozoso: "Creo que Leibnitz y Turing hubieran disfrutado enormemente de este giro de los acontecimientos". Los teoremas de Gödel nos dicen que en el ámbito de la matemática hay declaraciones que son incognoscibles, y W nos dice que hay infinitas de esas declaraciones. No existe ni puede existir una teoría matemática de la cual podamos deducir si uno de sus dígitos es un 0 o un 1. En realidad, no existe ni puede existir teoría matemática que nos diga la mayoría de los dígitos de W, ni una tercera parte, ni tan solo algunos. De hecho, nunca podremos conocer con certeza ni uno solo de ellos.

La matemática no es, por tanto, una ciencia exacta. O lo será siempre y cuando no nos metamos con W ni pretendamos elaborar una Teoría del Todo.



IX.- CODA: FILOSOFANDO ANTE EL CIEGO OJO DEL DESORDEN


Imre Lakatos
La diferencia que la mayoría de la gente percibe entre la física y la matemática es que la primera es "empírica" o "experimental", mientras que la segunda era (hasta el descubrimiento de W) una ciencia "exacta".

Sin embargo, casi nadie habla de las ciencias "cuasiempíricas", concepto desarrollado por el matemático y filósofo húngaro Imre Lakatos en 1956. Se refería a las ciencias supuestamente exactas pero que contienen un componente de impredictibilidad que debe ser estudiado con métodos experimentales. Chaitin ha demostrado que la matemática comparte esta circunstancia.

Así, opina que, después de sus descubrimientos y los de Gödel y Turing, el Hombre debe aproximarse a esta ciencia con un método más experimental y un espíritu mucho más empirista que lo que lo ha venido haciendo desde hace, digamos, unos 3.000 años. "Debiéramos mirar la matemática más como a una ciencia experimental, en lugar de ir por ahí exigiendo pruebas para todo. A lo mejor, los matemáticos deberíamos dejar de intentar probar la Hipótesis de Riemann y terminar aceptando que no puede ser probada. Finalmente, la tomaríamos como un nuevo axioma".

Aplicando a ultranza el helénico Principio de la Razón Suficiente, los matemáticos, en verdad, siempre han exigido pruebas para todo. No importa qué tanta evidencia haya acerca de la solución de un teorema, no interesa que haya millones de ejemplos particulares de su validez, ellos siempre exigirán la demostración del caso general. Pero aquí encontramos a un hombre que ha descubierto un nuevo objeto, un objeto que demuestra que ciertas cosas son ciertas o falsas sin ninguna razón especial: un verdadero escupitajo en el rostro del razonamiento mecanicista al estilo de Hilbert. Si no podemos probar infinitas declaraciones matemáticas, sino solamente aceptar que son ciertas y adoptarlas como nuevos axiomas, estamos demoliendo el concepto mismo de teoría matemática. Todas las teorías matemáticas comenzaban (hasta ahora) con axiomas, y luego seguían deduciendo las consecuencias de los axiomas mediante lo que llamamos teoremas. Chaitin muestra, con el mero descubrimiento de W, el limitado poder de la lógica y la razón. Incluso dentro de una ciencia como la matemática, que se creía basada únicamente en ellas.


Omega, demoliendo ideas antiguas

Así, la matemática se ha demostrado como no tan desapegada de la realidad del universo como la gente pensaba. W prueba que tiene que convertirse en una ciencia más experimental, más basada en la experimentación y la observación. Si Hilbert hubiese estado en lo cierto, la matemática hubiera seguido siendo un sistema estanco, cerrado, estático, y por supuesto que una TDT hubiera sido posible.

Pero, a la luz de nuestros actuales conocimientos y de los trabajos de Turing, Gödel y Chaitin, nuestra mirada sobre el conocimiento y las ciencias se han ampliado mucho más.

Todo gracias a ese número misterioso y elusivo, a ese valor existente pero incognoscible, verdadero pero imposible de probar.

Nuestra visión del mundo ha madurado gracias a W.

MÁS DATOS:

Ivar Peterson: Math Trek, The limits of Mathematics
Gregory Chaitin: Omega and why maths has no TOEs
Gregory Chaitin: The limits of reason

(Traducido, adaptado y ampliado por Marcelo Dos Santos de Scientific American y de otros sitios de Internet)


Zapping relacionados:

0296 Universidad de Springfield
0281 La última verdad
0265 La ley inexplicable
0231 El ubicuo Fibonacci
Anteriores:

Sumario completo de ZAPPING


Si disfrutó de esta sección, no deje de recorrer la sección Noticias. Encontrará muchas más rarezas y novedades científicas que lo sorprenderán...