IEste año celebramos el 90 aniversario del trabajo pionero de Kurt Gödel, quien fundó la teoría teórica moderna de la informática y la inteligencia artificial (IA) en 1931. Gödel envió ondas de choque a la comunidad académica mientras demostraba los límites fundamentales de la informática, la inteligencia artificial, lógica y matemáticas en sí. Esto tuvo un gran impacto en la ciencia y la filosofía en el siglo XX.
Nacido en Brno (actual Brno), Gödel tenía 25 años cuando escribió su tesis en Viena. En el curso de sus estudios, diseñó un lenguaje universal para codificar cualquier operación que pudiera formalizarse. Se basa en números enteros y permite la representación de datos, como axiomas de operaciones aritméticas básicas y teoremas demostrables, así como programas, por ejemplo, cadena de operaciones sobre los datos que producen evidencia. En particular, permite formalizar el comportamiento de cualquier ordenador digital de forma intuitiva. Wadell construyó declaraciones formales, autorreferenciales e indecidibles famosas, que implican que el contenido de la verdad no puede ser determinado por la aritmética.
Al hacerlo, finalmente determinó los límites básicos de la prueba de la teoría de algoritmos, la computación y todo tipo de inteligencia artificial computacional. Algunos incluso malinterpretaron sus resultados y creyeron que demostraba la superioridad de los humanos sobre la inteligencia artificial. De hecho, gran parte de la IA temprana en las décadas de 1940 a 1970 se ocupó de las pruebas teóricas y la inferencia en el método de Gödel (a diferencia del enfoque inductivo del aprendizaje automático que prevalece en la actualidad). Hasta cierto punto, fue posible apoyar a los especialistas humanos con sistemas de expertos deductivos.
Leibniz, Frij, Zuz, Turing
Como casi todos los grandes eruditos, Dowel estaba sobre los hombros de los demás. Combinó el famoso truco de destilación de Georg Cantor de 1891 (que mostró que hay diferentes tipos de infinito) con ideas fundamentales de Gottlob Frege, quien introdujo el primer lenguaje formal en 1879, y de Thoralf Skolem, quien fue un primitivo recursivo en 1923. Estos son los componentes básicos de la aritmética), así como por Jacques Herbrand, quien reconoció las limitaciones del enfoque de Skolem. Este trabajo, a su vez, amplió las ideas pioneras que el científico enciclopédico y «primer científico informático» Gottfried Wilhelm Leibniz tenía mucho antes.
Leibniz tenía «Calculemus!» Cita específica de la Ilustración: «Si hay un desacuerdo entre los filósofos, ya no tendrán que discutir como contables. Todo lo que tienen que hacer es sentarse con sus lápices y platos y decirse algo el uno al otro». […]: ¡Hagamos los cálculos! En 1931, Wedell demostró que existen límites fundamentales para lo que la aritmética puede decidir.
En 1935, Alonzo Church derivó un corolario del resultado de Wadell: el problema de la decisión no tiene una solución general. Para hacer esto, usó su lenguaje universal alternativo llamado Untyped Lambda Calculus, que forma la base del influyente lenguaje de programación LISP. En 1936, Alan Turing, a su vez, introdujo otro modelo universal: la máquina de Turing. Con esto, se volvió a sacar la conclusión anterior. En el mismo año 1936, Emil Post publicó otro modelo de computación independiente del mundo. Hoy conocemos muchos de estos modelos. Pero supuestamente fue el trabajo de Turing lo que convenció a Woodell de la universalidad de su propio enfoque.
Muchas secuencias de comandos de Gödel eran una serie de múltiplos de contenidos de memoria codificados con números enteros. A Wadeal no le importaba que la complejidad computacional de tales múltiplos tendiera a aumentar con el tamaño de la memoria. De manera similar, Church también ignoró la complejidad espacio-temporal dependiente del contexto de las operaciones subyacentes de sus algoritmos: el esfuerzo computacional requerido para realizar una operación dada es a priori ilimitado.
«Evangelista zombi. Pensador. Creador ávido. Fanático de Internet galardonado. Fanático de la web incurable».