-
En este trabajo, Turing planteó la cuestión de cuándo podría decirse que se habían construido máquinas que, efectivamente, pensaban. Su respuesta fue que aproximadamente en los próximos cincuenta años sería posible programar computadoras para que desarrollen el juego de imitación tan bien que un interrogador medio no tendría más del 70% de probabilidades de realizar la identificación correcta después de 5 minutos de preguntas.
-
Se creó IPL-II (Information Processing Language II), considerado el primer lenguaje de programación diseñado específicamente para la inteligencia artificial. Desarrollado por Allen Newell, J.C. Shaw y Herbert Simon, IPL-II se basaba en el procesamiento de listas, lo que permitía la manipulación de símbolos y estructuras de datos complejas.
-
En 1957, Allen Newell, J.C. Shaw y Herbert Simon iniciaron el desarrollo del General Problem Solver (GPS), un sistema diseñado para resolver una amplia gama de problemas de manera general. El GPS se convirtió en un arquetipo del “paradigma del poder” en la inteligencia artificial, al intentar crear un sistema que pudiera abordar cualquier tipo de problema.
-
En 1959, Arthur Samuel desarrolló un programa de inteligencia artificial capaz de jugar a las damas y competir al nivel de los mejores jugadores de su tiempo. Este programa fue un pionero en el uso de técnicas de aprendizaje automático, demostrando que una máquina podía aprender y mejorar sus habilidades con el tiempo.
-
En 1960, comenzaron en el MIT las investigaciones del proyecto de Inteligencia Artificial, lideradas por John McCarthy y Marvin Minsky, dos de los pioneros en el campo de la IA. Este proyecto fue fundamental para el desarrollo de teorías y técnicas que sentaron las bases de la inteligencia artificial moderna, convirtiendo al MIT en uno de los centros de investigación más importantes en esta área.
-
En 1964, Daniel G. Bobrow publicó su tesis doctoral, en la cual presentó su sistema llamado STUDENT. Este programa fue pionero en el uso del lenguaje natural para comprender y resolver problemas de álgebra. STUDENT demostró la capacidad de las máquinas para procesar y entender instrucciones en lenguaje humano, marcando un avance significativo en la interacción entre computadoras y usuarios.
-
En 1965, se publicó “Computer and Thought”, editado por Edward A. Feigenbaum. Este libro es una recopilación de trabajos de destacados pioneros en el campo de la inteligencia artificial, ofreciendo una visión integral de los avances y desafíos en la IA de la época. La obra se convirtió en una referencia fundamental para investigadores y estudiantes interesados en el desarrollo de la inteligencia artificial.
-
En 1965, se inició el desarrollo de DENDRAL, el primer sistema experto diseñado para analizar compuestos químicos. Este proyecto fue llevado a cabo en la Universidad de Stanford por un grupo que incluía a Joshua Lederberg, Edward A. Feigenbaum, Bruce G. Buchanan, Dennis Smith y Carl Djerassi. DENDRAL fue pionero en el uso de la inteligencia artificial para determinar la estructura de compuestos químicos, marcando un avance significativo en el campo de los sistemas expertos.
-
En 1965, comenzaron las investigaciones en el Stanford University Heuristic Programming Project (HPP) dentro del Departamento de Ciencias de la Computación de Stanford. Este proyecto se centró en el desarrollo de sistemas expertos, que son programas diseñados para emular la toma de decisiones de expertos humanos en campos específicos.
-
En 1966, se inició el desarrollo de SHAKEY, un robot móvil construido por SRI International. SHAKEY fue pionero en el uso de técnicas de inteligencia artificial para la planificación de tareas y la toma de decisiones, combinando sensores, procesamiento de datos y algoritmos de IA para navegar y realizar acciones de manera autónoma. Este proyecto marcó un hito en la integración de la robótica con la inteligencia artificial.
-
En 1966, Joseph Weizenbaum desarrolló ELIZA, uno de los primeros programas de procesamiento de lenguaje natural. ELIZA fue diseñado para simular una conversación con un psicoterapeuta, demostrando cómo las técnicas de lenguaje natural podían hacer que un ordenador pareciera inteligente. Este proyecto mostró el potencial de la interacción hombre-máquina a través del lenguaje.
-
En 1970, Alain Colmerauer y su equipo iniciaron el desarrollo de PROLOG, un lenguaje de programación orientado a la lógica que se convertiría en una herramienta fundamental en el desarrollo de sistemas de inteligencia artificial, especialmente en el campo de la programación lógica y los sistemas expertos.
-
En 1970, Patrick H. Winston publicó su tesis doctoral titulada “Learning Structural Descriptions from Examples”. En ella, describió ARCHES, un programa que aprendía a partir de ejemplos, marcando un avance significativo en el campo del aprendizaje automático.
-
En 1970, el proyecto de Inteligencia Artificial del MIT se reorganizó y se convirtió en el Laboratorio de Inteligencia Artificial, bajo la dirección de Marvin Minsky y Seymour Papert. Este laboratorio amplió su enfoque para incluir diversas áreas como la robótica, sistemas expertos, razonamiento y aprendizaje, lenguaje natural, y arquitectura de ordenadores, consolidándose como uno de los centros líderes en investigación de IA.
-
En 1970, Jack D. Myers y Harry E. Popel comenzaron en la Universidad de Pittsburgh el desarrollo del Sistema INTERIMIST, que más tarde sería conocido como CADUCEUS. Este sistema fue diseñado para ayudar a los médicos en el diagnóstico de enfermedades, representando uno de los primeros esfuerzos significativos en la aplicación de la inteligencia artificial en la medicina.
-
En 1971, se utilizó por primera vez el Sistema Experto MACSYMA, desarrollado por William Martin y Joel Moses. MACSYMA fue uno de los primeros sistemas capaces de realizar operaciones avanzadas de cálculo diferencial e integral y de simplificar expresiones simbólicas, estableciendo un nuevo estándar en la manipulación simbólica dentro de la inteligencia artificial.
-
En 1971, la Agencia de Investigación de Proyectos Avanzados del Ministerio de Defensa de los Estados Unidos (ARPA) comenzó a patrocinar investigaciones sobre la comprensión del lenguaje hablado, conocido como el Speech Understanding Research Program. Este proyecto condujo al desarrollo de varios programas importantes en el campo del reconocimiento de voz, incluyendo SPEECHIS, HWIM, y los sistemas HEARSAY-I, HEARSAY-II, DRAGON, y HARPY.
-
En 1973, la revista Cognitive Psychology publicó el influyente trabajo de Roger C. Schank titulado “Dependencia Conceptual: Una Teoría para la Comprensión del Lenguaje Natural.” En este artículo, Schank propuso un enfoque innovador para la comprensión del lenguaje natural, basado en la idea de que el significado de las palabras y frases se deriva de su relación conceptual en una estructura dependiente.
-
En 1975, Edward H. Shortliffe desarrolló la versión inicial de MYCIN, un Sistema Experto diseñado para hacer recomendaciones en el tratamiento de la meningitis y otras infecciones bacterianas en la sangre. MYCIN fue pionero en la aplicación de la inteligencia artificial en la medicina, utilizando reglas basadas en el conocimiento médico para diagnosticar y sugerir tratamientos.
-
En 1975, Roger C. Schank y Robert Abelson, de la Universidad de Yale, publicaron un documento en el que describieron el SAN (Script Applier Mechanism), un programa diseñado para la comprensión del lenguaje natural. Este sistema utilizaba guiones (scripts) para representar dependencias conceptuales, permitiendo una mejor interpretación y procesamiento del lenguaje en contextos específicos.
-
En 1975, Marvin Minsky publicó su influyente documento titulado “Un Marco para la Representación del Conocimiento,” en el cual discutió la utilidad de los “frames” como estructuras fundamentales para la representación del conocimiento. Estas estructuras son útiles en diversos sistemas de inteligencia artificial, incluyendo aquellos relacionados con el lenguaje natural y la visión por computadora.
-
En 1976, Douglas B. Lenat desarrolló el Sistema Experto “AM” (Automated Mathematician), un programa diseñado para definir y evaluar conceptos matemáticos en la teoría de conjuntos. “AM” fue innovador en su capacidad para generar nuevas ideas matemáticas de manera automática, representando un avance significativo en la aplicación de la inteligencia artificial a las matemáticas y la teoría de la creatividad computacional.
-
En 1977, programadores del Instituto de Investigación Informática de Budapest (SZKI) completaron el primer Sistema Experto escrito en PROLOG, que fue utilizado en aplicaciones prácticas. Este desarrollo representó un hito en la historia de la inteligencia artificial, destacando el potencial de PROLOG para la creación de sistemas expertos eficientes y su aplicación en situaciones del mundo real.
-
En 1980, XCON, el primer Sistema Experto utilizado con gran éxito en entornos comerciales, entró en producción en Digital Equipment Corporation. El prototipo de XCON fue desarrollado bajo la dirección de John McDermott en la Carnegie Mellon University. Este sistema automatizaba la configuración de complejos sistemas de computación, mejorando significativamente la eficiencia y precisión en el entorno comercial, marcando un importante avance en la aplicación práctica de la inteligencia artificial.
-
En 1981, Japón anunció su ambicioso Proyecto de Quinta Generación de Ordenadores, con el objetivo de desarrollar una nueva clase de computadoras basadas en la inteligencia artificial. Este proyecto, liderado por el Instituto de Investigación de Tecnología Industrial de Japón (ICOT), buscaba crear máquinas capaces de procesamiento paralelo masivo y razonamiento lógico avanzado, representando una visión de futuro para la computación y la inteligencia artificial.
-
En 1982, Inglaterra lanzó el Programa Alvey de tecnología avanzada, una iniciativa dedicada a investigar y desarrollar tecnologías relacionadas con la Quinta Generación de computadoras. Este programa fue creado como parte de un esfuerzo nacional para avanzar en el campo de la inteligencia artificial y otras tecnologías emergentes, asegurando que el Reino Unido pudiera competir a nivel global en estas áreas críticas.
-
En 1982, como respuesta al ambicioso Proyecto de Quinta Generación de Japón, Estados Unidos creó la Microelectronics and Computer Technology Corporation (MCC) y el Strategic Computer Project. Estas iniciativas fueron diseñadas para mantener la competitividad de EE.UU. en el campo de la tecnología avanzada, enfocándose en el desarrollo de microelectrónica, computación y tecnologías relacionadas con la inteligencia artificial.
-
En 1982, se inauguró en Tokio el Instituto para la Nueva Generación de Ordenadores (ICOT), como parte del ambicioso Proyecto de Quinta Generación de Ordenadores de Japón. El ICOT fue establecido para liderar la investigación y desarrollo de nuevas tecnologías de computación basadas en la inteligencia artificial, con un enfoque en el procesamiento paralelo masivo y el razonamiento lógico avanzado, buscando revolucionar el futuro de la informática.
-
En 1983, la Comunidad Europea lanzó el proyecto ESPRIT (European Strategic Programme for Research and Development in Information Technology) con el objetivo de competir en la carrera por el desarrollo del ordenador de la Quinta Generación. ESPRIT fue diseñado para impulsar la investigación y el desarrollo en tecnologías de la información y la inteligencia artificial, fortaleciendo la posición de Europa en la vanguardia de la tecnología informática.
-
En 1983, el Instituto Turing fue fundado en la Universidad de Strathclyde en Edimburgo, Escocia. Este instituto se dedicó a ofrecer formación especializada en inteligencia artificial y temas relacionados, contribuyendo al avance de la investigación y la educación en el campo de la IA en el Reino Unido.
-
El Sistema Experto R1, desarrollado por la empresa Digital Equipment Corporation (DEC), se convirtió en uno de los primeros sistemas expertos utilizados comercialmente para resolver problemas en el área de configuración de productos.
-
En 1986, Tom M. Mitchell publicó el libro “Learning from Data,” que es uno de los textos fundamentales en el campo del aprendizaje automático, describiendo algoritmos de aprendizaje y principios teóricos en el contexto de la inteligencia artificial.
-
La Fundación Nacional de Ciencias de EE.UU. (NSF) lanzó un programa de investigación en Ciencias Cognitivas, que incluyó el financiamiento de proyectos en inteligencia artificial, la teoría del conocimiento y el modelado cognitivo.
-
En 1988, el método de propagación hacia atrás (backpropagation) se popularizó para entrenar redes neuronales artificiales, permitiendo avances significativos en el aprendizaje automático y el reconocimiento de patrones.
-
Aunque MYCIN fue desarrollado inicialmente en 1975, en 1991 se realizaron importantes mejoras en su uso y aplicación, consolidándolo como una herramienta influyente en la inteligencia artificial aplicada a la medicina.
-
La primera conferencia IJCAI (International Joint Conference on Artificial Intelligence) se llevó a cabo en 1995, marcando un hito importante en la difusión y discusión de avances en el campo de la IA a nivel internacional.
-
En 1997, el sistema de inteligencia artificial Deep Blue de IBM venció al campeón mundial de ajedrez Garry Kasparov en una serie de partidas, marcando un momento histórico en la capacidad de las máquinas para competir con los mejores jugadores humanos en juegos complejos.
-
En 2002, la empresa iRobot lanzó el Roomba, un robot aspirador autónomo que utiliza técnicas de inteligencia artificial para navegar y limpiar su entorno, marcando un avance importante en la aplicación de la IA en productos de consumo.
-
En 2006, Geoffrey Hinton y sus colegas publicaron trabajos clave sobre el aprendizaje profundo (deep learning), que revivieron y popularizaron el uso de redes neuronales profundas para resolver problemas complejos en visión por computadora y procesamiento del lenguaje natural.
-
El sistema de inteligencia artificial Watson de IBM ganó en el programa de televisión Jeopardy! en 2011, superando a campeones humanos y demostrando la capacidad de las máquinas para procesar y comprender lenguaje natural en un contexto competitivo.
-
En 2014, DeepMind, una empresa adquirida por Google, anunció avances significativos en el aprendizaje por refuerzo, incluyendo la capacidad de su sistema AlphaGo para jugar y ganar en el juego de Go, que se considera uno de los juegos de mesa más complejos.
-
En 2018, OpenAI presentó GPT-2, un modelo de lenguaje generativo que mostró capacidades avanzadas en la generación de texto coherente y realista, impulsando el desarrollo de aplicaciones en procesamiento del lenguaje natural y conversación.
-
En 2021, OpenAI lanzó GPT-3, el modelo de lenguaje generativo más avanzado hasta la fecha, con 175 mil millones de parámetros, que demostró una capacidad sin precedentes en la generación de texto y la comprensión del lenguaje natural.