-
Warren McCulloch y Walter Pitts crean un modelo matemático para las neuronas artificiales, sentando las bases de las redes neuronales. -
Alan Turing publica su artículo “Computing Machinery and Intelligence” donde introduce el famoso "Test de Turing", que evalúa la capacidad de una máquina para exhibir comportamiento inteligente indistinguible de un humano. -
John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon organizan la Conferencia de Dartmouth, considerada el nacimiento oficial del campo de la inteligencia artificial. -
John McCarthy desarrolla el lenguaje de programación LISP, que se convierte en uno de los lenguajes más utilizados para la investigación en IA. -
Joseph Weizenbaum crea ELIZA, uno de los primeros programas de procesamiento del lenguaje natural, que simula una conversación con un terapeuta. -
Se desarrollan sistemas expertos como MYCIN (para diagnóstico médico), basados en reglas y lógica simbólica, un enfoque prominente durante esta década. -
Aumenta el interés por las redes neuronales, especialmente con el algoritmo de retropropagación de errores de Geoffrey Hinton y colegas, lo que permite entrenar redes neuronales más profundas. -
La computadora Deep Blue de IBM vence al campeón mundial de ajedrez Garry Kasparov, marcando un hito en la capacidad de las máquinas para realizar tareas complejas. -
Se desarrollan algoritmos de aprendizaje automático como los árboles de decisión y las máquinas de soporte vectorial (SVM), que empiezan a aplicarse a una variedad de industrias. -
IBM lanza Watson, una IA que gana el concurso televisivo Jeopardy! al derrotar a dos campeones humanos, demostrando el poder de la comprensión del lenguaje natural. -
Un equipo de investigadores, liderado por Geoffrey Hinton, utiliza redes neuronales profundas para ganar el concurso de clasificación de imágenes ImageNet, marcando el comienzo de la revolución del deep learning. -
AlphaGo, desarrollado por Google DeepMind, vence a un campeón mundial de Go, un juego mucho más complejo que el ajedrez, demostrando el poder de las redes neuronales y el aprendizaje por refuerzo. -
Se funda OpenAI con el objetivo de desarrollar IA avanzada de manera segura y accesible para el público. -
OpenAI lanza GPT-2, un modelo de lenguaje de gran escala que demuestra capacidades asombrosas en la generación de texto coherente y creativo. -
GPT-3 es un modelo de lenguaje natural con 175 mil millones de parámetros, capaz de generar textos coherentes, responder preguntas, traducir idiomas y realizar tareas creativas con muy poco entrenamiento específico. -
OpenAI lanzó GPT-4, que amplió las capacidades de modelos anteriores incluyendo procesamiento multimodal (texto + imágenes), mayor comprensión y generación más precisa, acercándose más a la inteligencia general artificial.