- 
  
   Marvin Minsky implementa en hardware el primer Perceptron para demostrar su utilidad. Marvin Minsky implementa en hardware el primer Perceptron para demostrar su utilidad.
- 
  
  Jhon McCarthy formula el concepto de IA como "El arte de crear computadores y software capaz de tener comportamiento inteligente".
- 
  
  
- 
  
  Avances importantes en lógica simbólica, resolución de problemas y redes neuronales primitivas, aunque estas últimas aún enfrentaban limitaciones técnicas y teóricas.
- 
  
  - Falta de interés en la comunidad académica.
- Incapacidad del perceptrón para resolver problemas no lineales (ejemplo clásico: el problema XOR)
- La falta de algoritmos eficientes para entrenamiento.
 
- 
  
  Seppo Linnainmaa lo implementa por primera vez pero no tuvo impacto inmediato por las limitaciones tecnológicas.
- 
  
  Paul Werbos propone emplear la backpropagation para la inteligencia artificial de manera profunda en su tesis de doctorado.
- 
  
  Paul Werbos publicó su trabajo sobre backpropagation, lo que ayudó a difundir esta técnica en la comunidad científica.
- 
  
   Se desarrolló el algoritmo de aprendizaje para las máquinas de Boltzmann, introduciendo redes estocásticas donde las salidas se basan en probabilidades, no en determinismo. Se desarrolló el algoritmo de aprendizaje para las máquinas de Boltzmann, introduciendo redes estocásticas donde las salidas se basan en probabilidades, no en determinismo.
- 
  
  David Rumelhart, Geoffrey Hinton y Ronald Williams publicaron un artículo que popularizó el algoritmo de backpropagation para entrenar redes neuronales multicapa, impulsando el renacimiento del interés en redes neuronales.
- 
  
  Yann LeCun et al, aplica la backpropagation para hacer un sistema que reconoce el código postal escrito a mano.
- 
  
  Alexander Weibel y Hinton resuelven la falta de memoria en las redes neuronales, con el algoritmo de retardo de tiempo.
- 
  
  - Limitaciones en capacidad computacional.
- Falta de grandes conjuntos de datos para entrenamiento.
- Competencia de otros métodos como máquinas de soporte vectorial (SVM).
 
- 
  
  Estudio que demuestra la diferencia en potencia de procesamiento al emplear GPUs, en vez de CPUs.
- 
  
  Jeff Dean y Andrew Ng desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos.
- 
  
   Skype incorporó traducción simultánea usando redes neuronales profundas, mostrando la aplicación práctica del aprendizaje profundo en la vida diaria. Skype incorporó traducción simultánea usando redes neuronales profundas, mostrando la aplicación práctica del aprendizaje profundo en la vida diaria.
- 
  
  GPT-2 es un modelo de lenguaje que genera texto coherente y realista, mostrando avances en la generación automática de contenido.
- 
  
  ChatGPT, basado en GPT-4, ofrece interacciones conversacionales avanzadas, mejorando la experiencia de usuario en aplicaciones de IA.
