-
Marvin Minsky implementa en hardware el primer Perceptron para demostrar su utilidad.
-
Jhon McCarthy formula el concepto de IA como "El arte de crear computadores y software capaz de tener comportamiento inteligente".
-
-
Avances importantes en lógica simbólica, resolución de problemas y redes neuronales primitivas, aunque estas últimas aún enfrentaban limitaciones técnicas y teóricas.
-
- Falta de interés en la comunidad académica.
- Incapacidad del perceptrón para resolver problemas no lineales (ejemplo clásico: el problema XOR)
- La falta de algoritmos eficientes para entrenamiento.
-
Seppo Linnainmaa lo implementa por primera vez pero no tuvo impacto inmediato por las limitaciones tecnológicas.
-
Paul Werbos propone emplear la backpropagation para la inteligencia artificial de manera profunda en su tesis de doctorado.
-
Paul Werbos publicó su trabajo sobre backpropagation, lo que ayudó a difundir esta técnica en la comunidad científica.
-
Se desarrolló el algoritmo de aprendizaje para las máquinas de Boltzmann, introduciendo redes estocásticas donde las salidas se basan en probabilidades, no en determinismo.
-
David Rumelhart, Geoffrey Hinton y Ronald Williams publicaron un artículo que popularizó el algoritmo de backpropagation para entrenar redes neuronales multicapa, impulsando el renacimiento del interés en redes neuronales.
-
Yann LeCun et al, aplica la backpropagation para hacer un sistema que reconoce el código postal escrito a mano.
-
Alexander Weibel y Hinton resuelven la falta de memoria en las redes neuronales, con el algoritmo de retardo de tiempo.
-
- Limitaciones en capacidad computacional.
- Falta de grandes conjuntos de datos para entrenamiento.
- Competencia de otros métodos como máquinas de soporte vectorial (SVM).
-
Estudio que demuestra la diferencia en potencia de procesamiento al emplear GPUs, en vez de CPUs.
-
Jeff Dean y Andrew Ng desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos.
-
Skype incorporó traducción simultánea usando redes neuronales profundas, mostrando la aplicación práctica del aprendizaje profundo en la vida diaria.
-
GPT-2 es un modelo de lenguaje que genera texto coherente y realista, mostrando avances en la generación automática de contenido.
-
ChatGPT, basado en GPT-4, ofrece interacciones conversacionales avanzadas, mejorando la experiencia de usuario en aplicaciones de IA.