-
En 1943 una serie de matemáticos lanzan una teoría acerca de la forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
-
Este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados.
-
En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.
-
Marvin Minsky implementa en hardware el primer Perceptron para demostrar su utilidad.
-
Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.
-
Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento.
-
En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron).
-
(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
-
Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
-
Stephen Grossberg: Teoría de Resonancia Adaptada (TRA).
La resonancia consiste en la combinación lineal de estructuras teóricas de una molécula (estructuras resonantes o en resonancia) que no coinciden con la estructura real, pero que mediante su combinación nos acerca más a su estructura real. -
Distribución de los pesos de las entradas es calculada a partir de la probabilidad de que la salida de la neurona ses 1 o 0, lo que convierte al sistema en un sistema estocástico.
-
John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.”
-
Se vuelve a investigar sobre el algoritmo de aprendizaje de propagación hacia atrás (backpropagation).
-
Forma matemáticamente de desarrollar redes neuronales de dos capas.
-
Jeff Dean y Andrew Ng desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos.