LINEA DEL TIEMPO - REDES NEURONALES

  • Turing estudia el cerebro como una forma de ver el mundo de la computación.

    Turing estudia el cerebro como una forma de ver el mundo de la computación.
    En 1943 una serie de matemáticos lanzan una teoría acerca de la forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
  • Donald Hebb, el primero en explicar los procesos del aprendizaje.

    Donald Hebb, el primero en explicar los procesos del aprendizaje.
    Este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados.
  • Karl Lashley - Centralización del cerebro.

    Karl Lashley - Centralización del cerebro.
    En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.
  • Implementacion del Primer Perceptron

    Implementacion del Primer Perceptron
    Marvin Minsky implementa en hardware el primer Perceptron para demostrar su utilidad.
  • Congreso de Dartmouth.

    Congreso de Dartmouth.
    Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.
  • Desarrollo del perceptrón - Frank Rosenblatt.

    Desarrollo del perceptrón - Frank Rosenblatt.
    Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento.
  • Principios de Neurodinámica - Frank Rosenblatt.

    Principios de Neurodinámica - Frank Rosenblatt.
    En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron).
  • Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline

    Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline
    (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
  • Paul Werbos - Desarrolló la idea básica del algoritmo de aprendizaje.

    Paul Werbos - Desarrolló la idea básica del algoritmo de aprendizaje.
    Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
  • Stephen Grossberg: Teoría de Resonancia Adaptada (TRA).

    Stephen Grossberg: Teoría de Resonancia Adaptada (TRA).
    Stephen Grossberg: Teoría de Resonancia Adaptada (TRA).
    La resonancia consiste en la combinación lineal de estructuras teóricas de una molécula (estructuras resonantes o en resonancia) que no coinciden con la estructura real, pero que mediante su combinación nos acerca más a su estructura real.
  • Creación del algoritmo de aprendizaje para maquinas de Bollzmann.

    Creación del algoritmo de aprendizaje para maquinas de Bollzmann.
    Distribución de los pesos de las entradas es calculada a partir de la probabilidad de que la salida de la neurona ses 1 o 0, lo que convierte al sistema en un sistema estocástico.
  • Provocación del renacimiento de las redes neuronales - John Hopfield.

    Provocación del renacimiento de las redes neuronales - John Hopfield.
    John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.”
  • David Rumelhart - Redescubrimiento.

    Se vuelve a investigar sobre el algoritmo de aprendizaje de propagación hacia atrás (backpropagation).
  • Surge el nuevo metodo "Support Vector MChines"

    Forma matemáticamente de desarrollar redes neuronales de dos capas.
  • Nacimiento del Cerebro de Google.

    Nacimiento del Cerebro de Google.
    Jeff Dean y Andrew Ng desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos.