Redes neuronales

Redes neuronales artificiales

  • Historia de la computación neuronal

    Historia de la computación neuronal
    En 1943, el neurobiólogo Warren McCulloch, y el estadístico Walter Pitss, publicaron el artículo "A logical calculus of Ideas Imminent in Nervous Activity". Este artículo constituyó la base y el inicio del desarrollo en diferentes campos como son los Ordenadores Digitales (John Von Neuman), la Inteligencia Artificial (Marvin Minsky con los Sistemas Expertos) y el funcionamieto del ojo (Frank Rosenblatt con la famosa red llamada Perceptron).
  • Los pioneros de la inteligencia artificial

    Los pioneros de la inteligencia artificial
    En 1956, los pioneros de la Inteligencia Artificial, Minsky, McCarthy, Rochester, Shanon, organizaron la primera conferencia de Inteligencia Artificial que fue patrocinada por la Fundación Rochester. Esta conferencia se celebró en el verano de
    1956 en la localidad inglesa de Darmouth y en muchos libros se hace referencia al verano de este año como la primera toma de contacto seria con las redes neuronales artificiales.
  • Perceptron

    Perceptron
    En 1957, Frank Rosenblatt publicó el mayor trabajo de investigación en computación neuronal realizado hasta esas fechas. Su trabajo consistía en el desarrollo de un elemento llamado "Perceptron".
  • Adaline y Madaline

    En 1959, Bernard Widrow en Stanford desarrolló un elemento adaptativo lineal llamado "Adaline" (Adaptive Linear Neuron). La Adaline y una versión de dos capas, llamada "Madaline", fueron utilizadas en distintas aplicaciones como reconocimiento de voz y caracteres, predicción del tiempo, control adaptativo y sobre todo en el desarrollo de filtros adaptativos que eliminen los ecos de las líneas telefónicas.
  • MIT

    A mediados de los años 60, Minsky y Papert pertenecientes al Laboratorio de Investigación de Electrónica del MIT (Massachussets Institute Technology) comenzaron un trabajo profundo de crítica al perceptron. El resultado de este trabajo, el libro Perceptrons, era un análisis matemático del concepto del perceptron.
  • Teuvo Kononen

    Teuvo Kohonen, de la Universidad de Helsinki, es uno de los mayores impulsores de la computación neuronal de la década de los 70. De su trabajo de investigación destacan dos aportaciones: la primera es la descripción y análisis de una clase grande de reglas adaptativas, reglas en las que las conexiones ponderadas se modifican de una forma dependiente de los valores anteriores y posteriores de las sinapsis.
  • John Hopfield

    En 1982 John Hopfield con la publicación del artículo Hopfield Model o Crossbar Associative Network, junto con la invención del algoritmo Backpropagation se consiguió devolver el interés y la confianza en el fascinante campo de la computación neuronal tras dos décadas de casi absoluta inactividad y desinterés.
  • Investigación hoy en dia

    Existen muchos grupos con sede en diferentes universidades de todo el mundo que están realizando trabajos de investigación en el área de las redes neuronales artificiales. Cada grupo tiene diferente énfasis y motivación con los neurólogos, psicólogos del conocimiento, físicos, programadores y matemáticos. Todos ellos ofrecen nuevos puntos de vista e intuiciones en esta área de la técnica.