Neuronas muerte cerebro b

Redes Neuronales

By tec1
  • Alan Turing y el primer modelo de red neuronal

    Alan Turing y el primer modelo de red neuronal
    Alan Turing estudio el cerebro humano como una forma de ver el mundo en la computación. Estableciendo una teoria acerca de la forma de trabajar de las neuronas con la ayuda de Warren McCulloch y Walter Pitts.
  • Aprendizaje no supervisado - Donald Hebb

    Aprendizaje no supervisado -  Donald Hebb
    Utiliza datos de entrenamiento no etiquetados previamente y no necesita tutor externo. Los datos son presentados simplemente a la red, que de acuerdo con ellos configura cúmulos internos que comprimen los datos de entrada en cierto número de categorías de clasificación. Este tipo de aprendizaje es el aplicado en las Redes de Kohonen
  • Modelo neuronal de McCulloch-Pitts

    Modelo neuronal de McCulloch-Pitts
    El primer modelo matem´atico de una neurona artificial, creado con el fin
    de llevar a cabo tareas simples, fu´e presentado en el a˜no 1943 en un trabajo
    conjunto entre el psiquiatra y neuroanatomista Warren McCulloch y el matem´atico
    Walter Pitts
  • Procesos del aprendizaje

    Procesos del aprendizaje
    Donald Hebb , fue el primero en explicar los procesos del aprendizaje. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados.Esto es la base de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal.
  • Nacimiento de la inteligencia artificial

    Nacimiento de la inteligencia artificial
    Se define el concepto de inteligencia artificial en Dartmouth durante una conferencia convocada por McCarthy (con asistencia de científicos, investigadores,psicólogos y teóricos de las ciencias sociales).
  • Desarrollo de la red neuronal Perceptron

    Desarrollo de la red neuronal Perceptron
    Frank Rosenblatt desarrollo este modelo que era capaz de generalizar, es decir, después de haber aprendido
    una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento.
  • Principios de Neurodinámica

     Principios de Neurodinámica
    Frank Rosenblatt saca un libro confirmando que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estadofinito (Teorema de Convergencia del Perceptron).
  • Desarrollo del modelo Adaline

    Desarrollo del modelo Adaline
    Bernard Widroff y Marcian Hoff desarrollaron el modelo adaline que fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
  • Rosemblatt El Perceptrón

    Rosemblatt El Perceptrón
    es un identificador de patrones ópticos binarios, y salida binaria. Dio lugar a regla de aprendizaje delta, que permitía emplear señales continuas de entrada y salida.
  • Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales

    Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales
    ya que Minsky y Papert probaron (matemáticamente) que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales como 7 el aprendizaje de una función no-lineal. Esto demostró que el Perceptron era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real.
  • ALAIN COLMENAUER Y SU EQUIPO DE INVESTIGACIÒN

    ALAIN COLMENAUER Y SU EQUIPO DE INVESTIGACIÒN
    CREAN PROLOG UN LENGUAJE DE PROGRAMACIÒN PARA INTELIGENCIA ARTIFICIAL
  • Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje

    Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje
    Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
  • Propagacion hacia atrás

    Propagacion hacia atrás
    Frank Rosenblat es un algoritmo de aprendizaje supervisado resuelve eficazmente el problema, y en general el problema de la formación de redes neuronales rápida de múltiples capas
  • Anderson Los Modelos de memorias asociativas.

    Anderson Los Modelos de memorias asociativas.
    James Anderson, que desarrolló un modelo lineal, llamado Asociador Lineal, que consistía en unos elementos integradores lineales (neuronas) que sumaban sus entradas.Anderson diseñó una potente extensión del Asociador Lineal, llamada Brain State in a Box (BSB).
  • Teuvo Kohonen mapas auto-organizados o SOM

     Teuvo Kohonen  mapas auto-organizados o SOM
    La red auto-organizada identifica rasgos comunes, regularidades, correlaciones o categorías en los datos de entrada, e incorporarlos a su estructura interna de conexiones,(usa el aprendizaje no supervisado)
  • Kohonen Mapas de Kohonen

    Kohonen Mapas de Kohonen
    Este investigador fines desarrolló redes basadas en aprendizaje competitivo, con una idea nueva basada en la biología: Las unidades de procesos físicamente adyacentes aprenderán a representar patrones de entrada similares, así las neuronas de salida adyacentes identifican patrones similares.
  • John Hopfield. Provocó el renacimiento de las redes neuronales

    John Hopfield. Provocó el renacimiento de las redes neuronales
    John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.”
  • David Rumelhart/G. Hinton

    David Rumelhart/G. Hinton
    David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation). Se aplica a problemas relacionados con el aprendizaje en computación y psicología.
  • Grossberg El modelo ART (Adaptative Resonance Theory)

     Grossberg El modelo ART (Adaptative Resonance Theory)
    es una teoría desarrollada por Stephen Grossberg y Gail Carpenter sobre aspectos de cómo el cerebro procesa la información. Describe una serie de modelos de redes neuronales que utilizan métodos de aprendizaje supervisados ​​y no supervisados, y abordan problemas tales como el reconocimiento y la predicción de patrones .
  • SE DESARROLLAN SISTEMAS INTELIGENTES TERAPÉUTICOS QUE PERMITEN DETECTAR EMOCIONES PARA PODER INTERACTUAR CON NIÑOS AUTISTAS.

  • La existencia de un algoritmo de retropropagación

     La existencia de un algoritmo de retropropagación
    Se logró implementar, según Daumé III (2014), un enfoque para hacer una cadena de colección de perceptrones para construir redes neuronales más complejas, o como comúnmente se le denomina «perceptrón multicapa» Al poseer varias capas de neuronas se logró ganar mayor flexibilidad en las salidas, y por ende se pudo solucionar el clásico problema de la operación XOR que no era posible por medio del perceptrón simple.