-
Alan Turing estudio el cerebro humano como una forma de ver el mundo en la computación. Estableciendo una teoria acerca de la forma de trabajar de las neuronas con la ayuda de Warren McCulloch y Walter Pitts.
-
Utiliza datos de entrenamiento no etiquetados previamente y no necesita tutor externo. Los datos son presentados simplemente a la red, que de acuerdo con ellos configura cúmulos internos que comprimen los datos de entrada en cierto número de categorías de clasificación. Este tipo de aprendizaje es el aplicado en las Redes de Kohonen
-
El primer modelo matem´atico de una neurona artificial, creado con el fin
de llevar a cabo tareas simples, fu´e presentado en el a˜no 1943 en un trabajo
conjunto entre el psiquiatra y neuroanatomista Warren McCulloch y el matem´atico
Walter Pitts -
Donald Hebb , fue el primero en explicar los procesos del aprendizaje. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados.Esto es la base de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal.
-
Se define el concepto de inteligencia artificial en Dartmouth durante una conferencia convocada por McCarthy (con asistencia de científicos, investigadores,psicólogos y teóricos de las ciencias sociales).
-
Frank Rosenblatt desarrollo este modelo que era capaz de generalizar, es decir, después de haber aprendido
una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. -
Frank Rosenblatt saca un libro confirmando que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estadofinito (Teorema de Convergencia del Perceptron).
-
Bernard Widroff y Marcian Hoff desarrollaron el modelo adaline que fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
-
es un identificador de patrones ópticos binarios, y salida binaria. Dio lugar a regla de aprendizaje delta, que permitía emplear señales continuas de entrada y salida.
-
ya que Minsky y Papert probaron (matemáticamente) que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales como 7 el aprendizaje de una función no-lineal. Esto demostró que el Perceptron era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real.
-
CREAN PROLOG UN LENGUAJE DE PROGRAMACIÒN PARA INTELIGENCIA ARTIFICIAL
-
Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
-
Frank Rosenblat es un algoritmo de aprendizaje supervisado resuelve eficazmente el problema, y en general el problema de la formación de redes neuronales rápida de múltiples capas
-
James Anderson, que desarrolló un modelo lineal, llamado Asociador Lineal, que consistía en unos elementos integradores lineales (neuronas) que sumaban sus entradas.Anderson diseñó una potente extensión del Asociador Lineal, llamada Brain State in a Box (BSB).
-
La red auto-organizada identifica rasgos comunes, regularidades, correlaciones o categorías en los datos de entrada, e incorporarlos a su estructura interna de conexiones,(usa el aprendizaje no supervisado)
-
Este investigador fines desarrolló redes basadas en aprendizaje competitivo, con una idea nueva basada en la biología: Las unidades de procesos físicamente adyacentes aprenderán a representar patrones de entrada similares, así las neuronas de salida adyacentes identifican patrones similares.
-
John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.”
-
David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation). Se aplica a problemas relacionados con el aprendizaje en computación y psicología.
-
es una teoría desarrollada por Stephen Grossberg y Gail Carpenter sobre aspectos de cómo el cerebro procesa la información. Describe una serie de modelos de redes neuronales que utilizan métodos de aprendizaje supervisados y no supervisados, y abordan problemas tales como el reconocimiento y la predicción de patrones .
-
-
Se logró implementar, según Daumé III (2014), un enfoque para hacer una cadena de colección de perceptrones para construir redes neuronales más complejas, o como comúnmente se le denomina «perceptrón multicapa» Al poseer varias capas de neuronas se logró ganar mayor flexibilidad en las salidas, y por ende se pudo solucionar el clásico problema de la operación XOR que no era posible por medio del perceptrón simple.