-
McCullough y Pitts
Descubren el cálculo lógico de las redes neuronales y perfilan el primer módulo formal de una neurona elemental -
Nacimiento de la inteligencia artificial en el Congreso de Dartmouth organizado por McCarthy
-
Frank Rosenblatt concibe el Perceptron como un modelo matemático basado en el trabajo previo de Warren McCulloch y Walter Pitts
-
Frank Rosenblatt implementa su idea de Perceptron en hardware personalizado
-
Bernard Widrow y Tedd Hoff conciben a “ADALINE”, redes neuronales con neuronas artificiales diferentes al Perceptron
-
Nace el término de Backpropagation
-
Marvin Minsky y Seymour Papert investigan y publicacion sobre las limitaciones de Perceptrons
-
Paul Werbos propone que el algortimo podría ser utilizado para redes neuronales
-
Kunihiko Fukushima desarrolló un modelo neuronal para el reconocimiento de patrones visuales
-
Hinton propone un algoritmo de aprendizaje para las máquinas Boltzmann que son redes que tienen unidades muy similares a Perceptrons, pero cada unidad en la red puede calcular una probabilidad de que la salida tenga un valor de 1 o 0.
-
David Rumelhart, Geoffrey Hinton y Ronald Williams entienden ampliamente cómo las redes neuronales multicapa podrían ser entrenadas para abordar problemas complejos de aprendizaje
-
Rumelhart, Hinton y Williams trabajan en una forma de aprendizaje no supervisado, que solo necesita un conjunto de datos de entrada para encontrar alguna estructura oculta dentro de esos datos.
-
El Instituto Canadiense de Investigación Avanzada (CIFAR) financia la investigación de Hinton, la cual termina a mediados de la década de los 90
-
Yann LeCun genera una aplicación muy significativa en el mundo real de la retropropagación: Una computadora comprende los dígitos escritos a mano.
-
Nace el aprendizaje de refuerzo cuya meta es entrenar para la tomar de buenas decisiones
-
Inicios de las redes neuronales en la robótica con "Alvinn", un vehículo terrestre autónomo en una red neuronal" del NavLab de CMU
-
Alexander Waibel logra el reconocimiento de fonemas utilizando redes neuronales de retardo de tiempo
-
Se logró uno de los resultados más significativos en la historia del aprendizaje de refuerzo: una red neuronal que aprendió a ser un jugador de backgammon de clase mundial capaz de superar a los humanos en tareas relativamente complicadas
-
Tesis Doctoral que demuestra que a los robots se les puede enseñar comportamientos específicos en cantidades razonables de tiempo
-
Hinton y Neal proponen un algoritmo cuya idea clave es tener conjuntos separados de pesos para inferir variables ocultas de variables visibles y viceversa, lo que permite que el entrenamiento se realice mucho más rápido
-
Sebastian Thrun investiga como TD-Gammon hizo trampa aprendiendo a evaluar posiciones y no haciendo ninguna 'búsqueda' sobre múltiples movimientos futuros
-
Yoshua Bengio y Yann LeCun coescriben la primera de muchas colaboraciones entre ellos
-
Nuevo método considerado una forma matemáticamente óptima de entrenar una red neuronal de dos capas
-
El entusiasmo por las redes neuronales se disipó y la comunidad de aprendizaje automático en general una vez más las desautorizó. En el año 2000, re retoman nuevos proyectos, especialmente en el MIT y en Stanford, y en empresas privadas como Microsoft e IBM
-
Schmidhuber y Hochreiter introdujeron un concepto resuelve el problema de cómo entrenar redes neuronales recurrentes
-
Hinton ofrece un algoritmo que maximiza algo más que la probabilidad de que las unidades generen los datos de entrenamiento
-
Hinton, Simon Osindero y Yee-Whye Teh obtienen un algoritmo de aprendizaje rápido que permite entrenar redes neuronales con muchas capas si los pesos se inicializan de una manera inteligente en lugar de al azar
-
Yoshua Bengio presenta un fuerte argumento de que los métodos profundos de aprendizaje automático son más eficientes para problemas difíciles que los métodos poco profundos
-
Compara la potencia en procesamiento de GPU y CPU
-
Dahl y Mohamed demuestran el poder del aprendizaje profundo durante su práctica en Microsoft Research
-
Navdeep Jaitly trabajó en el reconocimiento de voz de Google, y mostró que su configuración existente podría mejorarse mucho al incorporar el aprendizaje profundo
-
Dean y Ng forman Google Brain, un esfuerzo por construir redes neuronales gigantes y explorar su potencial, dando como resultado un aprendizaje de red neuronal sin supervisión de 16,000 núcleos de CPU.
-
Publicación de "Redes neuronales profundas para modelado acústico en reconocimiento de voz”, trabajo compartido de cuatro grupos de investigación