-
-
Marvin Minsky implementa en hardware el primer Perceptron para demostrar su utilidad.
-
Jhon McCarthy formula el concepto de IA como "El arte de crear computadores y software capaz de tener comportamiento inteligente"
-
Creación del Perceptron por Frank Rosenblatt
-
Bernard Widrow y Tedd Hoff conciben crear red neuronal con ayuda de una neura adaptable "ADALINE" la cual empleaba memistrores (Resistencias con memoria)
-
-
Se crea el concepto de Backpropagation
-
Falta de interés en la comunidad academica
-
Marvin Minsky fundador del MIT AI Lab, y Seymour Papert jefe de laboratorio mostraron su escepticismo en el libro llamado Perceptrons
-
Seppo Linnainmaa implemeta por primera vez la Backpropagation
-
Paul Werbos propone emplear la Backpropagation para la inteligencia artificial de manera profunda en su tesis de PhD
-
-
Distribución de los pesos de las entradas es calculada a partir de la probabilidad de que la salida de la neurona ses 1 o 0, lo que convierte al sistema en un sistema estocástico.
-
Instituto el cual fomenta la investigación de la IA y las redes neuronales
-
Descubrimiento de que estas redes son aplicaciones universales, que pueden ser aplicadas a cualquier aplicación.
-
Yann LeCun et al, aplica la Backprop para hacer un sistema que reconoce el código postal escrito a mano
-
En Navlab de CMU creo el vehículo autónomo conducido por redes neuronales.
-
Alexander Weibel y Hinton resuelven la falta de memoria en las redes neuronales, con el algoritmo de retardo de tiempo.
-
Se estudia la posibilidad de emplear autoencoders para resolver los problemas de codificación en Backpropagation
-
Bengio resume en este paper la falla general de la enseñanza eficiente en las RNNs
-
Hilton y Neal desarrollaron este algoritmo para poder hacer mas rápido el proceso de entrenamiento.
-
Aprendizaje de Refuerzo para robots usando redes neuronales.
-
Se detecta el nuevo callejón sin salida para la IA, debido a la falta de análisis de posibilidades futuras y la inmadurez del hardware.
-
Por Yoshua Bengio
-
Forma matemáticamente de desarrollar redes neuronales de dos capas,
-
LSTM Resuelve el problema de como entrenar redes neuronales concurrentes.
-
-
Que describe de forma eficiente, maximizando las probabilidades de que las unidades generen los datos de entrnamiento
-
-
Hinton, Simon Osindero y Yee-Whye Teh realizaron la publicación para reavivar los intereses sobre la IA en la comunidad
-
Donde se argumenta fuertemente la razón por la que algoritmos con métodos de Deep Learning funcionan mejor que los métodos superficiales.
-
Estudio que demuestra la diferencia en potencia de procesamiento al emplear GPUs, en vez de CPUs
-
Jeff Dean y Andrew Ng desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos.
-
Resultados de los cuatro grupos de investigación que estudiaban el aprendizaje prundo
-