Deep Learning

  • Ramon y Cajal

    La doctrina de la neurona, establecida por Santiago Ramón y Cajal a finales del siglo XIX, es el modelo aceptado hoy en neurofisiología. Consiste en aceptar que la base de la función neurológica radica en las neuronas como entidades discretas, cuya interacción, mediada por sinapsis, conduce a la aparición de respuestas complejas
  • Primer modelo matemático de una Red Neuronal

    Walter Pitts and Warren McCulloch
  • Primer programa de Machine Learning

    Arthur Samuel (Damas)
  • Estableciendo las bases de Deep Learning

    Frank Rosenblatt
  • Teoría de los Gradientes

    Sirvió de base para desarrollar Backpropagation
  • La primera red neuronal profunda en funcionamiento

    Alexey Ivakhnenko and V.G. Lapa
  • Se publica Perceptrons

    Libro que demuestra matemáticamente las limitaciones del perceptron
  • Una RNN aprende a reconocer patrones visuales

    Kunihiko Fukushima
  • Se desarrollan las Redes de Hopfield

    John Hopfield. Recurrent neural network
  • Improvements in shape recognition and word prediction

    David Rumelhart, Geoffrey Hinton, and Ronald J. Williams. Learning Representations by Back-propagating Errors.
  • Machines read handwritten digits

    Yann LeCun. 10-20% of cashed checks in the United States in the late 90s and early 2000s
  • Lanzamiento de ImageNet

    Fei-Fei Li. BBDD con más de 14 millones de imágenes etiquetadas.
  • Creacion de AlexNet

    renacimiento de Redes Convolucional en la comunidad deep learning.
  • El experimento del gato

    10,000,000 millones de fotos extraídas de vídeos en busca de gatos.
  • DeepFace

    Usa redes neuronales para identificar caras con un 97.35% de aciertos.
  • Generative Adversarial Networks (GAN)

  • Powerful machine learning products