-
Alan Turing crea el “Test de Turing” para determinar si una máquina era realmente inteligente. Para pasar el test, una máquina tenía que ser capaz de engañar a un humano haciéndole creer que era humana en lugar de un computador..
-
Arthur Samuel escribe el primer programa de ordenador capaz de aprender. El software era un programa que jugaba a las damas y que mejoraba su juego partida tras partida.
-
Martin Minsky y John McCarthy, con la ayuda de Claude Shannon y Nathan Rochester, organizan la conferencia de Darthmouth de 1956, considerada como el evento donde nace el campo de la Inteligencia Artificial. Durante la conferencia, Minsky convence a los asistentes para acuñar el término “Artificial Intelligence” como nombre del nuevo campo
-
Frank Rosenblatt diseña el Perceptrón, la primera red neuronal artificial.
-
Se escribe el algoritmo “Nearest Neighbor”. Este hito está considerado como el nacimiento al campo del reconocimiento de patrones (pattern recognition) en computadores.
-
Otras arquitecturas de trabajo de aprendizaje profundo, específicamente aquellas construidas para visión artificial, comenzaron con el Neocognitron presentado por Kunihiko Fukushima en 1980. En 1989, Yann LeCun et al. aplicó el algoritmo de retropropagación estándar, a una red neuronal profunda con el propósito de reconocer códigos postales escritos a mano en el correo. Mientras el algoritmo funcionó, el entrenamiento requirió 3 días.
-
Gerald Dejong introduce el concepto “Explanation Based Learning” (EBL), donde un computador analiza datos de entrenamiento y crea reglas generales que le permiten descartar los datos menos importantes.
-
El trabajo en Machine Learning gira desde un enfoque orientado al conocimiento (knowledge-driven) hacia uno orientado al dato (data-driven). Los científicos comienzan a crear programas que analizan grandes cantidades de datos y extraen conclusiones de los resultados.
-
Cresceptron es una cascada de capas similar a Neocognitron. Pero mientras que Neocognitron requirió un programador humano para fusionar funciones a mano, Cresceptron aprendió un número abierto de características en cada capa sin supervisión, donde cada característica está representada por un kernel de convolución.
-
red neuronal booleana multicapa, también conocida como red neuronal ingrávida, compuesto por un módulo de red neuronal de extracción de características de 3 capas autoorganizado seguido de un módulo de red neuronal de clasificación de múltiples capas que se entrenaron de forma independiente. Cada capa del módulo de extracción de características extraía características con una complejidad creciente con respecto a la capa anterior.
-
El algoritmo de vigilia-sueño es un algoritmo de aprendizaje no supervisado para una red neuronal multicapa estocástica. El algoritmo ajusta los parámetros para producir un buen estimador de densidad. Hay dos fases de aprendizaje, la fase de "activación" y la fase de "suspensión", que se realizan de forma alternativa. Primero fue diseñado como un modelo para el funcionamiento del cerebro utilizando el aprendizaje bayesiano variacional.
-
El ordenador Deep Blue, de IBM vence al campeón mundial de ajedrez Gary Kaspárov.
-
El ordenador Watson de IBM vence a sus competidores humanos en el concurso Jeopardy que consiste en contestar preguntas formuladas en lenguaje natural.
-
Jeff Dean, de Google, con la ayuda de Andrew Ng (Universidad de Stanford), lideran el proyecto GoogleBrain, que desarrolla una Red Neuronal Profunda utilizando toda la capacidad de la infraestructura de Google para detectar patrones en vídeos e imágenes.
-
Jeff Dean, con la ayuda de Andrew Ng lideran el proyecto GoogleBrain, que desarrolla una Red Neuronal Profunda utilizando toda la capacidad de la infraestructura de Google para detectar patrones en vídeos e imágenes. Geoffrey Hinton lidera el equipo ganador del concurso de Visión por Computador a Imagenet utilizando una Red Neuronal Profunda, dando nacimiento a la actual explosión de Machine Learning basado en RNPs.
Google X utiliza GoogleBrain para analizar vídeos de y detectar gatos. -
Facebook desarrolla DeepFace, un algoritmo basado en RNPs que es capaz de reconocer a personas con la misma precisión que un ser humano
-
Google compra DeepMind, una startup inglesa de Deep Learning que recientemente había demostrado las capacidades de las Redes Neuronales Profundas con un algoritmo capaz de jugar a juegos de Atari simplemente viendo los píxeles de la pantalla, tal y como lo haría una persona.
-
Google compra DeepMind, una startup inglesa de Deep Learning que recientemente había demostrado las capacidades de las Redes Neuronales Profundas con un algoritmo capaz de jugar a juegos de Atari simplemente viendo los píxeles de la pantalla, tal y como lo haría una persona.
-
Amazon lanza su propia plataforma de Machine Learning.
-
Google DeepMind vence en el juego Go (considerado uno de los juegos de mesa más complicados) al jugador profesional Lee Sedol por 5 partidas a 1. Jugadores expertos de Go afirman que el algoritmo fue capaz de realizar movimientos “creativos” que no se habían visto hasta el momento.