-
es una plataforma de inteligencia artificial, Google ha sido bastante explícito con el potencial de Tensorflow. Un ejemplo de lo que es capaz lo vemos en el traductor de Google. Esta aplicación utiliza TensorFlow para reconocer el texto de la cámara, para así traducir en tiempo real.
-
dio lugar a los impresionantemente tituladas "Deep Neural Networks para Modelado acústico en el reconocimiento de voz: Los puntos de vista compartidos de cuatro grupos de investigación
-
Logro autoentrenarse para reconocer gatos en imágenes.
-
Un estudiante de Hinton, se fue a un internado de verano en Google en 2011. Allí trabajó en el reconocimiento de voz de Google, y mostró su configuración existente podría ser
muy mejorada mediante la incorporación de un aprendizaje profundo.
El enfoque revisado pronto alimentado reconocimiento de voz de Android, en sustitución de gran parte de la solución antes cuidadosamente elaborado de Google -
DIO seguimiento a este trabajo "Capa-Wise Greedy Formación de Redes profundas", En el que presentan un fuerte argumento de que los métodos de aprendizaje automático de profundidad (es decir, métodos con muchos pasos de procesamiento)
-
-
hINTONPuso de manifiesto una tasa de error muy impresionante de sólo el 1,25% en la prueba, pero las SVM ya había conseguido una tasa de error del 1,4%, e incluso algoritmos simples podría conseguir tasas de error en un solo dígito.
Hinton, Simon Osindero, y Yee-Whye Teh publicó un artículo en 2006 que fue visto como un gran avance, un avance suficientemente significativo como para reavivar el interés en las redes neuronales: Un algoritmo de aprendizaje rápido para profunda redes de creencias -
-
Pidió que dirigiera un nuevo programa de computación neuronal. La comunidad de aprendizaje automático convencional no podría haber sido menos interesado en las redes neuronales.
-
-
Ha demostrado tasas de error de 0,95% en 1998 utilizando CNNs.
-
-
pronto llegó con trucos extra "El algoritmo de sueño-vigilia para las redes neuronales no supervisadas"
-
Se crea TD-Gammon "Aprender a jugar el juego de ajedrez" , y los resultados no fueron buenos
-
co-escribió el documento de síntesis "Redes convolucionales de imágenes, voz, y de series de tiempo"
-
"aprendizaje conexionista de las redes de creencias" impulsa a Neal que inicie una idea similar en la red de creencias , que es esencialmente como una máquina de Boltzmann con conexiones dirigidas, hacia adelante.
-
siguió siendo una de los principales defensores de CNNs en los Laboratorios Bell, y su obra en ellos dio lugar a un uso comercial importante para el check-lectura.
uno de estos sistemas fue de lectura 10 a 20% de todos los controles en los EE.UU. -
En los laboratorios de AT&T Bell mostró una aplicación al mundo real muy significativo de propagación hacia atrás, aplicada a la al reconocimiento de códigos,pasó a ser la base de los sistemas de registro de entrada de lectura desplegados a nivel nacional.
-
se introdujo en el "el reconocimiento de fonemas usando redes neuronales de acción retardada " inspiró LeCun para desarrollar redes neuronales convolucionales.
-
Parecía quizá estar al alcance para otro hallazgo clave "Las redes de alimentación directa de múltiples capas son aproximadores universales" modelo basado en la energía , y se ajusta en el aprendizaje basado en la energía marco teórico con la que muchos algoritmos de aprendizaje se pueden expresar.
-
Retorno de Redes neuronales a la popularidad con la backpropagation, Empezar a trabajar en el reconocimiento de voz con redes neuronales él co-escribió muchos artículos sobre el uso de redes neuronales y RNNs para el reconocimiento de voz.
-
Formalizaron un método para que una red neuronal aprendiera la realación de entrada a la red y las salidas correspondientes, utilizando mas niveles de neuronas que los que utilizó rosenblatt para el desarrrollar el perceptron.
-
Publico un informe sobre la Retropropagacion en el MIT.
-
-
trabajó en un enfoque de red neuronal para el aprendizaje de las distribuciones de probabilidad "un algoritmo de aprendizaje para máquinas de Boltzmann"
-
Realiza un acercamiento de ANN para el aprendizaje en maquinas de boltzamann
-
El trabajo de werbos permanecio casi desconocido en la comunidad cientifica, pero Parker retomo su trabajo sobre Retropropagacion para entrenar las ANN
-
Con su noción de la Neurocognitron
-
Propone que la Retropropagación puede ser utilizada en redes neuronales despues de analizar su tesis doctoral.
-
-
Implementa la Retropropagación para que funcionen en equipos modernos como los de hoy en día.
-
Publican "perceptrons" demuestran que el perceptron es limitado y esta probado en el libro “disillusioned years” 1969. El problema de perceptron es que sabían que con una red multi-capa podían separar la xor pero no había un algoritmo que entrenara para realizarlo .
-
Fundo en la universidad de Stanford el laboratorio de IA.
-
Exploraron la opción de dar salida a la entrada del peso
con un adoptivo DALINE (neurona usando quimicos, memistors), desarrollan modelos que se llamaron ADALINE y MADALINE. -
Nacimiento del primer algoritmo para un persentrón.
-
Fundan el laboratorio de inteligencia artificial del MIT, ayudando a motivar la creación del proyecto MAC.
-
El termino de inteligencia artificial se le atribuye durante una conferencia convocada.
-
puede haber sido en realidad el primer investigador para implemenar una red neuronal con el hardware de ese tiempo lo cual llegoa Implementar a SNARC
-
Inicio con las neuronas biológicas donde descubrimiento de las sinapsis la cual interpretó, correctamente, su función y su estructura. Las sinapsis ejercen un papel fundamental en la teoría neuronal.
-