-
Teoría del Neurona de Ramón y Cajal: Santiago Ramón y Cajal, neurocientífico español, formula la teoría del neurona, postulando que el cerebro está compuesto por células individuales llamadas neuronas que se comunican entre sí mediante conexiones sinápticas.
-
En 1943 una serie de matemáticos lanzan una teoría acerca de la forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
-
Modelo de Neurona de McCulloch-Pitts: Warren McCulloch y Walter Pitts publican un artículo que describe un modelo matemático simplificado de la neurona, estableciendo las bases para las redes neuronales artificiales.
-
Este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados.
-
En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.
-
Marvin Minsky implementa en hardware el primer Perceptrón para demostrar su utilidad.
-
Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.
-
Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento.
-
En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron).
-
(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
-
publican un libro criticando las limitaciones del Perceptrón, lo que provocó un estancamiento temporal en la investigación de redes neuronales.
-
A mediados de la década de los setenta, Paul Werbos en su tesis doctoral propone el Algoritmo Backpropagation, que permite entrenar al Perceptron multicapa y posibilita su aplicación en la solución de una gran variedad de problemas de alta complejidad como lo veremos a lo largo de este capítulo.
-
Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
-
La resonancia consiste en la combinación lineal de estructuras teóricas de una molécula (estructuras resonantes o en resonancia) que no coinciden con la estructura real, pero que mediante su combinación nos acerca más a su estructura real.
-
En 1982 John Hopfield con la publicación del artículo Hopfield Model o Crossbar
Associative Network, junto con la invención del algoritmo Backpropagation se
consiguió devolver el interés y la confianza en el fascinante campo de la computación
neuronal tras dos décadas de casi absoluta inactividad y desinterés.Hopfield presenta un sistema de computación neuronal consistente en elementos
procesadores interconectados que buscan y tienden a un mínimo de energía. -
John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.”
-
Distribución de los pesos de las entradas es calculada a partir de la probabilidad de que la salida de la neurona ses 1 o 0, lo que convierte al sistema en un sistema estocástico.
-
En el cual difunde ampliamente el algoritmo de entrenamiento de un Perceptronmulticapa. Con este algoritmo se da respuesta al interrogante que Papert y Minsky, le plantearon a Rosenblatt, de cómo en-trenar la capa oculta del MLP, si no se tenían datos esperados de salida para esta capa.
-
Este teorema establece que una red neuronal feedforward (perceptrón multicapa) con una capa oculta que emplea una función de activación no lineal (como la función sigmoidea), puede aproximar cualquier función continua definida en un conjunto compacto con un grado de precisión arbitrario, siempre que la capa oculta tenga suficientes neuronas.
-
Forma matemáticamente de desarrollar redes neuronales de dos capas.
-
Sepp Hochreiter y Jürgen Schmidhuber introducen las redes neuronales recurrentes de largo plazo (LSTM), un tipo de red recurrente capaz de aprender dependencias a largo plazo.
-
Para explicar unos nuevos algoritmos capaces de ver y distinguir objetos y textos en diferentes imágenes y vídeos. No obstante, la historia del aprendizaje profundo empezó 60 años antes de este hito.
-
Jeff Dean y Andrew Ng desarrollan la red neuronal mas grande antes vista, con 16000 núcleos de CPU entrenada sin supervisión y con videos de Youtube; aprendiendo a reconocer los objetos mas comunes en esos videos.
-
AlexNet de Alex Krizhevsky, Geoffrey Hinton y otros, gana la competencia ImageNet y marca un hito en el aprendizaje profundo.
-
Redes Neuronales Generativas Adversarias (GANs): Las GANs permiten generar datos sintéticos realistas (imágenes, audio, texto) aprendiendo de datos reales. Tienen aplicaciones en generación de contenido, aumento de datos, inpainting, etc.
-
Transferencia de estilo neuronal (2016): Permite transferir el estilo artístico de una imagen a otra, combinando características de contenido y estilo, con aplicaciones en edición de imágenes y generación de arte.
-
Redes neuronales transformer (Attention is All You Need, 2017): El modelo transformer, basado en mecanismos de atención, ha revolucionado el procesamiento del lenguaje natural y otras tareas. Modelos como BERT, GPT, etc. han demostrado un rendimiento excepcional.
-
Modelos de visión por computadora (EfficientNet, 2019 / Redes transformadoras de visión, 2020): Las redes neuronales han logrado avances significativos en tareas de visión por computadora como la clasificación de imágenes, detección de objetos y segmentación semántica.