-
Boole introduce el álgebra booleana, formalizando operaciones lógicas (AND, OR, NOT) con símbolos matemáticos. Esta lógica booleana se convierte en el fundamento teórico de circuitos digitales y, por tanto, de los computadores modernos.
-
Se construyen autómatas capaces de escribir, dibujar e imitar al ser humano. Aunque puramente mecánicos, inspiran la idea de “máquinas que simulan la inteligencia”.
-
-
Turing propone un modelo de máquina abstracta capaz de leer y escribir símbolos en una cinta infinita: la Máquina de Turing. Define el concepto de algoritmo y computación universal. Esto es esencial para la IA moderna, porque cualquier algoritmo de IA puede reducirse a operaciones de una Máquina de Turing.
-
Publican “A Logical Calculus of the Ideas Immanent in Nervous Activity”, proponiendo un modelo binario simplificado de neurona (umbral on/off). ¡Imagina un “circuito neuronal” hecho con lógica booleana!
-
Wiener publica “Cybernetics: Or Control and Communication in the Animal and the Machine”. Introduce la idea de sistemas autorregulados, retroalimentación (feedback) y control automático. Aunque no es “IA” pura, la cibernética influye en robótica e IA, considerando máquinas que aprenden a autorregularse.
-
En “A Mathematical Theory of Communication” establece la medida de “bits” para información, así como conceptos de entropía y codificación. Esto sienta las bases para procesar datos en IA: cuánta información cabe, cómo transmitirla, cómo codificar conocimiento.
-
En este artículo seminal pregunta “¿Pueden pensar las máquinas?” y propone el “Test de Turing”: si un interrogador no distingue entre humano y máquina, ¡la máquina “piensa”!
-
-
Strachey programa en la computadora Ferranti Mark I de Manchester un juego de damas, creando lo que se considera uno de los primeros programas de ajedrez (en realidad damas).
-
En IBM desarrolla un programa para jugar damas que utiliza “aprendizaje” ajustando su función de evaluación. Esto introduce la noción de “machine learning”: una compu que mejora a medida que juega.
-
En el Dartmouth Summer Research Project on Artificial Intelligence se acuña formalmente el término “Artificial Intelligence”. Se establece el objetivo de hacer que las máquinas simulen el proceso de aprendizaje y cualquier otra facultad de la inteligencia.
-
Crean el AI Lab en el MIT, epicentro de la investigación en IA en EE. UU. durante los años 60 y 70.
-
Arthur Samuel programó un sistema que aprendía a jugar damas mediante experiencia, ajustando sus estrategias con cada partida
-
Winograd desarrolló SHRDLU, un sistema que entendía y manipulaba bloques de colores y formas mediante lenguaje natural en un mundo virtual.
-
El Stanford Cart fue uno de los primeros robots móviles con visión por computadora capaz de desplazarse evitando obstáculos.
-
Con el desarrollo de Mycin (para diagnóstico médico) y otros sistemas, la IA se enfocó en imitar el razonamiento de expertos humanos.
-
A finales de los 80 y principios de los 90, la IA sufrió recortes de financiamiento y desilusión por expectativas no cumplidas. Fue como un frío inverno donde muchas investigaciones se paralizaron por un ratito.
-
Desarrolla redes neuronales convolucionales (CNNs) para reconocer dígitos manuscritos (dataset MNIST). Fue el puntapié para todo lo que hoy vemos en visión por computadora.
-
Sale a la luz la Roomba, una aspiradora robot doméstica que navega sola por la casa. ¡Más de uno pensó que se le iba a escapar de las manos!
-
Hinton y su equipo reavivan el interés en redes profundas publicando cómo entrenar redes profundas sin tanto drama. Marca el inicio de la revolución “deep learning”.
-
La red AlexNet aplasta a la competencia en la competencia ImageNet, reduciendo drásticamente el error en clasificación de imágenes. Fue como el momento “gloria total” para las redes profundas en visión.
-
Proponen las GANs, dos redes que compiten entre sí (generador vs discriminador) para crear imágenes falsas hiperrealistas.
-
Google presenta BERT, un modelo de lenguaje basado en Transformers que mejora drásticamente tareas de NLP como análisis de sentimiento, preguntas-respuestas, etc.
-
Con 175 mil millones de parámetros, GPT-3 genera textos coherentes y asombrosos en múltiples idiomas. ¡Chatbots, redacción, poesía y más!
-
DALL·E 2 crea imágenes a partir de descripciones textuales con calidad impresionante.
-
GPT-4 amplía aún más el horizonte: multimodalidad (texto e imagen), comprensión y generación más complejas, ¡hasta razonamiento más avanzado!
-
OpenAI anuncia GPT-4o, una versión optimizada para dispositivos móviles y entornos embebidos, con capacidades casi en tiempo real.
-
Con la preocupación social en aumento, surgen normativas y herramientas para entender y regular algoritmos. Figuras como Timnit Gebru y Margaret Mitchell (en ética de IA) abogan por transparencia y justicia en los sistemas.