-
Se inventan las primeras máquinas para realizar aritmética, como los ábacos.
-
Wilhelm Schickard crea la primera máquina de calcular, aunque luego desapareció.
-
Primera computadora electrónica de propósito general. Ocupaba una habitación completa.
-
Reemplazan los tubos al vacío por transistores, lo que las hace más pequeñas, rápidas y confiables. Se usan lenguajes de programación como COBOL y FORTRAN. Aparecen las primeras empresas de software.
-
Se introducen los circuitos integrados (chips), que permiten miniaturizar los componentes. Aparecen los sistemas operativos y el concepto de multiprogramación. Uso más generalizado en empresas y gobiernos.
-
Intel crea el primer microprocesador (Intel 4004) en 1971. Nacen las computadoras personales (PC). Se desarrolla Internet (años 90) y los sistemas operativos modernos como Windows, Linux y macOS.
-
Enfoque en inteligencia artificial, computación cuántica, machine learning y computación en la nube. Dispositivos cada vez más inteligentes, portátiles y conectados (como smartphones, smartwatches, asistentes de voz).
-
Integración completa con la nube (cloud computing) y big data. Computación ubicua: dispositivos inteligentes en todas partes (IoT: Internet de las cosas). Avances importantes en aprendizaje automático (machine learning) y redes neuronales profundas. Robótica avanzada y asistentes autónomos. Interfaces cerebro-computadora en desarrollo.
-
Computación cuántica: usa qubits en lugar de bits, permitiendo cálculos muchísimo más rápidos para ciertos problemas. Biocomputadoras: usan componentes biológicos como ADN para realizar cálculos. Computación neuromórfica: imita la estructura del cerebro humano para procesar datos de forma más eficiente. Mayor enfoque en la sostenibilidad energética y eficiencia.