-
En la década de 1940.Se desarrollan las primeras computadoras electrónicas, como la ENIAC y la UNIVAC I, que ocupaban salas enteras y eran utilizadas principalmente para cálculos científicos y militares.
-
En la decada de 1950. Surge la idea de programación con lenguajes de alto nivel, como el FORTRAN. Las computadoras comienzan a utilizar transistores en lugar de tubos de vacío, lo que reduce su tamaño y aumenta su eficiencia.
-
en la década de 1960. Se introdujeron las minicomputadoras, más pequeñas y mayores que las computadoras principales. Se desarrolla el concepto de multiprogramación, que permite a una computadora ejecutar múltiples tareas a la vez.
-
En la decada de 1970. Aparecen las microcomputadoras, como el Altair 8800. Se desarrollan los primeros microprocesadores, como el Intel 4004 y el 8080, sentando las bases para las computadoras personales.
-
En la decada de 1980. Se popularizan las computadoras personales (PC) gracias a modelos como la IBM PC. Se lanzan sistemas operativos como MS-DOS y Apple lanza la Macintosh, que populariza la interfaz gráfica.
-
En la decada de 1990. Aumenta la velocidad y capacidad de procesamiento de las computadoras. Se populariza el uso de internet y la World Wide Web. Microsoft lanza Windows 95, que introduce características clave en las interfaces gráficas.
-
En la decada del 2000. Las computadoras se vuelven más compactas y potentes. Se desarrollan laptops y dispositivos móviles como smartphones y tabletas. Surge la computación en la nube.
-
En la decada de 2010. El enfoque se traslada hacia la movilidad y la conectividad. Se desarrolla tecnologías de realidad virtual y aumentada. Aumenta el interés en la inteligencia artificial y el aprendizaje automático.
-
De 2020 a la actualidad. La computación cuántica comienza a desarrollarse, prometiendo un procesamiento significativamente más rápido en ciertos casos. La inteligencia artificial y el aprendizaje automático siguen avanzando en una variedad de campos.