-
Charles Babbage: Considerado el padre de los ordenadores, en el siglo XIX introdujo la idea del motor analítico, precursor de los ordenadores modernos con tarjetas perforadas, memoria y mecanismos de cálculo; sin embargo, su máquina nunca se completó.
-
Automatizaron el censo americano de 1890 mediante tarjetas perforadas y electricidad, sentando bases para IBM y el procesamiento mecánico a digital.
-
Colossus y ENIAC fueron pioneros en la computación electrónica, destinados a resolver problemas bélicos, demostrando la capacidad de cómputo a gran escala.
-
fue un gran avance, permitiendo la miniaturización de los ordenadores. Los circuitos integrados, desarrollados en 1959, llevaron a la posibilidad de integrar más componentes en un solo chip.
-
Doug Engelbart introdujo el ratón y la interfaz gráfica; Xerox Alto avanzó en estas tecnologías aunque con altos costos.
-
A mediados de los años 70, Steve Jobs y Steve Wozniak introdujeron el Apple I y luego el Apple II, accesibilizando la tecnología a un público más amplio. IBM también entró en el mercado con su PC, promoviendo la estandarización.
-
A mediados de los años 80 el surgimiento de interfaces gráficas y software fácil de usar, como el sistema operativo de Microsoft, transformó la interacción con los ordenadores, llevando a un aumento explosivo en las ventas.
-
Surgió la controversia sobre la semejanza entre Windows y la interfaz gráfica popularizada por Apple; ambos impulsaron la expansión de computación doméstica y de negocios.
-
La llegada de Internet cambió todo, conectando computadoras a nivel global. Los microprocesadores se convirtieron en componentes esenciales no solo en ordenadores, sino en dispositivos de uso diario.
-
En el ámbito de la computación avanzada, el superordenador ASCI White puede realizar 12 trillones de cálculos por segundo. Estos sistemas son esenciales para tareas complejas, como simulaciones de armas nucleares y experimentos científicos.
-
Windows XP (2001) marcó un hito en estabilidad y usabilidad.
Apple lanzó Mac OS X, con un diseño más amigable.
Se introdujeron los procesadores de doble núcleo (2005), lo que permitió más velocidad y multitarea
real.
La capacidad de almacenamiento creció: los discos duros pasaron de GB a decenas de GB. -
Apple cambió a procesadores Intel en sus Macs (2006).
Microsoft lanzó Windows Vista (2006) y Windows 7 (2009).
Nacen las netbooks y se popularizan las laptops ligeras.
En 2007, el iPhone transformó la forma de interactuar con los computadores: nacía la era de los smartphones.
En 2010, el iPad impulsó el mercado de tablets. -
IBM Watson en el 2011 mostró el poder de la inteligencia artificial, también creció la computación en la nube (AWS, Google Cloud, Azure). El Big Data y la virtualización comenzaron a ser clave en empresas y para finalizar en 2015, Microsoft lanzó Windows 10, más unificado entre dispositivos.
-
AlphaGo en el 2016 venció a humanos en el juego Go, un hito en IA, se comenzaron a desarrollar chips dedicados a IA y machine learning (Google TPU, NVIDIA GPU). Los procesadores de 7 nm aumentaron la eficiencia y potencia. En 2020, la pandemia aceleró el teletrabajo, videoconferencias y uso de la nube.
-
En 2021, Apple lanzó los chips M1, M2 y M3 con arquitectura ARM, marcando una era de alto rendimiento y eficiencia energética en PCs. Creció la demanda de soluciones eficientes en laptops y servidores. En 2022, la IA generativa explotó con ChatGPT, DALL·E y Stable Diffusion. En 2023, Microsoft integró IA en Windows y Office, impulsando la productividad.
-
En 2024 llegan las Copilot+ PC, con procesadores híbridos que combinan CPU, GPU y NPU, optimizados para IA. Esta tecnología se integra cada vez más en sistemas operativos y aplicaciones cotidianas. La computación cuántica avanza hacia usos prácticos como la criptografía y la simulación. Para 2025, se proyectan computadores más autónomos, eficientes y con capacidades de IA nativas.