Segunda

Historia del cómputo, desde la Segunda Guerra Mundial hasta el presente

  • Period: to

    Segunda Guerra Mundial

    Colossus (1943): Primer computador electrónico programable creado por Alan Turing y su equipo para descifrar códigos nazis. ENIAC (1945): Primer computador electrónico de propósito general, desarrollado por John Mauchly y J. Presper Eckert en EE. UU.
  • 1950–1959 – La era de las computadoras de tubos al vacío

    1950–1959 – La era de las computadoras de tubos al vacío

    UNIVAC I (1951): Primera computadora comercial en Estados Unidos. IBM 701 (1952): Marca el inicio de IBM en el mercado de cómputo. Transistores (1956): Reemplazan los tubos de vacío, reduciendo tamaño y consumo energético.
  • Period: to

    Segunda generación de computadoras

    Mainframes IBM 1401 (1960): Uso empresarial masivo. Nacimiento de los lenguajes de programación: COBOL y FORTRAN se estandarizan. ARPANET (1969): Antecedente de Internet, creado por el Departamento de Defensa de EE. UU.
  • 1970–1979 – Microprocesadores y computadoras personales

    1970–1979 – Microprocesadores y computadoras personales

    Intel 4004 (1971): Primer microprocesador comercial. Apple I (1976): Steve Jobs y Steve Wozniak presentan una computadora personal. Microsoft (1975): Fundación de la empresa que revolucionará el software.
  • Period: to

    Expansión del cómputo personal

    IBM PC (1981): Establece el estándar de las computadoras personales. Macintosh (1984): Apple lanza la primera computadora con interfaz gráfica. Internet y redes locales (LAN): Se popularizan en entornos empresariales.
  • 1990–1999 – Revolución de Internet

    1990–1999 – Revolución de Internet

    World Wide Web (1991): Creada por Tim Berners-Lee, cambia la forma de acceder a la información. Navegadores web (1993–1995): Nacen Mosaic y Netscape. Google (1998): Surge el motor de búsqueda más influyente.
  • Period: to

    Portabilidad y conectividad

    Wi-Fi y banda ancha: Se vuelven comunes en hogares. Smartphones (2007): Apple lanza el iPhone, fusionando teléfono y computadora. Computación en la nube: Inicia el modelo de almacenamiento y procesamiento remoto.
  • 2010–2019 – Era de la inteligencia artificial y los datos

    2010–2019 – Era de la inteligencia artificial y los datos

    Big Data: Se convierte en un recurso esencial para empresas y gobiernos. Asistentes virtuales: Siri, Alexa y Google Assistant integran IA en el uso diario. Cómputo cuántico experimental: IBM y Google logran los primeros avances.
  • 2020–Presente – Computación avanzada e inteligencia artificial generativa

    2020–Presente – Computación avanzada e inteligencia artificial generativa

    IA generativa (2022–2025): Modelos como ChatGPT y DALL·E transforman el trabajo digital. Computación cuántica y 5G: Aceleran la conectividad y el procesamiento. Sostenibilidad tecnológica: Crece la preocupación por el impacto ambiental de los centros de datos.