HISTORIA DE LA INFORMATICA

  • 3000 BCE

    Ábaco (3000 a.C. - siglo XVIII)

    Ábaco (3000 a.C. - siglo XVIII)
    El ábaco es uno de los primeros dispositivos de cálculo utilizados por varias culturas antiguas para realizar operaciones matemáticas básicas.
  • Huesos de Napier (1614)

    Huesos de Napier (1614)
    John Napier desarrolla los huesos de Napier, un dispositivo mecánico para realizar cálculos.
  • Tarjeta perforada (1801 - 1890)

    Tarjeta perforada (1801 - 1890)
    Herman Hollerith inventa la tarjeta perforada para su uso en el censo de 1890 en Estados Unidos, sentando las bases para la entrada de datos en las primeras computadoras.
  • Máquina diferencial (1822 - 1849)

    Máquina diferencial (1822 - 1849)
    Charles Babbage concibe la máquina analítica y diferencial, un dispositivo mecánico programable que se considera el precursor de las computadoras modernas para calcular tablas de funciones matemáticas.
  • Primeros computadores electromecánicos (1930 - 1940)

    Primeros computadores electromecánicos (1930 - 1940)
    Durante este período, se desarrollan computadoras electromecánicas como la calculadora de diferencias de Vannevar Bush y la máquina Z3 de Konrad Zuse.
  • Teoría de la Computabilidad (1936 - 1937)

    Teoría de la Computabilidad (1936 - 1937)
    Alan Turing y Alonzo Church desarrollan la Teoría de la Computabilidad, estableciendo los fundamentos teóricos de las computadoras.
  • Colossus (1943 - 1944)

    Colossus (1943 - 1944)
    Colossus, la primera computadora digital programable, es utilizada para descifrar códigos nazis durante la Segunda Guerra Mundial.
  • ENIAC (1945)

    ENIAC (1945)
    La Electronic Numerical Integrator and Computer (ENIAC), la primera computadora electrónica de propósito general, es completada y puesta en funcionamiento en la Universidad de Pensilvania.
  • Transistor (1947)

    Transistor (1947)
    Los científicos de los laboratorios Bell inventan el transistor, revolucionando la industria de la computación al permitir la miniaturización de los componentes electrónicos.
  • Primeros lenguajes de programación (1950 - 1960)

    Primeros lenguajes de programación (1950 - 1960)
    Se desarrollan los primeros lenguajes de programación, como el Fortran y el Lisp, facilitando la programación y el desarrollo de software.
  • Internet (1960 - 1980)

    Internet (1960 - 1980)
    La ARPANET, precursora de Internet, es desarrollada por el Departamento de Defensa de Estados Unidos en la década de 1960. Durante los años 70, se establecen los protocolos TCP/IP, sentando las bases para la Internet moderna.
  • Redes (1960)

    Redes (1960)
    Se popularizan las computadoras mainframe y miniordenadores, y se comienza a explorar la idea de conectar computadoras en redes.
  • IBM 360 (1964)

    IBM 360 (1964)
    IBM lanza la serie IBM 360, la primera familia de computadoras compatibles entre sí y ampliamente utilizada en aplicaciones empresariales.
  • Computadoras personales (1970 - 1980)

    Computadoras personales (1970 - 1980)
    Se lanzan las primeras computadoras personales, como la Altair 8800, la Apple I y la IBM PC, marcando el inicio de la era de las computadoras personales.
  • Desarrollo de la World Wide Web (1990 - 1991)

    Desarrollo de la World Wide Web (1990 - 1991)
    Tim Berners-Lee inventa la World Wide Web, revolucionando la forma en que accedemos y compartimos información en Internet.
  • Era de los dispositivos móviles (2000 - presente)

    Era de los dispositivos móviles (2000 - presente)
    La proliferación de smartphones y tabletas cambia la forma en que interactuamos con la tecnología, facilitando el acceso a la información y la comunicación en cualquier momento y lugar.
  • Blockchain y criptomonedas (2009 - presente)

    Blockchain y criptomonedas (2009 - presente)
    Satoshi Nakamoto introduce Bitcoin, la primera criptomoneda basada en la tecnología blockchain, que revoluciona las finanzas y la forma en que se manejan las transacciones en línea.
  • Inteligencia Artificial y Machine Learning (2010 - presente)

    Inteligencia Artificial y Machine Learning (2010 - presente)
    El Machine Learning y la Inteligencia Artificial experimentan un rápido avance gracias al aumento en la potencia computacional y la disponibilidad de grandes conjuntos de datos, impulsando aplicaciones en diversas áreas como reconocimiento de voz, visión por computadora y procesamiento de lenguaje natural.
  • Avances recientes (2021 - presente)

    Avances recientes (2021 - presente)
    La computación cuántica, la ciberseguridad, la computación en la nube y la robótica continúan siendo áreas de rápido avance y desarrollo en la informática y la tecnología en la actualidad.