Linea de tiempo de los datos

  • CENSO DE ESTADOS UNIDOS

    CENSO DE ESTADOS UNIDOS

    Se anunció que se estimaba que tomaría ocho años manejar y procesar los datos recopilados durante el programa del censo de ese año, dado a esto en 1881, un hombre de la Oficina llamado Herman Hollerith inventó la máquina tabuladora Hollerith que redujo el trabajo de cálculo. (analyticsinsight, 2021)
  • Tabuladora de tarjetas

    Tabuladora de tarjetas

    Herman Hollerith inventa la máquina tabuladora de tarjetas perforadas, marcando el comienzo del procesamiento de datos. El dispositivo de tabulación desarrollado por Hollerith se utilizó para procesar datos del Censo de EE. UU. de 1890. (Techtarget, 2022). https://www.techtarget.com/whatis/feature/A-history-andtimeline-of-big-data)
  • Creación IBM

    Creación IBM

    Herman Hollerith fundó Computing-Tabulating-Recording Company, que luego se convertiría en IBM.
  • Aparición de las cintas magneticas

    Aparición de las cintas magneticas

    Fritz Pfleumer inventa una forma de almacenar información en cinta. El proceso se trataba de poner tiras de metal en papeles magnéticos lo que finalmente lo llevó a crear cintas magnéticas, que formaron la base para videocasetes, carretes de películas y más. (Techtarget, 2022)
  • Creación proyecto de datos

    Creación proyecto de datos

    El primer gran proyecto de datos se creó en 1937 y fue encargado por la administración de Franklin D. Roosevelt en los Estados Unidos. Después de que la Ley del Seguro Social se hizo oficial, el gobierno tuvo que realizar un seguimiento de las contribuciones de 26 millones de estadounidenses y más de 3 millones de empleadores.
  • Primera maquina de procesamiento de datos "Colossus"

    Primera maquina de procesamiento de datos "Colossus"

    La primera máquina de procesamiento de datos apareció en 1943. Fue desarrollada por los británicos para descifrar los códigos nazis durante la Segunda Guerra Mundial. Este dispositivo, llamado Colossus, buscaba patrones en los mensajes interceptados a una velocidad de 5.000 caracteres por segundo. De este modo, la tarea se reduce de semanas a horas.
  • Creación agencia de seguridad nacional (NSA)

    Creación agencia de seguridad nacional (NSA)

    Se creó la Agencia de Seguridad Nacional (NSA) y en 10 años se contrató a más de 12.000 criptólogos. Esto porque se enfrentaron a una sobrecarga de información durante la Guerra Fría cuando comenzaron a recopilar y procesar señales de inteligencia automáticamente.
  • Primer centro de datos

    Primer centro de datos

    El gobierno de los Estados Unidos decidió construir el primer centro de datos para almacenar más de 742 millones de declaraciones de impuestos. Así como 175 millones de conjuntos de huellas dactilares transfiriendo todos esos registros a cintas magnéticas de computadora que debían almacenarse en un solo lugar. El proyecto se abandonó más tarde por temor al «Big Brother». Pero en general se acepta que fue el comienzo de la era del almacenamiento de datos electrónicos en la historia del big data.
  • Era del PC y DB2

    Era del PC y DB2

    1981: Comienza la era de la PC. 1983: IBM lanzó su primera base de datos relacional comercialmente disponible, DB2. (https://www.verdict.co, 2020)
  • WWW y Python

    WWW y Python

    En 1989, el científico informático británico Tim Berners-Lee inventó finalmente la World Wide Web. Quería facilitar el intercambio de información a través de un sistema de «hipertexto». Pero él no sabía en ese momento el impacto que su invento iba a tener en el futuro.
    Comienza la implementación del lenguaje de programación Python.
  • DOMINIO GOOGLE.COM

    DOMINIO GOOGLE.COM

    El dominio google.com se registra un año antes del lanzamiento, lo que da comienzo al ascenso del motor de búsqueda hacia el dominio y el desarrollo de muchas otras innovaciones tecnológicas, incluso en las áreas de aprendizaje automático, macro datos y análisis.
  • NoSQL

    NoSQL

    Carlo Strozzi desarrolla NoSQL, una base de datos relacional de código abierto que proporciona una forma de almacenar y recuperar datos modelados de manera diferente a los métodos tabulares tradicionales que se encuentran en las bases de datos relacionales. (Techtarget, 2022)
  • Las 3V

    Las 3V

    Doug Laney de la firma de analistas Gartner reclca las 3V (volumen, variedad y velocidad), definiendo las dimensiones y propiedades de big data. Las V encapsulan la verdadera definición de big data y marcan el comienzo de un nuevo período en el que los big data pueden verse como una característica dominante de siglo XXI.
  • Se introdujo la palabra BIG DATA

    En 2005, Roger Mougalas de O’Reilly Media acuñó el término Big Data por primera vez, solo un año después de que crearan el término Web 2.0. que se refiere a un gran conjunto de datos que es casi imposible de administrar y procesar con herramientas tradicionales de inteligencia empresarial.
  • Apache Hadoop

    Apache Hadoop

    Los informáticos Doug Cutting y Mike Cafarella crean Apache Hadoop, el marco de código abierto utilizado para almacenar y procesar grandes conjuntos de datos, con un equipo de ingenieros derivado de Yahoo.
  • Computación en la nube

    Computación en la nube

    AWS comenzó a ofrecer servicios de infraestructura informática basados en la web, ahora conocidos como computación en la nube.
  • Gobierno de la India

    Gobierno de la India

    En 2009, el gobierno de la India decide tomar un escáner de iris, una huella digital y una fotografía de sus 1.200 millones de habitantes. Dentro de la historia del big data este fue un momento crucial. Ya que todos estos datos se almacenaron en la base de datos biométrica más grande del mundo.
  • 100 Gigabit Ethernet.

    100 Gigabit Ethernet.

    Se introdujeron las primeras soluciones para 100 Gigabit Ethernet.
  • Escases profesionales en analítica

    Escases profesionales en analítica

    McKinsey informa que para 2018, EE. UU. enfrentará una escasez de talento analítico. Faltan entre 140 000 y 190 000 personas con habilidades analíticas profundas y otros 1,5 millones de analistas y gerentes con la capacidad de tomar decisiones precisas basadas en datos. Además, Facebook lanza Open Compute Project para compartir especificaciones para centros de datos de bajo consumo.
  • Docker (Contenedor)

    Docker (Contenedor)

    Docker introdujo el software de contenedor de sistema operativo de código abierto y El mercado mundial de big data alcanza los 10.000 millones de dólares.(https://www.verdict.co, 2020)
  • Liderazgo de centros de datos

    Liderazgo de centros de datos

    Google y Microsoft lideran la construcción masiva de centros de datos. (https://www.verdict.co, 2020)
  • Pronósticos IDC

    Pronósticos IDC

    IDC pronostica que el mercado de análisis de big data alcanzaría los $ 203 mil millones en 2020 Y Huawei y Tencent se unieron a Alibaba en las principales construcciones de centros de datos en China
  • Mercado 2019-2020

    Mercado 2019-2020

    Allied Market Research informa que el mercado de big data y análisis de negocios alcanzó los $193,14 mil millones en 2019, y estima que crecerá a $420,98 mil millones para 2027 a una tasa de crecimiento anual compuesta del 10,9%.
  • 1000 GB

    1000 GB

    Las velocidades del centro de datos superan los 1000 G
  • Futuro

    Futuro

    Las tecnologías como el aprendizaje automático, la IA y el análisis de IoT , por ejemplo, continúan ampliando los límites al mejorar enormemente nuestra capacidad para procesar, analizar y actuar sobre los datos.