Big data

EVOLUCION Y FUTURO DEL BIG DATA "Big data" son los datos que son muy grandes, rápidos o complejos, que es difícil o imposible procesarlos con los métodos tradicionales, es alli donde nace la necesidad de querer buscar una forma facil de analizarlos.

  • LA PESTE BUBONICA

    En 1663, durante la peste Bubonica, John Graunt, inicio un analisis de datos estadisticos a raiz de dicha enfermedad, pues la merceria de Londres, publicó la primera colección de registros de salud pública cuando registró las tasas de mortalidad y sus variaciones.
  • PROGRAMA DE CENSO DE EE.UU.

    PROGRAMA DE CENSO DE EE.UU.
    La Oficina del Censo de EE. UU. anunció que estimaba que tomaría ocho años manejar y procesar los datos recopilados durante el programa del censo de ese año. En 1881, un hombre de la Oficina llamado Herman Hollerith inventó la máquina tabuladora Hollerith que redujo el trabajo de cálculo. (analyticsinsight, 2021)
  • "Inteligencia Empresarial"

    "Inteligencia Empresarial"
    En 1885 Richard Millar Devens, recalco el termino "Inteligencia Empresarial", Tal como lo entendemos hoy, la inteligencia comercial es el proceso de analizar datos y luego usarlos para brindar información que se pueda procesar, en eun libro escrito por Devens, describio como un banquero obtuvo ganancias utilizando informacion de su alrededor.
  • MAQUINA TABULADORA DE TARJETAS

    MAQUINA TABULADORA DE TARJETAS
    Herman Hollerith inventa la máquina tabuladora de tarjetas perforadas, marcando el comienzo del procesamiento de datos. El dispositivo de tabulación desarrollado por Hollerith se utilizó para procesar datos del Censo de EE. UU. de 1890. (Techtarget, 2022, https://www.techtarget.com/whatis/feature/A-history-and-timeline-of-big-data)
  • IBM

    IBM
    En 1911, Herman Hollerith fundó Computing-Tabulating-Recording Company, que luego se convertiría en IBM. (Techtarget, 2022).
  • PREDICCION NIKOLA TESLA

    PREDICCION NIKOLA TESLA
    Predijo que algún día los humanos tendrán acceso a grandes cantidades de datos a través de un instrumento que se puede llevar "en el bolsillo del chaleco". se referia a los teléfonos inteligentes y otros dispositivos portátiles basándose en su comprensión de cómo la tecnología inalámbrica cambiaría las partículas.(Techtarget, 2022)
  • CREACION DE CINTAS MAGNETICAS

    CREACION DE CINTAS MAGNETICAS
    Fritz Pfleumer inventa una forma de almacenar información en cinta. El proceso se trataba de poner tiras de metal en papeles magnéticos lo que finalmente lo llevó a crear cintas magnéticas, que formaron la base para videocasetes, carretes de películas y más.(Techtarget, 2022)
  • PROYECTO DE DATOS

    PROYECTO DE DATOS
    La administración de EE. UU. creó el primer gran proyecto de datos para rastrear la contribución de 3 millones de empleadores y aproximadamente 26 millones de estadounidenses después de que la ley de seguridad social se convirtiera en ley.
  • Period: to

    PIMERAS MAQUINAS, ENIAC

    1943: El Reino Unido desarrolló la primera máquina de procesamiento de datos para descifrar los códigos nazis, en 1945 se completó ENIAC, la primera computadora electrónica de propósito general, en 1954: la primera computadora completamente transistorizada usó solo transistores y diodos y no tubos de vacío.
  • FAMILIA IBM

    FAMILIA IBM
    Se lanzó la familia IBM System/360 de sistemas informáticos centrales.(https://www.verdict.co, 2020)
  • PRIMEROS EDIFICIOS DE CENTROS DE DATOS

    PRIMEROS EDIFICIOS DE CENTROS DE DATOS
    1965
    Estados Unidos planea construir los primeros edificios de centros de datos para almacenar millones de declaraciones de impuestos y huellas dactilares en cinta magnética. (Techtarget, 2022)
  • ARPANET

    ARPANET
    Se creó la Red de la Agencia de Proyectos de Investigación Avanzada (ARPANET), la primera red de área amplia que incluía control distribuido y protocolos TCI/IP. Esto formó la base de Internet de hoy. (Techtarget, 2022)
  • Period: to

    PROCESADORES, LAN

    1971: el 4004 de Intel se convirtió en el primer procesador programable de propósito general. 1973: Xerox presentó el primer sistema de escritorio que incluía una interfaz gráfica de usuario y almacenamiento de memoria interna. 1977: ARCnet introdujo la primera LAN en Chase Manhattan Bank, conectando 255 computadoras. (https://www.verdict.co, 2020)
  • Period: to

    ERA DE LA PC, BASE DE DATOS, PHYTON

    1981 – Comienza la era de la PC. 1983: IBM lanzó su primera base de datos relacional comercialmente disponible, DB2. 1989 – Comienza la implementación del lenguaje de programación Python. (https://www.verdict.co, 2020)
  • Period: to

    COMIENZA LA ERA DEL INTERNET

    1989 y 1990
    Tim Berners-Lee y Robert Cailliau encontraron la World Wide Web y desarrollaron HTML, URL y HTTP mientras trabajaban para el CERN. Comienza la era de Internet con un acceso fácil y generalizado a los datos. (Techtarget, 2022)
  • DOMINIO GOOGLE.COM

    DOMINIO GOOGLE.COM
    1997
    El dominio google.com se registra un año antes del lanzamiento, lo que da comienzo al ascenso del motor de búsqueda hacia el dominio y el desarrollo de muchas otras innovaciones tecnológicas, incluso en las áreas de aprendizaje automático, macrodatos y análisis.
  • NoSQL

    NoSQL
    Carlo Strozzi desarrolla NoSQL, una base de datos relacional de código abierto que proporciona una forma de almacenar y recuperar datos modelados de manera diferente a los métodos tabulares tradicionales que se encuentran en las bases de datos relacionales. (Techtarget, 2022)
  • "How Much Information"

    "How Much Information"
    Basándose en datos de 1999, la primera edición del influyente libro How Much Information, de Hal R. Varian y Peter Lyman (publicado en 2000), intenta cuantificar la cantidad de información digital disponible en el mundo hasta la fecha. (https://www.verdict.co, 2020)
  • LAS 3V

    LAS 3V
    2001
    Doug Laney de la firma de analistas Gartner reclca las 3V (volumen, variedad y velocidad), definiendo las dimensiones y propiedades de big data. Las V encapsulan la verdadera definición de big data y marcan el comienzo de un nuevo período en el que los big data pueden verse como una característica dominante del siglo XXI. Desde entonces, se han agregado a la lista V adicionales, como la veracidad, el valor y la variabilidad. (Techtarget, 2022)
  • APACHE HADOOP

    APACHE HADOOP
    Los informáticos Doug Cutting y Mike Cafarella crean Apache Hadoop, el marco de código abierto utilizado para almacenar y procesar grandes conjuntos de datos, con un equipo de ingenieros derivado de Yahoo.
  • COMPUTACION EN LA NUBE

    COMPUTACION EN LA NUBE
    AWS comenzó a ofrecer servicios de infraestructura informática basados ​​en la web, ahora conocidos como computación en la nube.
  • PROCESAMIENTO DE DATOS

    PROCESAMIENTO DE DATOS
    Las CPU del mundo procesan más de 9,57 zettabytes (o 9,57 billones de gigabytes) de datos, lo que equivale aproximadamente a 12 gigabytes por persona. La producción global de nueva información alcanza un estimado de 14,7 exabytes.
  • 100 Gigabit Ethernet.

    100 Gigabit Ethernet.
    Se introdujeron las primeras soluciones para 100 Gigabit Ethernet.
  • ESCASEZ DE TALENTO ANALITICO

    ESCASEZ DE TALENTO ANALITICO
    McKinsey informa que para 2018, EE. UU. enfrentará una escasez de talento analítico. Faltan entre 140 000 y 190 000 personas con habilidades analíticas profundas y otros 1,5 millones de analistas y gerentes con la capacidad de tomar decisiones precisas basadas en datos. Además, Facebook lanza Open Compute Project para compartir especificaciones para centros de datos de bajo consumo.
  • INICITIVA DE INVESTIGACION Y DESARROLLO DE BIG DATA

    INICITIVA DE INVESTIGACION Y DESARROLLO DE BIG DATA
    La administración Obama anuncia la Iniciativa de Investigación y Desarrollo de Big Data, citando la necesidad de mejorar la capacidad de extraer información valiosa de los datos y acelerar el ritmo de crecimiento de STEM (ciencia, tecnología, ingeniería y matemáticas), mejorar la nacional seguridad y transformar el aprendizaje.
  • SOFTWARE DE CONTENEDOR

    SOFTWARE DE CONTENEDOR
    Docker introdujo el software de contenedor de sistema operativo de código abierto y El mercado mundial de big data alcanza los 10.000 millones de dólares.(https://www.verdict.co, 2020)
  • CENTROS DE DATOS

    CENTROS DE DATOS
    Google y Microsoft lideran la construcción masiva de centros de datos. (https://www.verdict.co, 2020)
  • PRONOSTICOS

    PRONOSTICOS
    IDC pronostica que el mercado de análisis de big data alcanzaría los $ 203 mil millones en 2020 Y Huawei y Tencent se unieron a Alibaba en las principales construcciones de centros de datos en China.
  • VELOCIDADES DE DATOS

    VELOCIDADES DE DATOS
    Los principales operadores de centros de datos comenzaron la migración a velocidades de datos de 400G, la tecnología fotónica de silicio comenzó a tener un impacto positivo en las arquitecturas de redes de los centros de datos. (https://www.verdict.co, 2020)
  • MERCADO DE BIG DATA

    MERCADO DE BIG DATA
    Allied Market Research informa que el mercado de big data y análisis de negocios alcanzó los $193,14 mil millones en 2019, y estima que crecerá a $420,98 mil millones para 2027 a una tasa de crecimiento anual compuesta del 10,9%.
  • VELOCIDAD

    VELOCIDAD
    Las velocidades del centro de datos superan los 1000 G
  • FUTURO DE BIG DATA

    Las tecnologías como el aprendizaje automático, la IA y el análisis de IoT, por ejemplo, continúan ampliando los límites al mejorar enormemente nuestra capacidad para procesar, analizar y actuar sobre los datos. Los próximos años podrían muy bien hacer que lo que hemos visto en los últimos 20 años parezca un juego de niños. Los centros de datos estarán cada vez más en el dispositivo.