-
En Londres, John Graunt realiza el primer experimento registrado en análisis de datos estadísticos. Al registrar información sobre la mortalidad, teorizó que puede diseñar un sistema de alerta temprana para la peste bubónica que asola Europa. -
En 1881, un joven ingeniero empleado por la oficina, Herman Hollerith, produce lo que se conocerá como la máquina tabuladora Hollerith. Usando tarjetas perforadas, reduce el trabajo de 10 años a tres meses y logra su lugar en la historia como el padre de la computación automatizada moderna. La compañía que funda se convertirá en conocida como IBM. -
El término "Bussiness Intelligence" es utilizado por Richard Millar Devens en su Encciclopedia de anécdotas de negocio y comercio, en la que describe cómo el banquero Henry Furnese logró una ventaja sobre los competidores al recopilar y analizar información relevante para sus actividades comerciales de una manera estructurada. Se cree que este es el primer estudio de un negocio que utiliza el análisis de datos para fines comerciales. -
En la Exposición Universal celebrada en París en 1900, Paulsen tuvo la oportunidad de grabar la voz del emperador Francisco José de Austria, grabación que hoy día se conserva en el Museo Danés de Ciencia y Tecnología, siendo esta la grabación de sonido por procedimientos magnéticos más antigua que existe. -
Expira la patente de Poulsen.
-
El ingeniero germano-austríaco Fritz Pfleumer, desarrolló un proceso para adherir cintas de metal magnetizable sobre papeles de cigarrillos, y razonó que este nuevo medio podría ser utilizado como una alternativa a la grabación por cable de Poulsen. -
Pfleumer recibió en 1928 una patente en Alemania para su invención “Magnetophone”: la aplicación de polvos magnéticos a tiras de papel. Su invención se puede considerar la primera cinta magnética exitosa: -
Se presenta IBM Shoebox en la Expo de 1962. Creada por William C. Dersch supone el primer paso en el reconocimiento de voz, capaz de registrar palabras en inglés en formato digital. -
Erik Larson habla por primera vez de Big Data en el sentido que conocemos la expresión hoy en día. La revista Harpers Magazine recoge su artículo, en el que especula sobre el origen del correo basura que recibe. En torno a este año se empiezan a popularizar las herramientas de business intelligence para analizar la actividad comercial y el rendimiento de las operaciones. -
Nace internet, a la postre, la gran revolución de la recolección, almacenamiento y análisis de datos. Tim Berners-Lee establece las especificaciones de un sistema de red con interconexiones a nivel mundial accesible para todos en cualquier lugar. -
Google lanza su sistema de búsqueda en internet y en los siguientes años será de largo el primer lugar al que acudir en busca de datos en internet. Este mismo año, se publica el estudio ¿Cuánta información hay en el mundo?, de Michael Lesk. La conclusión es que hay tanta y crece a tal velocidad, que gran parte de ella no será vista por nadie jamás. -
El término Big Data es analizado por primera vez en un estudio académico. La Asociación de Sistemas Informáticos recomienda centrarse en el análisis de información ya que existe gran cantidad de datos y no todos son útiles. Recuerdan el propósito de la computación, que es el entendimiento, no los números. -
"La producción total anual del mundo de contenido de impresión, película, óptico y magnético requeriría aproximadamente 1.500 millones de gigabytes de almacenamiento. Esto es el equivalente a 250 megabytes por persona por cada hombre, mujer y niño en la Tierra ".
-
Doug Laney, analista de Gartner, define tres de las características comúnmente aceptadas de Big Data. Vemos el primer uso del término "software como servicio", un concepto fundamental para muchas de las aplicaciones basadas en la nube que hoy en día son estándares de la industria. La cantidad de datos. Velocidad: La velocidad es el ritmo acelerado en el que se reciben y procesan los datos. Variedad: Se refiere a los distintos tipos de datos que se encuentran disponibles.
-
Los comentaristas anuncian que estamos presenciando el nacimiento de la "Web 2.0", la web generada por los usuarios, en la que la mayoría del contenido será proporcionado por los usuarios de los servicios, en lugar de los propios proveedores de servicios. Este año también se ve la creación de Hadoop, el marco de código abierto creado específicamente para el almacenamiento y análisis de conjuntos Big Data.
-
Los servidores del mundo procesan 9.57 zettabytes (9.57 billones de gigabytes) de información, lo que equivale a 12 gigabytes de información por persona, por día, de acuerdo con la sección ¿Cuánta información? Informe de 2010 En International Production and Dissemination of Information, se estima que este año se producen 14,7 exabytes de nueva información.
-
Eric Schmidt, presidente ejecutivo de Google, dice en una conferencia que ahora se crean tantos datos cada dos días, como se creó desde el comienzo de la civilización humana hasta el año 2003.
-
El informe de McKinsey establece que en 2018 los Estados Unidos enfrentarán un déficit de entre 140,000 y 190,000 científicos de datos profesionales, y declarará que los problemas que incluyen privacidad, seguridad y propiedad intelectual tendrán que resolverse antes de que se realice el valor total de Big Data
-
El auge de las máquinas móviles: por primera vez, más personas utilizan dispositivos móviles para acceder a datos digitales que las computadoras de la oficina o el hogar. El 88% de los ejecutivos de negocios encuestados por GE que trabajan con Accenture informan que el análisis de Big data es una prioridad para sus negocios.
-
Hubo un incidente con Cambridge Analytics, pues esta logró recopilar datos de los usuarios de Facebook, (por la cual Facebook también fue demandada), usando estos datos Cambridge analytics mostró a los usuarios publicidad personalizada para interferir políticamente a los usuarios en etapas electorales.
-
Según Shoshana Zuboff en la entrevista - documental, “el capitalismo de la vigilancia” (2019) cada plataforma tiene una base de datos en la que se almacena información que luego las grandes empresas venden, ella referencia frases de personas como “no tengo nada que esconder, no me importa que tomen”, el problema está en que las personas no se dan cuenta que la información que toman no es solo la que les damos
-
“En junio de 2019. Unos meses después de ese gran anuncio de que el futuro es privado se llevó a cabo un proceso judicial en California una demanda colectiva presentada por un grupo de personas que exigieron a Facebook tener acceso a los datos que había compartido con la empresa Cambridge Analytics para ver si habían sido manipulados por estos últimos.
-
En 2020 se espera que la generación anual de datos haya aumentado hasta un 4.300%. El crecimiento estará motivado por el cambio de las tecnologías analógicas a digitales y por la cantidad de información generada tanto por los usuarios y empresas Según Gartner, en 2020 habrá más de 25.000 millones de dispositivos conectados a Internet. A finales de 2013, la cantidad de datos generados por los dispositivos era de 4.4 billones de GB. Cifra que se espera se multiplique por 10 en 2020