Images

BIG DATA

By andurr
  • ¿En qué consiste el Big Data?

    ¿En qué consiste el Big Data?
    Big Data «es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable. Los tamaños del “Big Data” se hallan constantemente en aumento».
  • El comienzo de la sobrecarga de información

    El comienzo de la sobrecarga de información
    El Censo de los Estados Unidos del año 1880 tardó ocho años en tabularse, y se calcula que el censo de 1890 hubiera necesitado más de 10 años para procesarse con los métodos disponibles en la época. Si no se hubieran realizado avances en la metodología, la tabulación no habría finalizado antes de que tuviera que realizarse el censo de 1900.
  • La máquina tabuladora de Hollerith

    La máquina tabuladora de Hollerith
    La influencia de los datos del censo derivó en la invención de la máquina tabuladora de Hollerith (tarjetas perforadas), que fue capaz de domar esta ingente cantidad de información y permitir realizar el trabajo aproximadamente en un año. Hizo que Hollerith se convirtiera en emprendedor, y su empresa pasó a formar parte de lo que hoy en día conocemos como IBM.
  • El boom del crecimiento demográfico

    El boom del crecimiento demográfico
    La sobrecarga de información prosiguió con el aumento desmesurado de la población en los Estados Unidos, la emisión de los números de la seguridad social y el crecimiento general del conocimiento (y la investigación), aspectos que exigían un registro de la información más preciso y organizado.
  • El primer aviso del problema del almacenamiento y la recuperación de datos

    El primer aviso del problema del almacenamiento y la recuperación de datos
    La primera señal de aviso sobre el crecimiento del conocimiento como problema inminente a la hora de almacenar y recuperar los datos tuvo lugar en 1944, cuando Fremont Rider, bibliotecario de la Universidad Wesleyana, calculó que las bibliotecas de las universidades de EE. UU. Duplicaban su tamaño cada dieciséis años. Rider calculó que, si la tasa de crecimiento se mantuviera, la biblioteca de Yale tendría en el año 2040 «aproximadamente 200.000.000 de volúmenes, que ocuparían 9656 km de estante
  • La teoría de la información de Shannon

    La teoría de la información de Shannon
    Claude Shannon publicó la Teoría matemática de la comunicación, en la que se estableció un marco de trabajo para determinar los requisitos de datos mínimos para transmitir la información a través de canales afectados por ruido (imperfectos). Fue un trabajo histórico que ha hecho posible gran parte de la infraestructura actual. Sin su teoría, el volumen de los datos sería mucho mayor que el actual.
  • Period: to

    Evolución

    1956: Memoria virtual
    1961: El conocimiento científico se amplía
    1962: Los pioneros en el reconocimiento de voz
    1963: En busca búsqueda de una solución organizativa
    1966: Entran en escena los sistemas de computación centralizados
  • Base de datos relacional

    Base de datos relacional
    En el año 1970, Edgar F. Codd, un matemático formado en Oxford que trabajaba en IBM Research Lab, publicó un artículo en el que se explicaba la forma en la que podía accederse a la información almacenada en bases de datos de gran tamaño sin saber cómo estaba estructurada la información o dónde residía dentro de la base de datos.
  • Sistemas de Planificación de necesidades de material (MRP)

    Sistemas de Planificación de necesidades de material (MRP)
    Esta transformación marcó un cambio de tendencia hacia los procesos de negocio y las funcionalidades de contabilidad, y en este ámbito se fundaron empresas como Oracle, JD Edwards y SAP. Fue Oracle la que presentó y comercializó el Lenguaje de consulta estructurado o Structure Query Language (SQL) original.
  • Inteligencia empresarial

    Inteligencia empresarial
    En 1989, Howard Dresner amplió el popular término genérico « Business Intelligence (BI)» o Inteligencia empresarial, inicialmente acuñado por Hans Peter Luhn en el año 1958. ». Poco tiempo después, y como respuesta a la necesidad de una mejor BI, pudimos ver el auge de empresas como Business Objects, Actuate, Crystal Reports y MicroStrategy, que ofrecían informes y análisis de los datos de las empresas. El primer informe de base de datos en 1992.
  • El problema del Big Data

    El problema del Big Data
    El término «Big Data» se empleó por primera vez en un artículo de los investigadores de la NASA Michael Cox y David Ellsworth. Ambos afirmaron que el ritmo de crecimiento de los datos empezaba a ser un problema para los sistemas informáticos actuales. Esto se denominó el «problema del Big Data».
  • La explosión de datos continúa

    La explosión de datos continúa
    Bret Swanson y George Gilder proyectaron que el tráfico IP estadounidense podría alcanzar el zettabyte en el año 2015, y que la Internet estadounidense del 2015 será, como mínimo, 50 veces más grande que lo era en el 2006.
  • La Inteligencia empresarial (BI) pasa a ser una prioridad

    La Inteligencia empresarial (BI) pasa a ser una prioridad
    En el año 2009, la Inteligencia empresarial pasó a ser una de las principales prioridades para los directores de tecnologías de la información.
  • Tendencias de la Inteligencia empresarial (BI)

    Tendencias de la Inteligencia empresarial (BI)
    En 2011, las principales tendencias emergentes de Inteligencia empresarial fueron los servicios en la nube, la visualización de datos, el análisis predictivo y el Big Data.
  • SAP HANA

    SAP HANA
    Las empresas empiezan a implementar nuevas tecnologías en memoria, como SAP HANA, para analizar y optimizar cantidades de datos masivas. Las empresas cada vez confían más en el uso de datos como activo de negocio para lograr ventajas sobre la competencia. El Big Data muestra el camino, ya que es indudablemente la principal nueva tecnología a entender y utilizar para mantenerse al día en un mercado que cambia tan rápido como el actual.
  • Adopción de ERP en la nube

    Adopción de ERP en la nube
    Mientras que el 47 % de las organizaciones encuestadas por Gartner tienen pensando migrar sus sistemas ERP principales a la nube en un plazo de cinco años, el ERP en la nube presenta una tasa de aceleración superior a la prevista inicialmente, debido a las estrategias de ERP de dos niveles que amplían el sistema ERP existente de la empresa y permiten llegar a nuevos mercados y escalar a una velocidad más alta.
  • El futuro del Big Data

    El futuro del Big Data
    La producción de datos aumenta a un ritmo espectacular. Los expertos apuntan a un aumento estimado del 4300 % en la generación de datos anuales para 2020. Entre los principales motivos que llevan a este cambio se incluyen el cambio de tecnologías analógicas a digitales y el rápido aumento en la generación de datos, tanto por particulares como por grandes empresas.