You are not authorized to access this page.

LINEA DE TIEMPO DE ANALISIS DE DATOS

By cloer4
  • John Graunt y el nacimiento de la estadìstica

    John Graunt y el nacimiento de la estadìstica

    Desarrolla la estadìstica demográfica con su libro Natural and Political Observations Made upon the Bills of Mortality. Graunt es considerado uno de los primeros en aplicar mètodos cuantitativos al estudio de poblaciones, creo una de las primeras tablas de vida, que permitìan estimar la esperanza de vida en diferentes edades.
  • Thomas Bayes y el fundamento de la probabilidad condicional

    Thomas Bayes y el fundamento de la probabilidad condicional

    formula el teorema de bayes clave en la inferencia de datos, El teorema que lleva su nombre se refiere a la probabilidad de un suceso condicionado por la ocurrencia de otro suceso. Más específicamente, con su teorema se resuelve el problema conocido como «de la probabilidad inversa». Su teorema es usado hoy en inteligencia artificial, medicina, economìa, ingenierìa y mas.
  • Carl Friedrich Gauss: Precisiòn y predicciòn en el analisis de datos.

    Carl Friedrich Gauss: Precisiòn y predicciòn en el analisis de datos.

    Carl Friedrich Gauss, introdujo la distribuciòn normal y el metodo minimos cuadraticos, utilizado en ingenierìa para ajustar datos, estudio como los errores de medicion se distribuyen y como correguirlos para mejorar la precisiòn en calculos cientificos.
  • Hermann Hollerith: Una aproximacion històrica al nacimiento  del procesamiento automatizado de los datos.

    Hermann Hollerith: Una aproximacion històrica al nacimiento del procesamiento automatizado de los datos.

    Hermann Hollerith, revolucionó el análisis de datos en 1885 al desarrollar una máquina tabuladora basada en tarjetas perforadas, inspirada en los telares de Jacquard. Su invento surgió como respuesta a la necesidad de agilizar el procesamiento del censo de EE.UU., que en 1880 había tomado casi ocho años en completarse manualmente. La máquina de Hollerith permitía registrar, clasificar y contar información de manera automatizada mediante un sistema de agujas y circuitos eléctricos.
  • Automatizaciòn del censo estadounidense con la maquina tabuladora de Hollerith

    Automatizaciòn del censo estadounidense con la maquina tabuladora de Hollerith

    La máquina tabuladora de Hermann Hollerith se utilizó para procesar el Censo de Estados Unidos, reduciendo el tiempo de análisis de casi 8 años a solo 2 años. Este avance permitió ahorrar tiempo y costos significativos, demostrando el potencial de la automatización en el manejo de grandes volúmenes de datos y sentando las bases para el desarrollo de la computación moderna, lo que eventualmente condujo a la fundación de la empresa que se transformaría en IBM.
  • Estimaciones Demogràficas: Recuperaciòn y Analisis de Microdatos del Censo

    Estimaciones Demogràficas: Recuperaciòn y Analisis de Microdatos del Censo

    .En 1930, se realizaron estimaciones de la población mexicana utilizando una muestra de los microdatos del Quinto Censo de Población. Estos datos fueron recuperados mediante el proyecto Muestreo probabilístico para la recuperación de los microdatos del censo general, financiado por el Fondo Sectorial CONACYT-INEGI. El objetivo fue analizar la información censal con técnicas de muestreo probabilístico para comprender mejor la estructura demográfica y socioeconómica del país.
  • Turing y Good

    Turing y Good

    Realizan una máquina capaz de analizar documentos cifrados por los alemanes usando la máquina enigma en la Segunda Guerra Mundial, de tal forma que era capaz de descifrar la clave con la que habían sido cifrados. Y en ese mismo año se realiza una máquina, el Predictor de Kerrison, capaz de automatizar la defensa antiaérea apuntando contra aviones enemigos.
    Ver el analisis de la pelìcula basada en la maquina turing:
    https://faridieck.com/collections/libros
  • El proyecto ENIAC

    El proyecto ENIAC

    El ENIAC(Computador e Integrador Numérico Electrónico), originalmente conocido como “Proyecto PX”, se diseñó y construyó entre 1943 y 1945 en la escuela Moore, de la Universidad de Pensilvania. En él trabajaron John Mauchly y John Presper Eckert, junto a un equipo de ingenieros que incluía a Robert F. La primera computadora electronica de proposito general, permitiendo calculos mas rapidos en ingenieria estructural y militar.
  • Proyecto Manhattan

    Proyecto Manhattan

    El Proyecto Manhattan usó computadoras para analizar y predecir el comportamiento de reacciones nucleares en cadena, ayudando en el desarrollo de la bomba atómica.
  • Comercializaciòn de la analitica en la predicciòn meterològica

    Comercializaciòn de la analitica en la predicciòn meterològica

    Se introduce la comercialización de la analítica con el desarrollo del primer modelo de predicción meteorológica basado en el análisis de datos, permitiendo prever el clima con mayor precisión y sentando las bases para futuras aplicaciones en diversas industrias.
  • UNIVAC I

    UNIVAC I

    En 1951, se lanzó la UNIVAC I (Universal Automatic Computer I), la primera computadora comercial de propósito general, desarrollada por J. Presper Eckert y John Mauchly.
    Esta máquina, que ocupaba una sala entera y pesaba 13 toneladas, revolucionó el análisis de datos al reemplazar las tarjetas perforadas por cintas magnéticas, aumentando la velocidad y capacidad de almacenamiento.
  • Tres primeros lenguajes de programacion

    Tres primeros lenguajes de programacion

    Los tres primeros lenguajes de programación modernos, cuyos descendientes aún continúan siendo utilizados, son: FORTRAN (1957) ingenieria y calculos cientificos, creado por John Backus.
    LISP (1958)fue diseñado para manipulacion simbolica y inteligencia artificial, creado por John McCarthy.
    COBOL (1959) diseñaddo para gestion de datos en empresas, bancos y gobiernos, creado por Grace Hopper durante su participación en el Short Range Committee.
  • Avances en sofware y bases de datos

    Avances en sofware y bases de datos

    En 1970, Edgar F. Codd introdujo el modelo relacional de bases de datos, que revolucionó la gestión de la información y llevó al desarrollo de SQL. Ese mismo año, Dennis Ritchie comenzó a desarrollar el lenguaje C, que se convertiría en uno de los más influyentes de la historia.
  • Primeras computadoras personales APPLE II

    Primeras computadoras personales APPLE II

    En 1977, se lanzaron las primeras computadoras personales listas para usar, marcando el inicio de la era de la informática personal. La llamada "Trinidad de 1977" incluyó el Apple II, el Commodore PET y el TRS-80, que hicieron que la computación fuera accesible para hogares, escuelas y pequeñas empresas.
    El Apple II, diseñado por Steve Wozniak, destacó por sus gráficos en color y su facilidad de uso.
  • Nace el estandar de la computadora personal

    Nace el estandar de la computadora personal

    En 1981, IBM lanzó la IBM PC (5150) estableciendo el estándar para las computadoras personales. Utilizaba el sistema operativo MS-DOS de Microsoft y el procesador Intel 8088, lo que permitió la creación de computadoras compatibles por otras empresas
    Este año marcó la expansión del software comercial, con programas como WordStar y VisiCalc, impulsando el uso de las PC en negocios y hogares. La IBM PC consolidó a Microsoft e Intel como líderes tecnológicos y definió la informática personal moderna
  • El inicio de la era digital moderna

    El inicio de la era digital moderna

    En 1995, Microsoft lanzó Windows 95, revolucionando la informática personal con su interfaz gráfica y el Menú Inicio. Este año también marcó la expansión de Internet, con el crecimiento de la web, el lanzamiento de Internet Explorer y el auge del comercio electrónico con Amazon y eBay.
    Además, Sony PlayStation debutó en América, estableciendo un nuevo estándar en videojuegos con gráficos en 3D.
  • Nace Google

    Nace Google

    En 1998, Larry Page y Sergey Brin fundaron Google, revolucionando la búsqueda en Internet con un algoritmo más eficiente. Este año también marcó la llegada de Windows 98, con mejor compatibilidad para la web y dispositivos USB.
    Además, Steve Jobs regresó a Apple, impulsando la creación del icónico iMac G3, que modernizó el diseño de las computadoras, consolidando Internet como una herramienta esencial para el mundo digital.
  • La revolucion del big data y la inteligencia artificial

    La revolucion del big data y la inteligencia artificial

    El análisis de datos entra en la era del Big Data con el crecimiento masivo de datos digitales. Se popularizan herramientas como Hadoop y Spark para el procesamiento eficiente de grandes volúmenes de información. La computación en la nube, con AWS, Google Cloud y Azure, facilita el acceso a infraestructura avanzada. El Machine Learning y la inteligencia artificial impulsan avances en análisis predictivo, reconocimiento de imágenes y procesamiento de lenguaje natural.
  • IA y Big Data en la era digital

    IA y Big Data en la era digital

    La pandemia de COVID-19 acelera la digitalización y el uso de IA en salud, comercio y trabajo remoto. OpenAI lanza GPT-3, revolucionando el procesamiento de lenguaje natural. El Big Data se usa para rastrear la pandemia y mejorar la analítica predictiva. Crecen la computación en la nube, la automatización y la robótica en múltiples industrias.
  • Inovacion sin limites

    Inovacion sin limites

    En 2023, la ingeniería se beneficia del mantenimiento predictivo, la analítica en tiempo real y los gemelos digitales gracias a la IA y el machine learning. En 2024, la integración de Big Data e IA multimodal optimiza la gestión de proyectos, el diseño de materiales inteligentes y la automatización en construcción y manufactura, impulsando la innovación en el sector.