evolucion de la estadistica

  • Siglo XVII

    1663: John Graunt publica "Observaciones Naturales y Políticas Hechas sobre los Registros de Mortalidad", uno de los primeros trabajos en análisis estadístico.
  • Siglo XVII

    • 1687: Sir William Petty utiliza métodos estadísticos para realizar estimaciones económicas.
  • Siglo XVIII

    1738: Daniel Bernoulli publica "El Arte de la Conjetura", contribuyendo al desarrollo de la teoría de la probabilidad.
  • Siglo XVIII

    1756: Abraham de Moivre introduce técnicas estadísticas, incluida la distribución normal.
  • Siglo XVIII

    1763: Thomas Bayes desarrolla el teorema de Bayes, que proporciona un marco para actualizar creencias basado en la evidencia.
  • Siglo XIX

    1809: Carl Friedrich Gauss aplica métodos estadísticos en el análisis de datos astronómicos y geodésicos
  • Siglo XIX

    1865: Francis Galton introduce el concepto de regresión y correlación en su estudio de la herencia y la variabilidad.
  • Siglo XIX

    1876: Karl Pearson desarrolla el coeficiente de correlación de Pearson para cuantificar la relación lineal entre variables.
  • Siglo XX

    1918: Ronald Fisher publica "La Correlación Entre Parientes sobre la Suposición de la Herencia Mendeliana", estableciendo bases para el análisis de varianza y la inferencia estadística.
  • Siglo XX

    1921: Jerzy Neyman presenta conceptos fundamentales en teoría de la probabilidad y estadística.
  • Siglo XX

    1933: Harold Hotelling contribuye al análisis multivariante con su trabajo sobre el análisis de componentes principales.
  • Siglo XX

    1950: Norbert Wiener introduce el concepto de series temporales y el análisis espectral.
  • Siglo XX

    1957: John Tukey desarrolla herramientas de visualización estadística, incluyendo el gráfico de caja (boxplot).
  • Period: to

    Siglo XXI

    • 2000: El término "ciencia de datos" se populariza con el auge del análisis a gran escala.
    • 2009: Hadley Wickham desarrolla ggplot2 para visualización en R.
    • 2012: Avances en aprendizaje automático transforman el análisis de datos.
    • 2016: TensorFlow y PyTorch hacen más accesible la inteligencia artificial.
    • 2020: La pandemia destaca la importancia del análisis de datos en la salud pública.