-
En la antigua Mesopotamia, que abarcaba la región de los ríos Tigris y Éufrates (actualmente parte de Irak), se desarrollaron algunas de las primeras formas de gobierno centralizado y administración tributaria. Los gobiernos mesopotámicos, como el imperio sumerio, el imperio acadio y el imperio babilónico, establecieron sistemas de recaudación de impuestos para financiar actividades gubernamentales y proyectos de infraestructura.
-
El primer censo documentado en la historia se llevó a cabo en la antigua Mesopotamia, una región que corresponde en gran parte a los actuales territorios de Irak y partes de Siria, Irán y Turquía. Este censo ocurrió alrededor del 3800 a.C. y fue realizado por los sumerios, una de las civilizaciones más antiguas del mundo.
-
Los sumerios desarrollan métodos de registro de bienes.
-
Los comienzos de la estadística pueden ser hallados en el antiguo Egipto, quienes faraones lograron recopilar, hacia el año 3050 AC, los primeros datos estadísticos, relativos a la población y la riqueza del país, con miras a construir las pirámides.
-
Hacia el año 3.000 a.C. los babilonios usaban ya pequeñas tablillas de arcilla para recopilar datos en tablas sobre la producción agrícola y los géneros vendidos o cambiados mediante trueque. Los egipcios ya analizaban los datos de la población y la renta del país mucho antes de construir la pirámides
-
El origen de la estadística empieza posiblemente en la isla de Cerdeña, donde existen monumentos como muescas que servían para llevar la cuenta del ganado y la caza.
-
El emperador Yao recopilaba información sobre su población para mantener el orden en su nación.
-
En la Biblia también podemos encontrar referencias estadísticas. Así por ejemplo, en uno de los libros del Pentateuco, bajo el nombre de Números, puede leerse lo que podría interpretarse como el censo que realizó Moisés después de la salida de Egipto.
-
Estos 5 gramos de plata son una ofrenda al SEÑOR. Lo pagará toda persona mayor de 20 años que sea censada. Ni el rico pagará más de 5 gramos de plata ni el pobre pagará menos. Este pago será una ofrenda al SEÑOR para pagar por su vida.
-
En el imperio Romano se realizaba un censo cada 5 años, para tener la información de sus pobladores y las riquezas conquistadas.
-
Durante la edad media no se realizaron estadísticas importantes, únicamente las que realizaban los señores feudales a sus siervos para cobrar los tributos..
-
Carlo Magno ordeno el primer censo de las propiedades y riquezas de la iglesia con el fin de salvar y engrandecer el poder de la Iglesia.
-
Guillermo I ordena el primer censo después de la conquista Normanda de Inglaterra, los datos son recopilados en el libro Domesday Book.
-
En Inglaterra en el siglo 16 se inicia el registro de nacimientos y defunciones.
-
Blaise Pascal y Pierre de Fermat, resolvieron unos problemas de azar contribuyendo al nacimiento del calculo de probabilidades.
-
William Playfair crea el primer gráfico de barras.
-
John Graunt publica "Natural and Political Observations Made upon the Bills of Mortality", precursor de la demografía.
-
Carl Friedrich Gauss desarrolla la distribución normal.
-
Adolphe Quetelet introduce el índice de masa corporal (IMC).
-
Francis Galton acuña el término "regresión" y desarrolla la regresión lineal.
-
Sir William Farr aplica estadísticas a la epidemiología.
-
Ignaz Semmelweis utiliza estadísticas para mejorar la higiene en hospitales.
-
1854: John Snow mapea un brote de cólera en Londres, estableciendo la epidemiología moderna.
-
Francis Galton acuña el término "correlación".
-
Francis Galton introduce el concepto de regresión hacia la media.
-
Karl Pearson formula el coeficiente de correlación.
-
David Hilbert presenta sus 23 problemas, que incluyen 1900: David Hilbert presenta sus 23 problemas, que incluyen fundamentos de la probabilidad.
-
Con la generalización del método científico, los investigadores aceptaron la necesidad de reducir la información a valores numéricos para reducir la ambigüedad de las descripciones verbales.
-
En 1904, Karl Pearson introdujo la distribución chi-cuadrado en estadísticas. La distribución chi-cuadrado es una distribución de probabilidad que se utiliza en inferencia estadística para analizar datos que siguen una distribución normal y para realizar pruebas de hipótesis sobre la varianza de una población.
-
Ronald A. Fisher desarrolla la distribución de Fisher y el análisis de varianza. El análisis de varianza, una técnica estadística que compara las medias de varios grupos
-
Ronald A. Fisher formula el principio de verosimilitud.
Aquí es donde nace el principio de verosimilitud que toda obra de ficción debe cumplir: el espectador debe creer que todos los hechos que aparecen en la obra ficcionada tienen coherencia dentro del universo que se representa. -
Jerzy Neyman y Egon Pearson desarrollan las pruebas de hipótesis. Este enfoque proporciona un marco para tomar decisiones basadas en evidencia estadística al evaluar afirmaciones sobre parámetros poblacionales.
-
1948: Claude Shannon establece las bases de la teoría de la información. Shannon intentaba pensar sobre cómo transmitir mensajes y cómo impedir que se convirtieran en ilegibles entre el ruido.
-
1950: Maurice Kendall y Bernard Babington Smith desarrollan la prueba de rango con signos. Esta prueba es una técnica estadística no paramétrica utilizada para determinar si dos muestras independientes provienen de la misma población o si presentan diferencias significativas entre ellas.
-
En 1960, John Tukey introdujo el término "software" para referirse a los programas y datos que son utilizados por las computadoras.
-
En 1965, el estadístico John Tukey acuñó el término "análisis exploratorio de datos" (EDA, por sus siglas en inglés), que se refiere a un enfoque en la estadística para analizar conjuntos de datos con el propósito de resaltar patrones, detectar valores atípicos, identificar relaciones entre variables y generar hipótesis.
-
En 1969, John Nelder y Robert Wedderburn desarrollaron el concepto de regresión lineal generalizada (GLM por sus siglas en inglés). La regresión lineal generalizada es una extensión del modelo de regresión lineal tradicional que permite abordar una variedad más amplia de situaciones, incluyendo respuestas que no siguen una distribución normal y relaciones no lineales entre variables
-
En 1972, Bradley Efron propuso el método de remuestreo conocido como "bootstrap". El método bootstrap es una técnica estadística que se utiliza para estimar la distribución de una estadística de interés mediante la generación de múltiples muestras de datos a partir de la muestra original.
-
En 1974, el matemático Benoît Mandelbrot acuñó el término "fractal" para describir estructuras geométricas complejas y autosimilares que pueden ser fragmentadas en partes más pequeñas, cada una de las cuales es una copia reducida del todo.
-
En 1977, George Box y Gwilym Jenkins desarrollaron los modelos ARIMA para el análisis de series temporales. ARIMA significa "Autoregressive Integrated Moving Average" por sus siglas en inglés, y se refiere a un enfoque que combina componentes de autoregresión, promedio móvil e integración para modelar y predecir patrones en datos de series temporales.
-
1986: John Dearden y Colin Chatfield introducen la estadística computacional. La estadística computacional se refiere al uso de técnicas y métodos computacionales para analizar y comprender datos, lo que permite realizar análisis más complejos y detallados que los enfoques tradicionales.
-
En 1990, John W. Tukey y Xiaotong Shen no desarrollaron el método LASSO de selección de variables. El método LASSO (Least Absolute Shrinkage and Selection Operator, en español "Operador de Encogimiento y Selección Menor Absoluto") fue propuesto por Robert Tibshirani en 1996. El LASSO es una técnica de regresión que incorpora la regularización L1 para reducir la magnitud de los coeficientes de regresión, lo que conduce a la selección automática de variables al forzar algunos coeficientes a cero.
-
1993: Bradley Efron introduce los "intervalos de confianza ajustados". Los intervalos de confianza ajustados toman en consideración la incertidumbre en la estimación del parámetro, así como la incertidumbre en los supuestos utilizados para construir el intervalo. Esto puede resultar en intervalos de confianza que son más realistas y que tienen en cuenta factores que los intervalos tradicionales podrían ignorar.
-
En 1995, Jeff Wu propuso el concepto de "experimentos secuenciales", que se refiere a un enfoque en el diseño de experimentos donde las decisiones sobre las condiciones experimentales a probar se toman de manera secuencial, basándose en los resultados previos.
-
2001: David Donoho acuña el término "compresión esparcida". La "compresión esparcida" se refiere a un método de compresión de datos en el que los datos se comprimen dispersando la información en diferentes partes del archivo comprimido.
-
En 2010, Google lanzó Google Correlate, una herramienta que permitía a los usuarios encontrar patrones de búsqueda relacionados con datos.
-
En 2012, Nate Silver, un renombrado analista de datos y estadístico, ganó mucha atención y reconocimiento por su capacidad para predecir con precisión los resultados de las elecciones presidenciales de Estados Unidos.
-
2020: La pandemia de COVID-19 destaca la importancia de las proyecciones y modelos estadísticos en la toma de decisiones.
-
2022: La inteligencia artificial y el aprendizaje automático siguen siendo áreas de crecimiento en la estadística.
-
La inteligencia artificial (IA) ha tenido un impacto significativo en el desarrollo de la estadística en los últimos años. La combinación de técnicas de IA con análisis estadísticos ha llevado a avances en diversas áreas.