-
Hipias de Elis usa el valor promedio de la duración del reinado de un rey (la media) para calcular la fecha de los primeros Juegos Olimpicos -
El concepto de probabilidad fue reconocido en la filosofía indio-jaina. En los escritos de Bhadrabahu sobre syadvada o 'la afirmación de posibilidades' (syat = 'puede ser', vada = 'afirmación'). Mahalanobis (1954) y Haldane (1957) se refieren al texto real en sánscrito de la dialéctica de la predicación séptuple (Saptabhanginaya) y lo relacionan con los conceptos de la teoría de la probabilidad con ejemplos de 'lanzamiento de una moneda' y 'estudio de la fisiología'.
-
Los atacantes que sitaron Platea en la Guerra del Peloponeso calculan la altur del muro contando un número de ladrillos, repitiendo varias veces este proceso por diferentes soldados. El valor frecuente (moda) se tomo como el mas probable, esto multipicado por la altura de un ladrillo permitio calcular la longitud de escaleras necesarias para subir las paredes. -
En la Epopeya India el Mahabharata, el rey Rtuparma estima el numero de frutos (2095) y hojas 50,000,00,000 en dos grandes ramas de un arbol, contando el nuemero en un sola ramita, luego multiplicándolo por el número de leña menuda, resultando en que la estimación es muy cercana al número real. -
El emperador romano Augusto realizó encuestas sobre nacimientos y muertes de los ciudadanos del imperio, así como la cantidad de ganado que cada uno poseía y las cosechas que cada uno cosechaba. Los romanos también desarrollaron métodos para recopilar, organizar y resumir datos.
-
La Dinastia Han encuentra 57,67 millones de personas en 12,36 millones de hogarares. Éste es el primer censo del que sobreviven registros y que se consideran exactos. -
Se menciona en el Evangelio San Lucas que el censo del 7 dC realizado por el gobernador Quirino como causante de que José y María viajaran a Belén para pagar impuetos -
El matemático islamico Al-Kindi utiliza el analisis de frecuencia para decifrar codigos secretos y tambien introduce los números arábigos en Europa -
En el siglo X, el gráfico mas antiguo conocido se encuentra en un comentario sobre un libro de Cicerón que muestra los movimientos de los planetas a través del zodiaco. -
Gerald de Gales completo el primer censo de la poblacion de Gales -
La gente comenzo a llevar registros de nacimientos, muertes y accidentes para determinar tarifas de seguros.
-
Un diagrama Chino titulado "La tabla del método antigüo de los siete cuadros que se multiplican", que muestra coeficientes binominales hasta la octava potencia, los numeros fundamentales para las probabilidades y que aparecerán 500 años después en occidente como Triangulo de Pascal -
La Nuova Crónica de Giovanni Villani proporciona información estadística sobre la población y el comercio en Florencia -
Gerolamo Cardano calcula las probabilidades de diferentes lanzamientos de dados para jugadores -
El astrónomo Tycho Brahe usa la media aritmética para reducir los errores en sus estimaciones de la ubicación de estrellas y los planetas -
Michael Van Langren dibuja el primer gráfico conocido de datos estadisticos que muestra el tamaño de los posible errores. El gráfico trata de estimaciones de la distancia entre Toledo y Roma -
Fermat junto a Pascal fundaron las torías de la probabilidad, ésta tiene sus raices en los juegos de azar y las apuestas. -
Sobre el razonamiento en los juegos de azar de Huygens es el primer libro sobre la teoria de la probabilidad. -
Karl Pearson considera a Graunt "padre de la estadistica moderna". John Graunt en sus estudios demograficos utilizó metodos estadisticos y censos humanos para determinar los nacimientos y muertes en Londres -
El Ars Conjectandi de Jacob Bernoulli deriva de la ley de los grandes números, que dice que cuanto más se repite un experimento, con mayor presición se puede predecir el resultado -
Gottfrien Achenwall fue un filósofo y estadístico alemán considerado uno de los inventores del término "Estadistica", fue en la Universidad de Göttingen donde comenzó a leer un nuevo curso de "estadísticas" que explicaba como estaba organizado el Estado. -
Thomas Bayes creador del teorema de Bayes, que es la piedra angular de la probabilidad condicional y la prueba de creencias e hipótesis. -
El ingeniero y economista escocés William Playfair (1759–1823) es considerado el padre de los gráficos estadísticos. Fue pionero en el uso del gráfico de líneas para representar series temporales y fue el creador del gráfico de barras y del gráfico circular. Los utilizó para mostrar datos económicos -
Adrien-Marie Legendre introduce el método de mínimos cuadrados para ajustar una curva a un conjunto dado de observaciones -
Con contribuciones de Laplace, deriva de la distribución normal, introdujo la "Distribución Gaussiana" para representar la probabilidad introdujo una curva en forma de campana que alcanza su valor máximo alrededor del valor medio y cae rápidamente hacia mas/menos infinito. fundamental para el estudio de variación y error. -
Thomas Malthus, quien analizó el crecimiento de la población y Charles Babbage son miembros de la Asociación Británica para el Avance de la Ciencia establece una sección de estadisticas. que mas tarde se convierte en la Royal Statistical Society -
Adolphe Quetelet introduce las estadísticas de las ciencias sociales y el concepto "hombre promedio", su altura, índice de masa corporal y ganancias.
-
Fue propuesta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).La distribución de Poisson es una distribución binomial que está limitada al solo depender de un parámetro, el número esperado de eventos que ocurrirán en un intervalo fijado, es decir, la frecuencia de los eventos. -
Florence Nigthingale utiliza las estadísticas de las bajas de la Guerra de Crimea para influir en la opinión pública y en la Oficina de Guerra. Mostraba las bajas mes a mes en un grafico circular denominado "la rosa ruiseñor", se convierte en la primera mujer miembro de la Royal Statistical Society y la primer mujer miembro en el extranjero de la American Statistical Association -
Minard fue pionero en el uso de gráficos estadísticos y técnicos. Generalmente es reconocido por su Carte figurative des pertes successives en hommes de l'Armée Française dans la campagne de Russie 1812-1813 (ilustración superior), un gráfico publicado en 1869 sobre la desastrosa campaña rusa del ejército napoleónico de 1812. El gráfico muestra diferentes variables en una única imagen bidimensional: -
El fenómeno de regresión a la media fue postulado por primera vez por el estadista Sir Francis Galton en 1886. Se observa cuando los resultados extremos de una variable son seguidos por resultados que están más en línea con su media de largo plazo. -
El término desviación típica fue incorporado a la estadística por Karl Pearsonen. La desviación estándar es la medida de dispersión más común, que indica qué tan dispersos están los datos alrededor de la media. El símbolo σ (sigma) se utiliza frecuentemente para representar la desviación estándar de una población, mientras que s se utiliza para representar la desviación estándar de una muestra. -
La historia de las matemáticas financieras y numéricas comienza en 1900, con la tesis de Louis Bachelier, Théorie de la Spéculation, que introdujo el movimiento Browniano para modelar los movimientos de los precios de las acciones y evaluar las opciones. Muestra que las fluctuaciones en los precios del mercado de valores se comportan de la misma manera que el movimiento browniano aleatorio de las moléculas. -
William Sealy Gosset, trabajaba para la cervecería Guinness de Dublín y con el objetivo de aplicar los nuevos avances en bioquímica y estadística al proceso industrial, desarrolló el test t como una forma sencilla de monitorizar la calidad de la cerveza stout. Publicó su test en la revista inglesa Biometrika, bajo el seudónimo de Student, para mantener en secreto los procesos. La prueba "t" de Student se utiliza para determinar si hay una diferencia significativa entre las medias de dos grupos -
HErman Hollerit, es considerado una de las figuras seminales en el desarrollo de procesamiento de datos. Su invención de la máquina de tarjetas perforadas de tabulación marcó el comienzo de la era de la semiautomáticas de procesamiento de datos de sistemas, y su concepto de que dominaba el paisaje durante casi un siglo. Fusiona su empresa para convertirse en IBM pioneros de las maquinas para manejar datos comerciales y de la primera computadora
-
Frederick Lanchester un diseñador de automóviles desarrollo leyes estadísticas para predecir los resultados de batallas aéreas durante la Primera Guerra Mundial -
Fisher realizó muchos avances en la estadística, siendo una de sus más importantes contribuciones, la inferencia estadística creada por él en 1920. RA Fisher, considerado el fundador de la estadística moderna (análisis de varianza, entre otros métodos propios de la psicometría) y padre del diseño experimental; lo que desarrolló en su magistral tratado, publicado en 1925, Statistical Methods for Research Workers. -
Jerzy Neyman, introdujo el concepto moderno de intervalo de confianza en el testeo de hipótesis estadísticas y concibió el testeo de hipótesis nula (en colaboración con Egon Pearson). Neyman ideó la forma en la cual la FDA prueba los medicamentos en la actualidad, antes de aprobarlos. Su trabajo conduce al muestreo científico moderno -
Las aportaciones de Alan Turing a la estadística Bayesiana se desarrollaron en relación con el algoritmo “bamburismus” que sirvió para desencriptar los mensajes enviados por la armada naval germana, durante la Segunda Guerra Mundial, usando la máquina Enigma.
-
teorema de Cox-Jaynes ( 1946 ) codifica y cuantifica el proceso de aprendizaje basándose en cinco postulados simples ( desiderata ). Esta codificación coincide con la de probabilidad , históricamente de origen bastante diferente. El teorema debe su nombre al físico Richard Threlkeld Cox que formuló la versión inicial. -
Desde la década de 1950 en adelante, Taguchi desarrolló una metodología para la aplicación de estadísticas para mejorar la calidad de los productos manufacturados. El método Taguchi ha sido objeto de controversia entre algunos estadísticos occidentales convencionales. -
William H. Kruskal W. Allen Wallis crean. La prueba H de Kruskal-Wallis es una prueba no paramétrica basada en el rango que puede utilizarse para corroborar si existen diferencias relevantes a nivel estadístico entre dos o más grupos de una variable independiente en una variable dependiente ordinal o continua. -
El procedimiento de Kaplan-Meier es un método de estimación de modelos hasta el evento en presencia de casos censurados. El modelo de Kaplan-Meier se basa en la estimación de las probabilidades condicionales en cada punto temporal cuando tiene lugar un evento y en tomar el límite del producto de esas probabilidades para estimar la tasa de supervivencia en cada punto temporal. -
Su artículo científico 'The regression analysis of life tables' (1972) revolucionó la teoría y práctica de los métodos estadísticos para la investigación médica y es el segundo más citado en el área de la estadística, con unas 30.000 citas en 'Web of Science' y 42.000 en 'Google Scholar'. -
John Tukey presenta el Diagrama de Caja o Diagrama de Caja y Biigotes. Este gráfico se utiliza cuando deseamos explicar cómo se distribuyen una serie de datos cuantitativos. Otras opciones para reflejar distribuciones son los histogramas y las curvas de distribución. En comparación con estos últimas, el gráfico de caja es más sencillo de entender, más claro y, por tanto, hace más rápida la comprensión visual. -
Bradley Efron creó el método 'bootstrap', una técnica de remuestreo que aprovecha la potencia computacional de los ordenadores para aproximar la distribución de estimadores estadísticos extraídos de los datos. -
En la primera obra de Tufte, The Visual Display of Quantitative Information (la enseñanza visual de información cuantitativa (1983), Tufte desgrana ejemplos de buenos gráficos que han plasmado información. Se centra en información cuantitativa. En este libro, magníficamente editado, el lector puede encontrar desde los primeros gráficos de fiebre sobre el saldo de la balanza comercial de Gran Bretaña hasta un gráfico y claro esquema de los trenes franceses. -
R es un entorno y lenguaje de programación con un enfoque al análisis estadístico. Se trata de uno de los lenguajes de programación más utilizados en investigación científica, siendo además muy popular en los campos de aprendizaje automático (machine learning), minería de datos, econometría, investigación biomédica, bioinformática y en el campo económico-financiero. A esto contribuye la posibilidad de cargar diferentes bibliotecas o paquetes con funcionalidades de cálculo. -
La estadística en el Big Data se basa en entender las variables de la información y la relación entre las variables que se encuentran en ella. Las estadísticas te ayudan a comprender cómo es tu población de los datos. -
La cantidad de información almacenada digitalmente supera a la no digital -
Paul DoPodesta usa estadistica, la sabermetría, definida como el análisis empírico del juego de béisbol a través del estudio de la evidencia objetiva obtenida, específicamente usando técnicas estadísticas, cuyo fin es medir de manera eficaz las actividades que se suscitan en el terreno de juego (James & Wirth, 1986). -
Nate Silver predice con éxito el resultado de 50 Estados en las Elecciones de EEUU. El estadístico que predijo -número por número, estado por estado, con una exactitud sin precedentes- la victoria de Barack Obama en las elecciones presidenciales de EE.UU.