-
El cuneiforme es un sistema de escritura desarrollado por primera vez por los antiguos sumerios en Mesopotamia c. 3500-3000 a.C. como apoyo a las diversas actividades económicas en ciudades cada vez más pujantes.
-
En Egipto, año 2500 a.C., se hizo un censo con el fin de evaluar la población activa disponible con miras a la construcción de las pirámides. - En Israel, año 1491 a.C., se realizó un censo para contabilizar las personas aptas para el servicio militar y conocer su capacidad contributiva.
-
China llevó a cabo el primer censo de población, China es considerado el único país de las antiguas civilizaciones que ha conservado hasta hoy los datos concretos de registro de la población.
-
Los censos romanos no solo contaban a las personas, sino que también registraban información detallada sobre la riqueza, la propiedad, la edad y el estatus social. Estos datos eran esenciales para la recaudación de impuestos, la asignación de recursos y la planificación de infraestructuras.
-
Aristóteles, filósofo griego antiguo, no desarrolló la estadística como disciplina, pero sí hizo contribuciones a la probabilidad y al pensamiento estadístico, definió la probabilidad como algo que se considera plausible, es decir, que parece bueno a la mayoría de las personas. Este concepto de probabilidad se mantuvo en la Edad Media.
-
el libro era más que un simple registro fiscal. Proporcionaba un registro detallado de todas las tierras en posesión del rey y sus arrendatarios y de los recursos que iban con esas tierras. Registraba qué señoríos pertenecían legítimamente a qué propiedades y también era una declaración feudal . Revelaba las identidades de los terratenientes , que poseían sus tierras directamente de la Corona, y de sus arrendatarios y subarrendatarios.
-
Este libro es considerado el inicio de la demografía, la ciencia que estudia las poblaciones humanas.
Graunt fue un estadístico inglés que analizó los registros de defunciones y bautismos de la ciudad de Londres. A partir de estos datos, pudo hacer estimaciones sobre la población, las tasas de natalidad y mortalidad, y la propagación de enfermedades. -
el libro Ars Conjectandi de Jacob Bernoulli fue publicado en 1713 y en él se estableció la ley de los grandes números, La ley de los grandes números establece que el promedio de los resultados de un gran número de muestras aleatorias independientes se aproxima a la media teórica. Jacob Bernoulli (1654-1705) fue un matemático suizo que realizó importantes contribuciones a la estadística y a otras ramas de las matemática
-
fue la persona que acuñó el término estadística. Achenwall pensaba que la Estadística como ciencia de recopilación y análisis de datos eran una herramienta muy útil y poderosa para los políticos y gobernantes de una nación.
-
El teorema de Bayes es una herramienta matemática usada para calcular la probabilidad de que un evento ocurra dado otro evento. Esto se hace a través del cálculo de la probabilidad de que una cosa ocurra dada la otra cosa, lo cual se conoce como probabilidad condicional.
-
No fue hasta el siglo XIX cuando el término estadística adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el militar británico Sir John Sinclair
-
El coeficiente de correlación de Pearson es una prueba que mide la relación estadística entre dos variables continuas. Si la asociación entre los elementos no es lineal, entonces el coeficiente no se encuentra representado adecuadamente. El coeficiente de correlación puede tomar un rango de valores de +1 a -1.
-
Karl Pearson (1857-1936) fue un matemático y estadístico inglés que fundó la revista Biometrika en 1901 y desarrolló el coeficiente de correlación de Pearson.
Pearson es considerado uno de los padres de la estadística moderna. Sus aportaciones fueron importantes en la antropología, la biométrica, la genética, la teoría estadística y el método científico -
William Sealy Gosset (1876-1937) introdujo la distribución t de Student en 1908. Gosset era un estadístico, químico y cervecero inglés que trabajaba en la fábrica Guinness. La distribución t de Student es una herramienta estadística que se utiliza para comparar las medias de dos grupos y determinar si son significativamente diferentes.
-
Ronald Aylmer Fisher (1890-1962) fue un científico inglés que realizó grandes aportaciones a la estadística, la genética y la biología evolutiva, creó el ANOVA en 1921 para determinar la significación estadística de las diferencias entre medias
-
Shewhart concluyó que mientras cada proceso muestra una variación, algunos procesos muestran variaciones controladas naturales dentro del proceso (causas comunes de variación), mientras otros muestran variaciones descontroladas que no están siempre presentes en el proceso causal.
-
En 1933 se convirtió en el jefe del departamento estadístico tras la partida de Fisher. En Rothamsted trabajó en diseño experimental, realizó contribuciones a la teoría del análisis de la varianza y concibió su algoritmo para los diseños por bloques equilibrados incompletos.Durante la Segunda Guerra Mundial trabajó en la disciplina que más tarde recibiría el nombre de investigación operativa.
-
La regresión no lineal es una técnica estadística que ayuda a describir relaciones no lineales en datos experimentales . Por lo general, se supone que los modelos de regresión no lineal son paramétricos, y el modelo se describe como una ecuación no lineal. Por lo general, se utilizan métodos de aprendizaje automático para la regresión no lineal no paramétrica.
-
Fue reconocido por sus contribuciones al diseño experimental, la robustez, los métodos bayesianos y el análisis de series temporales . Box se desempeñó como presidente de la ASA y del Instituto de Estadística Matemática en períodos consecutivos
-
Pruebas de rango, comparaciones multiples rangos secuenciles y experiemntos factoriales, La prueba de los rangos con signo de Wilcoxon es una prueba no paramétrica para comparar el rango medio de dos muestras relacionadas y determinar si existen diferencias entre ellas. Se utiliza como alternativa a la prueba t de Student cuando no se puede suponer la normalidad de dichas muestra
-
Hotelling (1895-1973) fue un matemático estadounidense que participó en el movimiento de principios del siglo XX para matematizar la economía, influyente estadístico matemático y profesor, uso de pruebas de hipotesis y de confianza La teoría de Hotelling, o regla de Hotelling, postula que los propietarios de recursos no renovables sólo producirán productos básicos si al hacerlo pueden obtener más de lo que podrían obtener de los instrumentos financieros disponibles
-
El diagrama de caja fue creado por Tukey como herramienta en el análisis exploratorio de datos y se utiliza para resumir y comparar distribuciones en función de sus valores extremos, la mediana y los cuartiles, método estandarizado para representar gráficamente una serie de datos numéricos a través de sus cuartiles. De esta manera, se muestran a simple vista la mediana y los cuartiles de los datos, y también pueden representarse sus valores atípicos
-
diseño de experimentos y teoria del nuestreo, trabajos publicos sobre interpretacion de analisis de varianza y coovarianza aplicados a agricultura y biologia.
-
matemático y estadístico polaco que, trabajando en ruso, polaco y luego inglés, ayudó a establecer la teoría estadística de Prueba de hipótesis . Neyman fue uno de los principales fundadores de la teoría moderna. Estadística
-
El proceso de escarbar en los datos para descubrir conexiones ocultas y predecir tendencias futuras tiene una larga historia. A veces denominado "knowledge discovery in databases," el término "data mining" no se acuñó hasta la década de 1990, La minería de datos es el uso del aprendizaje automático y el análisis estadístico para descubrir patrones y otra información valiosa a partir de grandes conjuntos de datos
-
Big data son datos que contienen una mayor variedad y que se presentan en volúmenes crecientes y a una velocidad superior. Esto se conoce como «las tres V»: Volumen, El big data permite a las organizaciones crear perfiles de clientes mediante una combinación de datos de ventas de clientes, datos demográficos del sector y datos relacionados, como la actividad de las redes sociales y la participación en campañas de marketing
-
Los algoritmos de aprendizaje automático, incluidos los de aprendizaje profundo, suelen tener su origen en conceptos estadísticos . Evolucionan adaptando principios estadísticos para abordar problemas complejos y hacer predicciones basadas en datos,
-
Teorema de Bayes en inteligencia artificial. El teorema de Bayes en IA es quizás la base más fundamental de la probabilidad y la estadística, más conocido popularmente como la regla de Bayes o la ley de Bayes. Nos permite revisar nuestras suposiciones o la probabilidad de que ocurra un evento, dada nueva información o evidencia.
-
El machine learning (ML) es una de las muchas otras ramas de la IA. Desarrollo de algoritmos y modelos estadísticos que los sistemas informáticos utilizan para realizar tareas complejas sin instrucciones explícitas. se basa en el desarrollo de algoritmos y modelos estadísticos que permiten a las computadoras identificar patrones en datos masivos. De esta forma, los sistemas pueden generar resultados con mayor precisión a partir de un conjunto de datos de entrada.
-
La estadística surgió en épocas muy remotas, como todas las ciencias, no surgió de improviso sino mediante un proceso largo de desarrollo y evolución, desde hechos de simple recolección de datos hasta la diversidad y rigurosa interpretación de los datos que se dan hoy en día.
-
La estadística es una ciencia que se aplica en muchas áreas de la vida cotidiana y profesional. Se utiliza para describir y predecir fenómenos, y para procesar información. Nos posibilita cuantificar la realidad y disponer de los elementos que nos permitan su análisis. La base de las actuaciones políticas y administrativas es el estudio de los datos estadísticos, porque conocer la realidad nos permite actuar de una forma más coherente (con conocimiento de causa)