-
Describe como los atenienses calculaban la altura de la muralla de Platea, contando el número de ladrillos de una sección expuesta de la muralla que estuviera lo suficientemente cerca como para contarlos.
-
Da una descripción detallada sobre el uso de las estadísticas y análisis de frecuencias en el descifrado de mensajes, este fue el nacimiento tanto de la estadística como del criptoanálisis
-
La prueba en sí misma está basada en métodos de muestreo estadístico. Después de acuñar una serie de monedas ―originalmente de 10 libras de plata― una moneda singular era colocada en el Pyx (una caja en la Abadía de Westminster). Después de un tiempo ―ahora una vez al año― las monedas son retiradas y pesadas. Luego, una muestra de monedas retiradas de la caja es probada por pureza.
-
Aplicaba por primera vez la teoría a la discusión de errores en observaciones. La reimpresión (1757) de sus memorias sostiene el axioma que errores positivos y negativos son igualmente probables, y que hay ciertos valores límites dentro de los cuales todos los errores se encuentran; los errores continuos son discutidos y se provee una curva de probabilidad.
-
Parece haber facilitado estos cálculos. Este método fue adoptado por primera vez en astronomía por Tycho Brahe, el que intentaba reducir errores en sus estimados de las localizaciones de varios cuerpos celestiales.
-
En una sección concerniente a la determinación de una localización con un compás. Wright sintió que este valor era el que más probablemente estuviera correcto en una serie de observaciones.
-
Los métodos matemáticos de la estadística surgieron de la teoría de probabilidades, la cual tiene sus raíces en la correspondencia
-
proveyó el primer tratamiento científico sobre el tema que se conozca hasta la fecha
-
Él sabía que había cerca de 13,000 funerales al año en Londres y que de cada once familias tres personas morían por año. Estimó de los registros parroquiales que el tamaño promedio de las familias era 8 y calculó que la población de Londres era de cerca de 384 000. Laplace en 1802 estimó la población de Francia con un método similar.
-
Trataron el tema como una rama de las matemáticas. En su libro, Bernoulli introdujo la idea de representar certeza completa como el número 1 y la probabilidad como un número entre cero y uno.
-
Fue estudiado por Abraham de Moivre, quien trazó esta curva en noviembre 12, 1733. De Moivre estaba estudiando el número de caras que ocurrían cuando una moneda “justa” era lanzada.
-
Pierre-Simon Laplace (1774) hizo su primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de las probabilidades. El representó la ley de a probabilidad de errores mediante una curva y dedujo una fórmula para la media de tres observaciones. Laplace en 1774 notó que la frecuencia de un error podía ser expresada como una función exponencial de su magnitud una vez descartado el signo.
-
Inventó el primer método formal para estimar cantidades desconocidas generalizando el promedio de las observaciones bajo circunstancias idénticas al promedio de los grupos de ecuaciones similares.
-
Se basó en su trabajo sobre la forma de la Tierra propuesto en el libro De litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP. Maire et Boscovicli para proponer que el verdadero valor de una serie de observaciones sería aquel que minimizara la suma de los errores absolutos. En terminología moderna este valor es la media.
-
Laplace obtuvo una fórmula (1781) para la ley de facilidad de un error (un término acuñado por Joseph Louis Lagrange, 1774), pero esta conllevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.
-
Publicó su segunda ley de errores en la cual notó que la frecuencia de un error era proporcional a la función exponencial del cuadrado de su magnitud. Esto fue descubierto subsecuentemente por Gauss (posiblemente en 1797) y es ahora mejor conocida como distribución normal, la cual es de importancia central en la estadística.9Esta distribución fue referida como «normal» por primera vez por Pierce en 1873,
-
Estimó la población en Francia a 28,328,612.11Él calculó este número usando la cantidad de nacimientos del año anterior y el dato del censo de tres comunidades. Los datos de los censos de estas comunidades mostraron que tenían 2,037,615 personas y que el número de nacimientos era de 71,866. Suponiendo que estas muestras eran representativas de Francia, Laplace produjo un estimado para la población entera.
-
El método de los mínimos cuadrados, el cual era usado para minimizar errores en la medición de datos, fue publicado independientemente
-
Gauss había usado el método en s famosa predicción en 1801 de la localización del planeta enano Ceres. Las observaciones en las que Gauss basó sus cálculos fueron hechas por el monje italiano Piazzi. Posteriormente se dieron demostraciones por Laplace (1810, 1812), Gauss (1823), Ivory (1825, 1826), Hagen (1837), Bessel (1838), Donkin (1844, 1856), Herschel (1850), Crofton (1870), y Thiele (1880, 1889).
-
En el siglo 19 los autores de la teoría estadística incluían a included Laplace, S. Lacroix (1816), Littrow (1833), Dedekind (1860), Helmert (1872), Laurant (1873), Liagre, Didion, De Morgan, Boole, Edgeworth, and K. Pearson. y K. Pearson.
-
Otros contribuyentes a la teoría de errores fueron Ellis (1844), De Morgan (1864), Glaisher (1872), y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para el "error probable" de una sola observación fue ampliamente usada e inspiró tempranamente la estadística robusta (resistente a valores atípicos: ver criterio de Peirce).
-
Introdujo el muestreo aleatorio en 1906. Jerzy Neyman en 1934 hizo evidente que el muestreo aleatorio estratificado era en general un mejor método de estimación que el muestreo intencional (por cuota)
-
El nivel de significación del 5 % parece ser introducido por Fisher en 1925.19 Fisher expresó que las desviaciones que excedían dos veces la desviación estándar eran consideradas significativas. Previamente a esto las desviaciones que excedían tres veces el error probable eran consideradas significativas. Para una distribución simétrica el error probable la mitad del rango intercuantil. El cuantil superior de la distribución normal estándar está entre 0.66 y 0.67.