Estimación puntual
Estimación puntual, en estadística, el proceso de encontrar un valor aproximado de algún parámetro, como la media (promedio), de una población a partir de muestras aleatorias de la población. La exactitud de cualquier aproximación en particular no se conoce con precisión, aunque se pueden construir enunciados probabilísticos sobre la exactitud de los números que se encuentran en muchos experimentos. Para un método de estimación contrastante, consulte estimación de intervalo.
Es deseable que una estimación puntual sea: (1) Consistente. Cuanto mayor sea el tamaño de la muestra, más precisa será la estimación. (2) imparcial. La expectativa de los valores observados de muchas muestras («valor de observación promedio») es igual al parámetro de población correspondiente. Por ejemplo, la media de la muestra es un estimador insesgado para la media poblacional. (3) El más eficiente o el mejor insesgado, de todos los consistentes, estimaciones insesgadas, la que posee la varianza más pequeña (una medida de la cantidad de dispersión fuera de la estimación). En otras palabras, el estimador que varía menos de una muestra a otra. Esto generalmente depende de la distribución particular de la población. Por ejemplo , la media es más eficiente que la mediana (valor medio) para la distribución normal, pero no para distribuciones más «sesgadas» (asimétricas).
Se utilizan varios métodos para calcular el estimador. El más utilizado, el método de máxima verosimilitud, utiliza el cálculo diferencial para determinar el máximo de la función de probabilidad de varios parámetros de muestra. El método de momentos equipara valores de momentos muestrales (funciones que describen el parámetro) con momentos poblacionales. La solución de la ecuación da la estimación deseada. El método bayesiano, llamado así por el teólogo y matemático inglés del siglo XVIII Thomas Bayes, se diferencia de los métodos tradicionales al introducir una función de frecuencia para el parámetro que se estima. El inconveniente del método bayesiano es que normalmente no se dispone de información suficiente sobre la distribución del parámetro. Una ventaja es que la estimación se puede ajustar fácilmente a medida que se dispone de información adicional. Consulte el teorema de Bayes.