Punktschätzung
Punktschätzung in der Statistik der Prozess des Ermittelns eines ungefähren Werts eines Parameters – wie beispielsweise des Mittelwerts (Durchschnittswerts) – einer Population aus Zufallsstichproben der Population. Die Genauigkeit einer bestimmten Näherung ist nicht genau bekannt, obwohl probabilistische Aussagen über die Genauigkeit solcher Zahlen, wie sie in vielen Experimenten gefunden wurden, konstruiert werden können. Für ein kontrastierendes Schätzverfahren siehe Intervallschätzung.
Es ist wünschenswert, dass eine Punktschätzung: (1) konsistent ist. Je größer die Stichprobe ist, desto genauer ist die Schätzung. (2) Unvoreingenommen. Die Erwartung der beobachteten Werte vieler Stichproben („durchschnittlicher Beobachtungswert“) entspricht dem entsprechenden Populationsparameter. Beispielsweise ist der Stichprobenmittelwert ein unverzerrter Schätzer für den Populationsmittelwert. (3) Am effizientesten oder am besten unverzerrt – von allen konsistenten, unvoreingenommene Schätzungen, wobei diejenige die geringste Varianz aufweist (ein Maß für die Streuung von der Schätzung weg). Mit anderen Worten, der Schätzer, der von Stichprobe zu Stichprobe am wenigsten variiert. Dies hängt im Allgemeinen von der jeweiligen Verteilung der Population ab. Zum Beispiel Der Mittelwert ist effizienter als der Median (Mittelwert) für die Normalverteilung, jedoch nicht für „verzerrte“ (asymmetrische) Verteilungen.
Zur Berechnung des Schätzers werden verschiedene Methoden verwendet. Die am häufigsten verwendete Maximum-Likelihood-Methode verwendet die Differentialrechnung, um das Maximum der Wahrscheinlichkeitsfunktion einer Reihe von Stichprobenparametern zu bestimmen. Die Momentenmethode setzt Werte von Stichprobenmomenten (Funktionen, die den Parameter beschreiben) mit Populationsmomenten gleich. Die Lösung der Gleichung ergibt die gewünschte Schätzung. Die Bayessche Methode, benannt nach dem englischen Theologen und Mathematiker Thomas Bayes aus dem 18. Jahrhundert, unterscheidet sich von den traditionellen Methoden durch die Einführung einer Frequenzfunktion für den zu schätzenden Parameter. Der Nachteil der Bayesschen Methode besteht darin, dass normalerweise keine ausreichenden Informationen zur Verteilung des Parameters verfügbar sind. Ein Vorteil besteht darin, dass die Schätzung leicht angepasst werden kann, sobald zusätzliche Informationen verfügbar werden. Siehe den Satz von Bayes.