Gesetze der großen Zahlen
Übersicht
zuletzt besuchte Definitionen...
zusammenfassende Bezeichnung für Konvergenzaussagen über Folgen von Zufallsvariablen mit großer Bedeutung für die Anwendung in der Statistik. Schwaches und Starkes Gesetz großer Zahlen machen Aussagen über die Konvergenz von arithmetischen Mitteln gegen einen Erwartungswert.
1. Beim Schwachen Gesetz großer Zahlen wird eine Folge stochastisch unabhängiger (stochastische Unabhängigkeit) Zufallsvariablen X1, X2, ... betrachtet, für die EXi = μ (Erwartungswert) und Var Xi ≤ M < ∞ (Varianz) für eine positive Konstante M und für alle natürlichen Zahlen i gelte. Dann konvergiert die Folge der arithmetischen Mittel
stochastisch gegen den Erwartungswert μ; genauer:
für jedes ε > 0.
2. Sind in 1. die Zufallsvariablen speziell Bernoulli-verteilt, d.h. P(Xi=1) = p und P(Xi=0) = 1-p für ein p mit 0<p<1 und für alle natürlichen Zahlen i, dann ist die Zufallsvariable Sn= X1+...+Xn binomialverteilt (Binomialverteilung) mit den Parametern n und p, und es gilt
für jedes ε > 0. Die Aussage wird auch als das Bernoullische Gesetz der großen Zahlen bezeichnet. Als eine zentrale Grundlage der Statistik besagt dieses Gesetz, dass die relativen Häufigkeiten Sn/n gegen den Erwartungswert p beziehungsweise gegen die "wahre Trefferwahrscheinlichkeit" p konvergieren. In diesem Sinne ist das arithmetische Mittel Sn/n also in der schließenden Statistik eine geeignete Schätzfunktion für den unbekannten Parameter p; diese Eigenschaft wird als schwache Konsistenz des Schätzers Sn/n bezeichnet.
3. Eine Version des Starken Gesetzes großer Zahlen besagt, dass die Folge der arithmetischen Mittel aus 1. für stochastisch unabhängige und identisch verteilte Zufallsvariablen X1, X2, ... auch fast sicher gegen den Erwartngswert μ konvergiert.