Direkt zum Inhalt

Wikipedia Version

Dieser Text basiert auf dem Artikel Maximum-Likelihood-Methode aus der freien Enzyklopädie Wikipedia und steht unter der Doppellizenz GNU-Lizenz für freie Dokumentation und Creative Commons CC-BY-SA 3.0 Unported (Kurzfassung (de)). In der Wikipedia ist eine Liste der Autoren verfügbar.
Wikipedia-Version zuletzt aktualisiert am 22.05.19.

Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode, kurz ML-Methode, (von englisch maximale Wahrscheinlichkeit bzw. sinngemäß Methode der größten Plausibilität) oder auch Maximum-Likelihood-Schätzung bezeichnet in der Statistik ein parametrisches Schätzverfahren. Dabei wird – vereinfacht ausgedrückt – derjenige Parameter als Schätzung ausgewählt, gemäß dessen Verteilung die Realisierung der beobachteten Daten am plausibelsten erscheint.

Im Falle einer von einem Parameter ϑ{\displaystyle \vartheta } abhängigen Wahrscheinlichkeitsfunktion

ρ:Ω→[0;1],x↦ρ(x∣ϑ){\displaystyle \rho \colon \Omega \to [0;1],\quad x\mapsto \rho (x\mid \vartheta )}

wird zu einem beobachteten Ausgang x{\displaystyle x} also die folgende Likelihood-Funktion für verschiedene Parameter betrachtet:

L:Θ→[0;1]ϑ↦ρ(x∣ϑ).{\displaystyle L\colon \Theta \to [0;1]\quad \vartheta \mapsto \rho (x\mid \vartheta ).}

Dabei bezeichnet Ω{\displaystyle \Omega } den Ergebnisraum und Θ{\displaystyle \Theta } den Parameterraum (Raum aller möglichen Parameterwerte).

Für einen bestimmten Wert des Parameters ϑ{\displaystyle \vartheta } entspricht die Likelihood-Funktion (Wahrscheinlichkeitsfunktion) der Wahrscheinlichkeit, das Ergebnis x{\displaystyle x} zu beobachten. Als Maximum-Likelihood-Schätzung wird entsprechend dasjenige ϑ{\displaystyle \vartheta } bezeichnet, für das die Likelihood-Funktion maximal wird. Im Falle stetiger Verteilungen gilt eine analoge Definition, nur wird die Wahrscheinlichkeitsfunktion in dieser Situation durch die zugehörige Dichtefunktion ersetzt. Allgemein lassen sich Maximum-Likelihood-Methoden für beliebige statistische Modelle definieren, solange die entsprechende Verteilungsklasse eine dominierte Verteilungsklasse ist.

Motivation

Einfach gesprochen bedeutet die Maximum-Likelihood-Methode Folgendes: Wenn man statistische Untersuchungen durchführt, untersucht man in der Regel eine Stichprobe mit einer bestimmten Anzahl von Objekten einer Grundgesamtheit. Da die Untersuchung der gesamten Grundgesamtheit in den meisten Fällen hinsichtlich der Kosten und des Aufwandes unmöglich ist, sind die wichtigen Kennwerte der Grundgesamtheit unbekannt. Solche Kennwerte sind z. B. der Erwartungswert oder die Standardabweichung. Da man diese Kennwerte jedoch zu den statistischen Rechnungen, die man durchführen möchte, benötigt, muss man die unbekannten Kennwerte der Grundgesamtheit anhand der bekannten Stichprobe schätzen.

Die Maximum-Likelihood-Methode wird nun in Situationen benutzt, in denen die Elemente der Grundgesamtheit als Realisierung eines Zufallsexperiments interpretiert werden können, das von einem unbekannten Parameter abhängt, bis auf diesen aber eindeutig bestimmt und bekannt ist. Entsprechend hängen die interessanten Kennwerte ausschließlich von diesem unbekannten Parameter ab, lassen sich also als Funktion von ihm darstellen. Als Maximum-Likelihood-Schätzer wird nun derjenige Parameter bezeichnet, der die Wahrscheinlichkeit, die Stichprobe zu erhalten, maximiert.

Die Maximum-Likelihood-Methode ist aufgrund ihrer Vorteile gegenüber anderen Schätzverfahren (beispielsweise die Methode der kleinsten Quadrate und die Momentenmethode) das wichtigste Prinzip zur Gewinnung von Schätzfunktionen für die Parameter einer Verteilung.

Eine heuristische Herleitung

Es wird nun folgendes Beispiel betrachtet: Es gibt eine Urne mit einer großen Anzahl von Kugeln, die entweder schwarz oder rot sind. Da die Untersuchung aller Kugeln praktisch unmöglich erscheint, wird eine Stichprobe von zehn Kugeln (etwa mit Zurücklegen) gezogen. In dieser Stichprobe seien nun eine rote und neun schwarze Kugeln. Ausgehend von dieser einen Stichprobe soll nun die wahre Wahrscheinlichkeit, eine rote Kugel in der Gesamtpopulation (Urne) zu ziehen, geschätzt werden.

Drei Likelihood-Funktionen für Parameter p einer Binomialverteilung für verschiedene Anzahlen k von roten Kugeln in einer Stichprobe von n=10 Kugeln

Die Maximum-Likelihood-Methode versucht diese Schätzung nun so zu erstellen, dass das Auftreten unserer Stichprobe damit am wahrscheinlichsten wird. Dazu könnte man „herumprobieren“, bei welchem Schätzer die Wahrscheinlichkeit für unser Stichprobenergebnis maximal wird.

„Probiert“ man beispielsweise 0,2{\displaystyle 0{,}2} als Schätzer für die Wahrscheinlichkeit p{\displaystyle p} einer roten Kugel, so kann man mit Hilfe der Binomialverteilung B(10;0,2;1){\displaystyle B(10;0,2;1)} die Wahrscheinlichkeit des beobachteten Ergebnisses (genau eine rote Kugel) berechnen: das Ergebnis ist 0,2684{\displaystyle 0{,}2684}.

„Probiert“ man es mit 0,1{\displaystyle 0{,}1} als Schätzer für p{\displaystyle p}, berechnet also B(10;0,1;1){\displaystyle B(10;0,1;1)} für die Wahrscheinlichkeit, dass genau eine rote Kugel gezogen wird, ist das Ergebnis 0,3874{\displaystyle 0{,}3874}.

Die Wahrscheinlichkeit, dass das beobachtete Ergebnis (genau eine rote Kugel) in der Stichprobe durch eine Populationswahrscheinlichkeit für rote Kugeln von p=0,1{\displaystyle p=0{,}1} verursacht wurde, ist also größer als bei p=0,2{\displaystyle p=0{,}2}. Damit wäre nach der Maximum-Likelihood-Methode 0,1{\displaystyle 0{,}1} ein besserer Schätzer für den Anteil p{\displaystyle p} roter Kugeln in der Grundgesamtheit. Es erweist sich, dass für p=0,1{\displaystyle p=0{,}1} (siehe rote Linie für k=1{\displaystyle k=1} in der Grafik) die Wahrscheinlichkeit des beobachteten Ergebnisses am größten ist. Deshalb ist 0,1{\displaystyle 0{,}1} die Maximum-Likelihood-Schätzung von p{\displaystyle p}. Man kann zeigen, dass sich allgemein bei k{\displaystyle k} roten Kugeln in der Stichprobe k/10{\displaystyle k/10} als Maximum-Likelihood-Schätzung von p{\displaystyle p} ergibt.

Definition

Bei der Maximum-Likelihood-Methode wird von einer Zufallsvariablen X{\displaystyle X} ausgegangen, deren Dichte- bzw. Wahrscheinlichkeitsfunktion f{\displaystyle f} von einem unbekannten Parameter ϑ{\displaystyle \vartheta } abhängt. Liegt eine einfache Zufallsstichprobe mit n{\displaystyle n} Realisierungen x1,…,xn{\displaystyle x_{1},\dotsc ,x_{n}} von n{\displaystyle n} unabhängig und identisch verteilten Zufallsvariablen X1,…,Xn{\displaystyle X_{1},\dotsc ,X_{n}} vor, so lässt sich die gemeinsame Dichtefunktion bzw. Wahrscheinlichkeitsfunktion wie folgt faktorisieren:

f(x1,x2,…,xn;ϑ)=∏i=1nf(xi;ϑ){\displaystyle f(x_{1},x_{2},\dotsc ,x_{n};\vartheta )=\prod _{i=1}^{n}f(x_{i};\vartheta )}.

Statt nun für einen festen Parameter ϑ{\displaystyle \vartheta } die Dichte für beliebige Werte x1,…,xn{\displaystyle x_{1},\dotsc ,x_{n}} auszuwerten, kann umgekehrt für beobachtete und somit feste Realisierungen x1,…,xn{\displaystyle x_{1},\dotsc ,x_{n}} die gemeinsame Dichte als Funktion von ϑ{\displaystyle \vartheta } interpretiert werden. Dies führt zur Likelihood-Funktion

L(ϑ)=∏i=1nfϑ(xi){\displaystyle L(\vartheta )=\prod _{i=1}^{n}f_{\vartheta }(x_{i})}.

Die Likelihood-Funktion ist algebraisch identisch zur gemeinsamen Dichte f(x1,x2,…,xn;ϑ){\displaystyle f(x_{1},x_{2},\dotsc ,x_{n};\vartheta )}.[1] Wird diese Funktion in Abhängigkeit von ϑ{\displaystyle \vartheta } maximiert[2]

ϑ^ML=arg⁡maxϑ∈ΘL(ϑ){\displaystyle {\hat {\vartheta }}_{\text{ML}}={\underset {\vartheta \in \Theta }{\arg \max }}\,L(\vartheta )},

so erhält man die Maximum-Likelihood-Schätzung für den unbekannten Parameter ϑ{\displaystyle \vartheta }. Es wird also der Wert von ϑ{\displaystyle \vartheta } gesucht, bei dem die Stichprobenwerte x1,…,xn{\displaystyle x_{1},\dotsc ,x_{n}} die größte Dichte- bzw. Wahrscheinlichkeitsfunktion haben. Es ist naheliegend, einen Parameterwert ϑ{\displaystyle \vartheta } als umso plausibler anzusehen je höher die Likelihood. Der Maximum-Likelihood-Schätzer ist in diesem Sinne der plausibelste Parameterwert für die Realisierungen x1,…,xn{\displaystyle x_{1},\dotsc ,x_{n}} der Zufallsvariablen X{\displaystyle X}. Ist L(⋅){\displaystyle L(\cdot )} differenzierbar, so kann das Maximum bestimmt werden, indem man die erste Ableitung nach ϑ{\displaystyle \vartheta } bildet und diese dann Null setzt. Da dieses bei Dichtefunktionen mit komplizierten Exponentenausdrücken sehr aufwändig werden kann, wird häufig die logarithmierte Likelihood-Funktion bzw. logarithmische Likelihood-Funktion (kurz: Log-Likelihood-Funktion) verwendet, da sie auf Grund der Monotonie des Logarithmus ihr Maximum an derselben Stelle wie die nichtlogarithmierte Dichtefunktion besitzt, jedoch einfacher zu berechnen ist:

ℓ(ϑ)=log⁡(∏i=1nfϑ(xi))=∑i=1nlog⁡fϑ(xi)⏟=ℓi(ϑ)=∑i=1nℓi(ϑ){\displaystyle \ell (\vartheta )=\log \left(\prod _{i=1}^{n}f_{\vartheta }(x_{i})\right)=\sum _{i=1}^{n}\underbrace {\log f_{\vartheta }(x_{i})} _{=\ell _{i}(\vartheta )}=\sum _{i=1}^{n}\ell _{i}(\vartheta )},

wobei ℓi(ϑ){\displaystyle \ell _{i}(\vartheta )} die individuellen Beiträge zur Log-Likelihood-Funktion sind.

Beispiele

Diskrete Verteilung, kontinuierlicher Parameterraum

Die Anzahl der Anrufe bei zwei Telefonisten in einer Stunde in einem Call-Center kann mit einer Poisson-Verteilung

X1∼P(λ){\displaystyle X_{1}\sim {\mathcal {P}}(\lambda )\;} und X2∼P(λ){\displaystyle \;X_{2}\sim {\mathcal {P}}(\lambda )}

modelliert werden. Beim ersten Telefonisten gehen drei und beim zweiten fünf Anrufe pro Stunde unabhängig voneinander ein. Die Likelihood-Funktion für den unbekannten Parameter λ{\displaystyle \lambda } ergibt sich als

L(λ)=P({X1=3}∩{X2=5})=P(X1=3)⋅P(X2=5).{\displaystyle L(\lambda )=P(\{X_{1}=3\}\cap \{X_{2}=5\})=P(X_{1}=3)\cdot P(X_{2}=5).}
Likelihood-Funktion im nebenstehenden Beispiel

Setzt man die Werte in die Wahrscheinlichkeitsfunktion

P(X=x)=1x!λxexp⁡(−λ)x=0,1,2,…{\displaystyle P(X=x)={\frac {1}{x!}}\lambda ^{x}\exp(-\lambda )\quad x=0,1,2,\ldots }

ein, so folgt

L(λ)=λ33!exp⁡(−λ)λ55!exp⁡(−λ)=λ83!5!exp⁡(−2λ){\displaystyle L(\lambda )={\frac {\lambda ^{3}}{3!}}\exp(-\lambda )\;{\frac {\lambda ^{5}}{5!}}\exp(-\lambda )={\frac {\lambda ^{8}}{3!5!}}\exp(-2\lambda )}.

Die erste Ableitung der Likelihood-Funktion ergibt sich zu

ddλL(λ)=13!5!(8λ7exp⁡(−2λ)−2λ8exp⁡(−2λ))=2λ7exp⁡(−2λ)3!5!(4−λ)=0{\displaystyle {\frac {\rm {d}}{\rm {d\lambda }}}L(\lambda )={\frac {1}{3!5!}}\left(8\lambda ^{7}\exp(-2\lambda )-2\lambda ^{8}\exp(-2\lambda )\right)={\frac {2\lambda ^{7}\exp(-2\lambda )}{3!5!}}(4-\lambda )=0}

und die Nullstellen zu λ^=0{\displaystyle {\hat {\lambda }}=0\,} und λ^=4{\displaystyle {\hat {\lambda }}=4}. Nur für λ^ML=4{\displaystyle {\hat {\lambda }}_{\text{ML}}=4} hat die Likelihood-Funktion ein Maximum und dies ist der Maximum-Likelihood-Schätzwert.

Im allgemeinen Fall, mit n{\displaystyle n} Telefonisten, die jeweils xi{\displaystyle x_{i}} Anrufe pro Stunde erhalten, ergibt sich die Likelihood-Funktion als

L(λ)=1∏i=1nxi!λ∑i=1nxiexp⁡(−nλ){\displaystyle L(\lambda )={\frac {1}{\prod _{i=1}^{n}x_{i}!}}\lambda ^{\sum _{i=1}^{n}x_{i}}\exp(-n\lambda )}

und die Log-Likelihood-Funktion als

ℓ(λ)=log⁡(L(λ))=∑i=1nxilog⁡(λ)−log⁡(∏i=1nxi!)−nλ.{\displaystyle \ell (\lambda )=\log(L(\lambda ))=\sum _{i=1}^{n}x_{i}\log(\lambda )-\log \left(\prod _{i=1}^{n}x_{i}!\right)-n\lambda .}

Die Ableitung nach λ{\displaystyle \lambda } ergibt

ddλℓ(λ)=∑i=1nxiλ−n=!0{\displaystyle {\frac {\rm {d}}{\rm {d\lambda }}}\ell (\lambda )={\frac {\sum _{i=1}^{n}x_{i}}{\lambda }}-n\;{\overset {\mathrm {!} }{=}}\;0}

und nach Umformen ergibt sich der Maximum-Likelihood-Schätzer als

λ^ML=1n∑i=1nxi=x¯{\displaystyle {\hat {\lambda }}_{\text{ML}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}={\overline {x}}}

und die zugehörige Schätzfunktion als

Λ=1n∑i=1nXi=X¯.{\displaystyle \Lambda ={\frac {1}{n}}\sum _{i=1}^{n}X_{i}={\overline {X}}.}

Diskrete Verteilung, endlicher Parameterraum

Eine Urne enthält N=8{\displaystyle N=8} Kugeln, die entweder rot oder schwarz sind. Die genaue Anzahl M∈{0,1,…,8}{\displaystyle M\in \{0,1,\dotsc ,8\}} der roten Kugeln ist nicht bekannt. Nacheinander werden n=4{\displaystyle n=4} Kugeln gezogen und jeweils wieder zurück in die Urne gelegt. Beobachtet werden x1=1{\displaystyle x_{1}=1} (erste Kugel ist rot), x2=1{\displaystyle x_{2}=1} (zweite Kugel ist rot), x3=0{\displaystyle x_{3}=0} (dritte Kugel ist schwarz) und x4=1{\displaystyle x_{4}=1} (vierte Kugel ist rot).

Gesucht ist nun die nach dem Maximum-Likelihood-Prinzip plausibelste Zusammensetzung der Kugeln in der Urne.

In jedem Zug ist die Wahrscheinlichkeit, eine rote Kugel zu ziehen, gleich MN{\displaystyle {\frac {M}{N}}}. Wegen der Unabhängigkeit der Ziehungen ist die Wahrscheinlichkeit des beobachteten Ergebnisses und damit die zugehörige Likelihood-Funktion in Abhängigkeit vom unbekannten Parameter M{\displaystyle M} gegeben durch

L(M)=(MN)3(1−MN)=1N4M3(N−M)=184M3(8−M).{\displaystyle L(M)=\left({\frac {M}{N}}\right)^{3}\left(1-{\frac {M}{N}}\right)={\frac {1}{N^{4}}}M^{3}(N-M)={\frac {1}{8^{4}}}M^{3}(8-M).}

Es ergeben sich folgende Funktionswerte:

M{\displaystyle M} 0{\displaystyle 0} 1{\displaystyle 1} 2{\displaystyle 2} 3{\displaystyle 3} 4{\displaystyle 4} 5{\displaystyle 5} 6{\displaystyle 6} 7{\displaystyle 7} 8{\displaystyle 8}
L(M){\displaystyle L(M)} 0 0,002 0,012 0,033 0,063 0,092 0,105 0,084 0

Daraus ergibt sich dass die Likelihood-Funktion L(M){\displaystyle L(M)} maximal ist für M=6{\displaystyle M=6}. Damit ist M=6{\displaystyle M=6} der plausibelste Parameterwert für die Realisierung drei roter Kugeln bei vier Ziehungen und somit der Schätzwert nach der Maximum-Likelihood-Methode.

Stetige Verteilung, kontinuierlicher Parameterraum

Seien x1:n{\displaystyle x_{1:n}} Realisierungen einer Zufallsstichprobe X1:n{\displaystyle X_{1:n}} einer Normalverteilung N(μ,σ2){\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} mit unbekanntem Erwartungswert μ∈(−∞,∞){\displaystyle \mu \in (-\infty ,\infty )} und unbekannter Varianz σ2>0{\displaystyle \sigma ^{2}>0}. Die Dichtefunktion für jede einzelne Realisierung ist dann gegeben durch

f(xi∣μ,σ2)=12πσ2exp⁡(−12σ2(xi−μ)2){\displaystyle f\left(x_{i}\mid \mu ,\sigma ^{2}\right)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp {\left(-{\frac {1}{2\sigma ^{2}}}(x_{i}-\mu )^{2}\right)}}.

Dann ist

L(ϑ)=∏i=1nfϑ(xi)=∏i=1n12πσ2exp⁡(−12σ2(xi−μ)2)=1(2πσ2)n/2exp⁡(−12σ2∑i=1n(xi−μ)2){\displaystyle L(\vartheta )=\prod _{i=1}^{n}f_{\vartheta }\left(x_{i}\right)=\prod _{i=1}^{n}{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp {\left(-{\frac {1}{2\sigma ^{2}}}(x_{i}-\mu )^{2}\right)}={\frac {1}{\left(2\pi \sigma ^{2}\right)^{n/2}}}\exp \left(-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\right)}.

die Likelihood-Funktion von ϑ=(μ,σ2)∈Θ=(−∞,∞)×(0,∞){\displaystyle \vartheta =(\mu ,\sigma ^{2})\in \Theta =(-\infty ,\infty )\times (0,\infty )}. Als Log-Likelihood-Funktion (auch logarithmische Plausibilitätsfunktion genannt) ergibt sich

ℓ(ϑ)=log⁡L(ϑ)=−n2log⁡(2πσ2)−12σ2∑i=1n(xi−μ)2{\displaystyle \ell (\vartheta )=\log L(\vartheta )=-{\frac {n}{2}}\log \left(2\pi \sigma ^{2}\right)-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}}.

Bildet man die partiellen Ableitungen von ℓ(ϑ){\displaystyle \ell (\vartheta )} nach μ{\displaystyle \mu } und σ2{\displaystyle \sigma ^{2}} (bildet man also die Score-Funktionen) und setzt man beide Ausdrücke gleich null, dann erhält man die beiden Likelihood-Gleichungen

∂∂μℓ(ϑ)=−1σ2∑i=1n(xi−μ)⋅(−1)=!0{\displaystyle {\frac {\partial }{\partial \mu }}\ell (\vartheta )=-{\frac {1}{\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )\cdot (-1)\;{\overset {\mathrm {!} }{=}}\;0}

und

∂∂σ2ℓ(ϑ)=−n2σ2+12(σ2)2∑i=1n(xi−μ)2=!0{\displaystyle {\frac {\partial }{\partial \sigma ^{2}}}\ell (\vartheta )=-{\frac {n}{2\sigma ^{2}}}+{\frac {1}{2(\sigma ^{2})^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\;{\overset {\mathrm {!} }{=}}\;0}.

Löst man nun nach μ^{\displaystyle {\hat {\mu }}} und σ^2{\displaystyle {\hat {\sigma }}^{2}} dann erhält man die beiden Maximum-Likelihood-Schätzungen

μ^=1n∑i=1nxi=x¯{\displaystyle {\hat {\mu }}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}={\overline {x}}}

und

σ^2=1n∑i=1n(xi−μ)2{\displaystyle {\hat {\sigma }}^{2}={\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}}.

Geht man von den Zufallsvariablen X1,…,Xn{\displaystyle X_{1},\ldots ,X_{n}} und nicht von ihren Realisierungen x1,…,xn{\displaystyle x_{1},\ldots ,x_{n}} aus, erhält man den Stichprobenmittelwert

μ^ML=X¯=1n∑i=1nXi{\displaystyle {\hat {\mu }}_{\text{ML}}={\overline {X}}={\frac {1}{n}}\sum \limits _{i=1}^{n}X_{i}}

und die Stichprobenvarianz

σ^ML2=S~2=1n∑i=1n(Xi−X¯)2{\displaystyle {\hat {\sigma }}_{\text{ML}}^{2}={\tilde {S}}^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}

als Maximum-Likelihood-Schätzer.

Tatsächlich hat die Funktion L(ϑ){\displaystyle L(\vartheta )} an dieser Stelle ihr Maximum (siehe Schätzung der Varianz der Grundgesamtheit).

Für den Erwartungswert von μ^ML{\displaystyle {\hat {\mu }}_{\text{ML}}} ergibt sich

E⁡(μ^ML)=μ{\displaystyle \operatorname {E} ({\hat {\mu }}_{\text{ML}})=\mu },

das heißt, der Maximum-Likelihood-Schätzer μ^ML{\displaystyle {\hat {\mu }}_{\text{ML}}} ist erwartungstreu für den unbekannten Parameter μ{\displaystyle \mu }.

Man kann zeigen, dass für den Erwartungswert von σ^ML2{\displaystyle {\hat {\sigma }}_{\text{ML}}^{2}}

E⁡(σ^ML2)=n−1nσ2{\displaystyle \operatorname {E} ({\hat {\sigma }}_{\text{ML}}^{2})={\frac {n-1}{n}}\sigma ^{2}}

gilt (siehe unbekannter Erwartungswert). Der Maximum-Likelihood-Schätzer σ^ML2{\displaystyle {\hat {\sigma }}_{\text{ML}}^{2}} für die unbekannte skalare Störgrößenvarianz σ2{\displaystyle \sigma ^{2}} ist also nicht erwartungstreu. Allerdings kann man zeigen, dass der Maximum-Likelihood-Schätzer σ^ML2{\displaystyle {\hat {\sigma }}_{\text{ML}}^{2}} asymptotisch erwartungstreu für σ2{\displaystyle \sigma ^{2}} ist.

Historische Entwicklung

Die Maximum-Likelihood-Methode geht auf Ronald Aylmer Fisher zurück, der sie zunächst in relativer Unkenntnis von Vorarbeiten durch Gauß in Arbeiten von 1912, 1921 und schließlich 1922 unter dem später bekannten Namen entwickelte. Die Hauptergebnisse wurden auch bereits 1908 von Francis Ysidro Edgeworth hergeleitet.[3][4]

Maximum-Likelihood-Schätzung

Als Maximum-Likelihood-Schätzung, kurz MLS bezeichnet man in der Statistik eine Parameterschätzung, die nach der Maximum-Likelihood-Methode berechnet wurde. In der englischen Fachliteratur ist die Abkürzung MLE (für maximum likelihood estimation oder maximum likelihood estimator) dafür sehr verbreitet. Eine Schätzung, bei der Vorwissen in Form einer A-priori-Wahrscheinlichkeit einfließt, wird Maximum-A-posteriori-Schätzung (kurz MAP) genannt.

Eigenschaften von Maximum-Likelihood-Schätzern

Die besondere Qualität von Maximum-Likelihood-Schätzern äußert sich darin, dass sie in der Regel die effizienteste Methode zur Schätzung bestimmter Parameter darstellt.

Existenz

Unter bestimmten Regularitätsbedingungen lässt sich beweisen, dass Maximum-Likelihood-Schätzer existieren, was aufgrund ihrer impliziten Definition als eindeutiger Maximalstelle einer nicht näher bestimmten Wahrscheinlichkeitsfunktion nicht offensichtlich ist. Die für diesen Beweis benötigten Voraussetzungen bestehen im Prinzip ausschließlich aus Annahmen zur Vertauschbarkeit von Integration und Differentiation, was in den meisten betrachteten Modellen erfüllt ist.

Asymptotische Normalität

Wenn Maximum-Likelihood-Schätzer existieren, dann sind sie asymptotisch normalverteilt. Formal gesprochen sei ϑ^ML{\displaystyle {\hat {\vartheta }}_{\text{ML}}} der Maximum-Likelihood-Schätzer für einen Parameter ϑ{\displaystyle \vartheta } und I∗(ϑ)=E⁡(I(ϑ)){\displaystyle I^{*}(\vartheta )=\operatorname {E} (I(\vartheta ))} erwartete Fisher-Information. Dann gilt

I∗(ϑ)(ϑ^ML−ϑ)∼aN(0,1){\displaystyle {\sqrt {I^{*}(\vartheta )}}({\hat {\vartheta }}_{\text{ML}}-\vartheta )\;{\stackrel {a}{\sim }}\;{\mathcal {N}}(0,1)}

bzw.

ϑ^ML∼aN(ϑ,(I∗(ϑ))−1){\displaystyle {\hat {\vartheta }}_{\text{ML}}\;{\stackrel {a}{\sim }}\;{\mathcal {N}}(\vartheta ,(I^{*}(\vartheta ))^{-1})}.

Allgemeine Tests

Arbeitsweise der drei Tests im Rahmen der Maximum-Likelihood-Methode.

Die Konvergenz der Maximum-Likelihood-Schätzfunktion ϑ^ML{\displaystyle {\hat {\vartheta }}_{\text{ML}}} gegen eine Normalverteilung erlaubt die Ableitung allgemeiner Tests zur Prüfung von Modellen und Koeffizienten:

Die Grafik rechts zeigt die Arbeitsweise der Tests auf: Der Likelihood-Quotienten-Test vergleicht die Werte der Likelihood-Funktionen miteinander, der Wald-Test prüft den Abstand zwischen dem geschätzten Parameter und dem vorgegebenen Parameter und der Score-Test, ob die Ableitung der Likelihood-Funktion Null ist.

Da diese Tests nur asymptotisch gültig sind, gibt es für „kleine“ Stichprobenumfänge oft Tests mit besseren Optimalitätseigenschaften.

Likelihood-Quotienten-Test

Im Likelihood-Quotienten-Test wird geprüft, ob sich zwei hierarchisch geschachtelte Modelle (englisch nested models) signifikant voneinander unterscheiden. Ist ϑ{\displaystyle \vartheta } ein Parametervektor, sind Θ0⊂Θ1{\displaystyle \Theta _{0}\subset \Theta _{1}} zwei Parameterräume (Θ0{\displaystyle \Theta _{0}} reduziertes Modell, Θ1{\displaystyle \Theta _{1}} volles Modell) sowie L(ϑ){\displaystyle L(\vartheta )} die Likelihood-Funktion, dann gilt unter der Nullhypothese (H0:ϑ∈Θ0{\displaystyle H_{0}\colon \vartheta \in \Theta _{0}} vs. H1:ϑ∈Θ1{\displaystyle H_{1}\colon \vartheta \in \Theta _{1}})

LR=−2log⁡(maxΘ0L(ϑ)maxΘ1L(ϑ))∼aχ2(dim⁡(Θ1)−dim⁡(Θ0)){\displaystyle LR=-2\log \left({\frac {\max _{\Theta _{0}}L(\vartheta )}{\max _{\Theta _{1}}L(\vartheta )}}\right)\;{\stackrel {a}{\sim }}\;\chi ^{2}(\dim(\Theta _{1})-\dim(\Theta _{0}))}.

Eine Ablehnung der Nullhypothese bedeutet, dass das „volle Modell“ (das Modell unter der Alternativhypothese) eine signifikant bessere Erklärung liefert als das „reduzierte Modell“ (das Modell unter der Nullhypothese bzw. Nullmodell) .

Wald-Test

Während der Likelihood-Quotienten-Test Modelle vergleicht, zielt der Wald-Test auf einzelne Koeffizienten (univariat) oder Koeffizientengruppen (multivariat). Asymptotisch und unter der Nullhypothese H0{\displaystyle H_{0}} folgt

W=I(ϑ^ML)(ϑ^ML−ϑ0)∼a,H0N(0,1){\displaystyle W={\sqrt {I({\hat {\vartheta }}_{\text{ML}})}}({\hat {\vartheta }}_{\text{ML}}-\vartheta _{0})\;{\stackrel {a,H_{0}}{\sim }}\;{\mathcal {N}}(0,1)}.

D.h. die Wald-Teststatistik ist unter o. g. Voraussetzungen standardnormalverteilt. Hierbei bezeichnet I(⋅){\displaystyle I(\cdot )} die Fisher-Information.

Akaike-Informationskriterium

Die Maximum-Likelihood-Methode ist auch eng mit dem Akaike-Informationskriterium (AIC) verknüpft. Hirotsugu Akaike zeigte, dass das Maximum der Likelihood-Funktion ein verzerrter Schätzer für die Kullback-Leibler-Divergenz, der Abstand zwischen dem wahren Modell und dem Maximum-Likelihood-Modell, ist. Je größer der Wert der Likelihood-Funktion ist, desto näher liegt das Modell am wahren Modell, gewählt wird das Modell, das den geringsten AIC-Wert aufweist. Die asymptotische erwartungstreue ist gerade die Anzahl der zu schätzenden Parameter. Mit dem Akaike-Informationskriterium kann man, im Gegensatz zum Likelihood-Quotienten-, Wald- und Score-Test, auch nichtgeschachtelte ML-Modelle vergleichen.

Nachteile der Methode

Die wünschenswerten Eigenschaften des Maximum-Likelihood-Ansatzes beruhen auf der entscheidenden Annahme über den datenerzeugenden Prozess, das heißt auf der unterstellten Dichtefunktion der untersuchten Zufallsvariable. Der Nachteil der Maximum-Likelihood-Methode besteht darin, dass eine konkrete Annahme über die gesamte Verteilung der Zufallsvariable getroffen werden muss. Wenn diese jedoch verletzt ist, kann es sein, dass die Maximum-Likelihood-Schätzer inkonsistent sind.

Nur in einigen Fällen ist es unerheblich, ob die Zufallsvariable tatsächlich der unterstellten Verteilung gehorcht, allerdings gilt dies nicht im Allgemeinen. Per Maximum-Likelihood gewonnene Schätzer, die konsistent sind, auch wenn die zu Grunde gelegte Verteilungsannahme verletzt wird, sind sogenannte Pseudo-Maximum-Likelihood-Schätzer.

Maximum-Likelihood-Schätzer können Effizienzprobleme und systematische Fehler in kleinen Stichproben aufweisen.

Sind die Daten nicht zufällig, kann man mit anderen Methoden oft bessere Parameter ermitteln. Das kann beispielsweise bei Quasi-Monte-Carlo-Analysen eine Rolle spielen, oder wenn die Daten bereits gemittelt sind.

Anwendungsbeispiel: Maximum-Likelihood in der molekularen Phylogenie

Das Maximum-Likelihood-Kriterium gilt als eine der Standardmethoden zur Berechnung von phylogenetischen Bäumen, um Verwandtschaftsbeziehungen zwischen Organismen – meist anhand von DNA- oder Proteinsequenzen – zu erforschen. Als explizite Methode ermöglicht Maximum-Likelihood die Anwendung verschiedener Evolutionsmodelle, die in Form von Substitutionsmatrizen in die Stammbaumberechnungen einfließen. Entweder werden empirische Modelle verwendet (Proteinsequenzen) oder die Wahrscheinlichkeiten für Punktmutationen zwischen den verschiedenen Nukleotiden werden anhand des Datensatzes geschätzt und hinsichtlich des Likelihood-Wertes (−ln⁡L{\displaystyle -\ln L}) optimiert (DNA-Sequenzen). Allgemein gilt ML als die zuverlässigste und am wenigsten Artefakt-anfällige Methode unter den phylogenetischen Baumkonstruktionsmethoden. Dies erfordert jedoch ein sorgfältiges Taxon-„Sampling“ und meist ein komplexes Evolutionsmodell.

Literatur

  • Schwarze, Jochen: Grundlagen der Statistik – Band 2: Wahrscheinlichkeitsrechnung und induktive Statistik, 6. Auflage, Berlin; Herne: Verlag Neue Wirtschaftsbriefe, 1997
  • Blobel, Volker und Lohrmann, Erich: Statistische und numerische Methoden der Datenanalyse. Teubner Studienbücher, Stuttgart; Leipzig 1998, ISBN 978-3-519-03243-4.

Einzelnachweise

  1. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 64.
  2. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 14.
  3. R. A. Fisher: An absolute criterion for fitting frequency curves. In: Messenger of Math. Nr. 41, S. 155, 1912. (online)
  4. John Aldrich: R. A. Fisher and the Making of Maximum Likelihood 1912–1922. In: Statistical Science. Band 12, Nr. 3, S. 162–176, 1997. projecteuclid.org

zuletzt besuchte Definitionen...

    GEPRÜFTES WISSEN
    Über 200 Experten aus Wissenschaft und Praxis.
    Mehr als 25.000 Stichwörter kostenlos Online.
    Das Original: Gabler Wirtschaftslexikon

    zuletzt besuchte Definitionen...

      Literaturhinweise SpringerProfessional.de

      Bücher auf springer.com