Bestimmtheitsmaß
Übersicht
zuletzt besuchte Definitionen...
Ausführliche Definition im Online-Lexikon
Das Bestimmtheitsmaß R2 bewertet (in der linearen Regression) als Quadrat des (Bravais-Pearson-) Korrelationskoeffizienten die Anpassungsgüte der zu einem Datensatz ermittelten Regressionsgerade und hat einen Wert zwischen Null und Eins, wobei der Wert Eins die Situation beschreibt, dass alle Datenpaare auf einer Geraden liegen und damit perfekte Anpassung vorliegt. Alternativ kann eine Berechnung über R2 = 1 - RSS/TSS erfolgen, wobei RSS die Residuenquadratesumme (Residuen) ist und TSS die Summe der quadrierten Abweichungen der Ausprägungen der erklärten Variable von ihrem Mittelwert darstellt. Ist der Wert des Bestimmtheitsmaßes nahe bei Eins, wird dies als Qualitätsmerkmal eines Regressionsansatzes im Sinne einer guten Anpassung verstanden.
Die Hinzunahme weiterer erklärender Variablen führt i.d.R. zu einer Erhöhung des Bestimmtheitsmaßes, was scheinbar die Modellgüte steigert. Gleichzeitig ist dies aufgrund der erforderlichen Schätzung weiterer Modellparameter mit einem Verlust an Freiheitsgraden verbunden, der zu ungenaueren Schätzungen führt. Um Ansätze mit verschiedenen Anzahlen erklärender Variablen und gleicher erklärter Variable vergleichen zu können, wird daher ein korrigiertes Bestimmtheitsmaß eingesetzt, welches auch die Freiheitsgrade berücksichtigt. Dieses ergibt sich durch Modifikation der Formel des Bestimmtheitsmaßes, indem der Nenner durch die Differenz aus Stichprobenumfang und Anzahl zu schätzender Modellparameter und der Zähler durch den um eins reduzierten Stichprobenumfang dividiert wird.
Es muss vor einer in der Praxis immer wieder verbreiteten Vorgehensweise gewarnt werden, die versucht, das (korrigierte) Bestimmtheitsmaß zu maximieren, da dies i.d.R. zu keiner brauchbaren ökonometrischen Spezifikation führt. Es kann sein, dass das Bestimmtheitsmaß eine gute Beschreibung ausdrückt, obwohl der Erklärungsgehalt des Modells gering ist. Dies ist z.B. der Fall, wenn das zugrundeliegende Modell unpassend ist oder wenn die erklärte Variable und die erklärenden Variablen Realisationen von nicht stationären (Stationarität) stochastischen Prozessen in Form von Random Walks sind (Scheinregression).
Die Hinzunahme weiterer erklärender Variablen führt i.d.R. zu einer Erhöhung des Bestimmtheitsmaßes, was scheinbar die Modellgüte steigert. Gleichzeitig ist dies aufgrund der erforderlichen Schätzung weiterer Modellparameter mit einem Verlust an Freiheitsgraden verbunden, der zu ungenaueren Schätzungen führt. Um Ansätze mit verschiedenen Anzahlen erklärender Variablen und gleicher erklärter Variable vergleichen zu können, wird daher ein korrigiertes Bestimmtheitsmaß eingesetzt, welches auch die Freiheitsgrade berücksichtigt. Dieses ergibt sich durch Modifikation der Formel des Bestimmtheitsmaßes, indem der Nenner durch die Differenz aus Stichprobenumfang und Anzahl zu schätzender Modellparameter und der Zähler durch den um eins reduzierten Stichprobenumfang dividiert wird.
Es muss vor einer in der Praxis immer wieder verbreiteten Vorgehensweise gewarnt werden, die versucht, das (korrigierte) Bestimmtheitsmaß zu maximieren, da dies i.d.R. zu keiner brauchbaren ökonometrischen Spezifikation führt. Es kann sein, dass das Bestimmtheitsmaß eine gute Beschreibung ausdrückt, obwohl der Erklärungsgehalt des Modells gering ist. Dies ist z.B. der Fall, wenn das zugrundeliegende Modell unpassend ist oder wenn die erklärte Variable und die erklärenden Variablen Realisationen von nicht stationären (Stationarität) stochastischen Prozessen in Form von Random Walks sind (Scheinregression).
Zur Zeit keine Literaturhinweise/ Weblinks der Autoren verfügbar.