Zitierfähige Version
- Revision von Ökonometrie vom 19.02.2018 - 16:03
- Revision von Ökonometrie vom 14.02.2018 - 16:51
- Revision von Ökonometrie vom 07.12.2017 - 12:20
- Revision von Ökonometrie vom 11.06.2013 - 10:31
- Revision von Ökonometrie vom 27.02.2013 - 13:53
- Revision von Ökonometrie vom 09.07.2010 - 12:32
- Revision von Ökonometrie vom 23.07.2009 - 11:13
Ökonometrie
Geprüftes Wissen
GEPRÜFTES WISSEN
Über 200 Experten aus Wissenschaft und Praxis.
Mehr als 25.000 Stichwörter kostenlos Online.
Das Original: Gabler Wirtschaftslexikon
zuletzt besuchte Definitionen...
Inhaltsverzeichnis
- Aufgaben der Ökonometrie
- Kerngebiete der Ökonometrie
- Lineare Regression
- Annahmenverletzungen im linearen Regressionsmodell
- Abschließende Hinweise
Aufgaben der Ökonometrie
Die zentrale Aufgabe der Ökonometrie ist die Ableitung ökonometrischer Modelle aus ökonomischen Theorien und deren numerische Konkretisierung. Da mit ökonometrischen Analysen unterschiedliche Detailziele verfolgt werden können, ist eine Betrachtung selbiger eine weitere Möglichkeit, um das Aufgabengebiet der Ökonometrie zu beschreiben:
- Die Ökonometrie dient erstens dazu, wirtschaftswissenschaftliche Zusammenhänge zu quantifizieren. Dies geschieht durch Rückgriff auf empirische Daten und Schätzung konkreter Werte für ursprünglich nur abstrakte Parameter in Modellgleichungen, die die Beziehung zwischen ökonomischen Größen beschreiben. So kann z.B. für ein Modell zur Investitionsnachfrage im Detail angegeben werden, wie stark sich diese verändert, wenn der langfristige Zinssatz um einen Prozentpunkt steigt.
- Zweitens bietet die Ökonometrie Möglichkeiten zum empirischen Testen von Hypothesen und Modellen. Bevor nämlich für ein Modell ausgesagt werden kann, dass es die Realität annähernd beschreibt und es damit zur Analyse ökonomischer Sachverhalte verwendet werden kann, gilt es nach dessen Schätzung seine empirische Gültigkeit zu überprüfen. Die Ökonometrie bietet auch Testverfahren, die es erlauben, zwischen konkurrierenden Hypothesen zu diskriminieren.
- Ist die empirische Gültigkeit des Modells durch entsprechende Tests untermauert, besteht das dritte Ziel der ökonometrischen Analyse in der Abgabe von Prognosen oder in der Simulation von Änderungen, die z.B. aus wirtschaftspolitischen Eingriffen resultieren. Aus historischem Datenmaterial geschätzte Modelle werden von Ökonomen z.B. benutzt, um Prognosen für das künftige BIP-Wachstum oder die Inflationsrate abzugeben. Die Genauigkeit solcher Prognosen ist natürlich davon abhängig, ob die vergangene Entwicklung solcher Variablen wirklich Informationen über ihre zukünftige Entwicklung liefern kann.
Aus diesen Zielen ist ersichtlich, dass sich eine ökonometrische Analyse immer auf ökonomische Theorien stützen muss. Teilweise werden dabei Anforderungen an die Theorie gestellt, die man als Ökonom nicht immer gewohnt ist, bspw. die Angabe konkreter funktionaler Formen (z. B. lineare oder quadratische Funktionen) für theoretische Zusammenhänge. Des Weiteren benötigt man geeignete Daten, um die Modellvariablen mit empirisch beobachtbaren Daten beschreiben zu können. Bei manchen Fragestellungen ist eine empirische Operationalisierung der im theoretischen Modell enthaltenen Variablen nur schwer möglich (z.B. Risikobereitschaft, Intelligenz, Vertrauenswürdigkeit, Motivation).
Kerngebiete der Ökonometrie
Während in den letzten 30 Jahren v.a. die Kointegrations- und Zeitreihenanalyse, die verallgemeinerte Momentenmethode, die Bayessche Ökonometrie, Methoden zur Ausnutzung von Quasi-Experimenten sowie Mikro- und Paneldatenmodelle innerhalb der Wirtschaftswissenschaften zunehmend an Bedeutung gewonnen haben, ist die klassische Regressionsanalyse der älteste Verfahrenskomplex in der Ökonometrie und der Ausgangspunkt der genannten moderneren Methoden und Modelle. Sie ist ein statistisches Verfahren, welches versucht, die Veränderung einer sog. erklärten Variablen über die Veränderungen einer Reihe sog. erklärender Variablen durch Quantifizierung einer einzelnen Gleichung zu erklären. Eng verwandt, jedoch konzeptionell von der Regressionsanalyse sehr verschieden, ist die Korrelationsanalyse. Ihr Primärziel ist die Messung der Stärke und Richtung eines linearen Zusammenhangs zwischen Variablen (z.B. Mathematik- und Statistiknoten). Zudem werden bei der Korrelationsanalyse die zwei betrachteten Variablen symmetrisch behandelt, d.h. es wird nicht zwischen erklärten und erklärenden Variablen unterschieden.
Eine Regression kann feststellen, ob eine quantitative Beziehung zwischen den erklärenden Variablen und der erklärten Variable besteht. Ein Regressionsergebnis allein kann aber trotz statistischer Signifikanz keine Kausalität beweisen, da eine statistische Beziehung niemals Kausalität impliziert. Um Kausalität zu begründen, benötigt man zusätzlich Theorien und a-priori-Wissen außerhalb der Statistik. Trotzdem dienen die Regressionsanalyse und andere Verfahren der Ökonometrie im Gegensatz zur Korrelationsanalyse dazu, Kausalitäten zu erforschen. Damit die empirische Regressionsanalyse dazu in der Lage ist, müssen aber strenge Annahmen (siehe unten) erfüllt sein. Diese Annahmen können in ihrer Gesamtheit schließlich und endlich nur mithilfe von ökonomischen Theorien und a-priori-Wissen außerhalb der Statistik überprüft werden. Denn die statistischen Verfahren zur Überprüfung der Annahmen basieren wiederum auf gewissen Annahmen, die mithilfe ökonomischer Theorien begründet werden. Deshalb benötigt man a-priori-Wissen außerhalb der Statistik, um Kausalitäten zu begründen.
Lineare Regression
Im einfachsten Fall beschreibt ein Regressionsmodell Y = β0 + β1X1 + … + βkXk + ε eine endogene Variable Y durch eine lineare Beziehung zu einer oder mehreren anderen Variablen X1, …, Xk. Da es in der Praxis keine exakte Beziehung zwischen empirisch beobachteten Größen geben wird, erfasst darin ein Störterm e zusätzlich alle Faktoren, die neben X1, …, Xk einen Einfluss auf Y haben und nicht unmittelbar erfassbar sind. Von besonderer praktischer Bedeutung ist die Erlangung von Schätzungen für die Modellparameter β0, …, βk, da auf ihrer Basis Prognosen für die Ausprägung von Y bei vorliegenden Ausprägungen von X1, …, Xk möglich sind, sofern sich das Modell als empirisch tauglich herausgestellt hat. Das Standardverfahren zur Schätzung der Parameter in linearen Regressionsmodellen ist die OLS-Schätzung (engl. Ordinary Least Squares). Um sie problemlos anwenden zu können, sind jedoch vom Regressionsmodell eine Reihe von Annahmen zu erfüllen. Erstens muss das Regressionsmodell parameterlineare Gestalt besitzen und nicht alle vorliegenden Beobachtungen einer X-Variable dürfen gleich sein, da andernfalls keine Schätzung mit OLS möglich ist. Zweitens muss der bedingte Erwartungswert des Störterms gleich null sein, d.h. E(ε | X1, …, Xk) = 0, was eine Kovarianz zwischen den X-Variablen und ε von null impliziert, d.h. Cov(ε, X1) = 0, …, Cov(ε, Xk) = 0. Diese Annahme der Exogenität von X1, …, Xk ist essentiell, da nur in diesem Fall ceteris-paribus-Aussagen wie "Eine Veränderung von X1 um eine Einheit führt zu einer Veränderung von Y um β1 Einheiten." möglich sind. Eine Verletzung dieser Annahme (z.B. durch Messfehler bei der erklärenden Variablen oder Vernachlässigung zentraler Modellvariablen) führt zu verzerrten und inkonsistenten Parameterschätzungen. Drittens müssen auch die bedingte Varianz des Störterms konstant und die bedingten Störtermkovarianzen gleich null sein. Ist diese sog. Störtermhomoskedastizität und -unkorreliertheit nicht gegeben, werden die Standardfehler der Parameterschätzer verzerrt geschätzt und die zum Regressionsmodell gehörenden Hypothesentests verfälscht. Viertens darf keine perfekte Korrelation zwischen den erklärenden Variablen vorherrschen, da in einem solchen Fall sog. vollkommener Multikollinearität eine OLS-Schätzung unmöglich ist. Auch eine unvollkommene Multikollinearität, die durch hohe (von eins verschiedene) Korrelationen gekennzeichnet ist, ist problematisch, da OLS in diesem Fall nicht präzise zwischen den Einflüssen der einzelnen Variablen unterscheiden und deswegen ungenaue Parameterschätzungen liefern kann. Fünftens sollten die Störterme möglichst normalverteilt sein, da diese Verteilungseigenschaft von entscheidender Bedeutung für Hypothesentests in Regressionen ist.
Annahmenverletzungen im linearen Regressionsmodell
Um Indizien für Annahmenverletzungen zu erlangen, kann eine Reihe statistischer Tests herangezogen werden. Werden Probleme festgestellt, kann je nach Art des Problems die Modellspezifikation überarbeitet, auf robuste unterstützende Verfahren zurückgegriffen (z.B. Newey-West-Standardfehler) oder auf alternative Schätzverfahren (z.B. Instrumentenvariablenschätzung) ausgewichen werden. Deutet bereits die ökonomische Theorie darauf hin, dass sich Annahmen des klassischen Regressionsmodells nicht als realistisch erweisen, wird üblicherweise direkt mit den allgemeineren Verfahren gearbeitet.
Ist die Annahme der Parameterlinearität nicht erfüllt, kann unter Umständen durch Modelltransformation (z.B. durch Logarithmierung) eine parameterlineare Form hergestellt werden. Ist dies nicht möglich, kann keine OLS-Schätzung durchgeführt werden. In diesem Fall kann man jedoch z.B. eine NLS-Schätzung (engl. Nonlinear Least Squares) anwenden. Eng verbunden mit der Annahme der Parameterlinearität ist, dass im linearen Regressionsmodell zeitinvariante Modellparameter unterstellt werden. Zur Überprüfung dieser Annahme werden in der Praxis Chow-, CUSUM- und CUSUMQ-Tests eingesetzt. Werden mit diesen Tests Strukturbrüche identifiziert, so kann dies als ein Hinweis auf eine schwerwiegende Fehlspezifikation des Modells interpretiert werden. Es empfiehlt sich dann die Modellspezifikation bspw. hinsichtlich Variablenauswahl oder funktionaler Form zu überarbeiten. Wird allerdings aus theoretischen Überlegungen mit Strukturbrüchen gerechnet, so kann anstatt einer Modifikation der Spezifikation eine Aufteilung des vorliegenden Stichprobenzeitraums und eine separate OLS-Schätzung für die Teilzeiträume vorgenommen werden.
Mangelnde Exogenität bzw. vorliegende Endogenität der erklärenden Variablen kann mit dem sog. Hausman-Test aufgedeckt werden. Begegnen kann man der Annahmenverletzung mit der sog. Instrumentenvariablenschätzung (IV-Schätzung). Bei dieser werden sog. Instrumentenvariablen benötigt, die hochgradig mit den endogenen erklärenden Variablen korreliert (Instrument-Relevanz) und gleichzeitig nicht mit dem Störterm korreliert sind (Instrument-Exogenität). Anders als OLS liefert der IV-Schätzer bei geeigneter Instrumentgüte konsistente Parameterschätzungen. Die Güte der Instrumente kann dabei durch Regressionen der endogenen erklärenden Variable auf alle Instrumente einschließlich der exogenen Variablen (Test der Instrument-Relevanz) und den sog. Sargan-Test (Test der Instrument-Exogenität) geprüft werden.
Ein besonders in Querschnittsregressionen (Datenmaterial zu verschiedenen Merkmalsträgern zu einem bestimmten Zeitpunkt) häufig anzutreffendes Problem ist das der Heteroskedastizität, d.h. nicht konstanter bedingter Varianz des stochastischen Störterms. Kann man mittels eines Breusch-Pagan- oder White-Tests Heteroskedastiziät aufdecken, besteht in großen Stichproben die Möglichkeit, an Stelle der dann von OLS falsch geschätzten Standardfehler, heteroskedastizitätsrobuste White-Standardfehler heranzuziehen. Alternativ ist in großen Stichproben auch die Anwendung von WLS (engl. Weighted Least Squares) denkbar. Hier werden die Daten auf Basis der durch spezielle Testverfahren konkret aufgedeckten Heteroskedastizitätsstruktur transformiert, sodass ein mit OLS schätzbares Modell entsteht, das keine Heteroskedastizität mehr aufweist. Man erhält durch dieses Verfahren nicht nur andere geschätzte Standardfehler, sondern auch effizientere Schätzungen der Modellparameter. Kritisch ist bei diesem Verfahren jedoch, dass nur bei korrekt erfasster Heteroskedastizitätsstruktur effizientere Schätzungen als mit OLS im nicht transformierten Modell entstehen können. Gerade die Aufdeckung dieser Struktur ist allerdings meist problematisch.
In Zeitreihenregressionen (Datenmaterial zu einem Merkmalsträger zu verschiedenen Zeitpunkten) ist man häufig mit dem Problem von Störtermautokorrelation konfrontiert. Kann man mit einem Durbin-Watson-Test Autokorrelation erster Ordnung (Störterm hängt nur vom Wert der Vorperiode ab) oder mit einem Breusch-Godfrey-Test Autokorrelation höherer Ordnung (Störterm hängt auch von weiter zurückliegenden Werten ab) aufdecken, so hat man die Möglichkeit, dieser in großen Stichproben mit autokorrelationsrobusten Newey-West-Standardfehlern zu begegnen. Es handelt sich dabei um Standardfehler, die in ihren Berechnungsformeln Autokorrelation beliebiger Ordnung (und auch Heteroskedastizität) berücksichtigen. Alternativ kann man in großen Stichproben auch auf eine Verallgemeinerung von WLS und zwar GLS (engl. Generalised Least Squares) zurückgreifen. Dieses Verfahren liefert korrekte Standardfehler und effizientere Schätzungen der Modellparameter, sofern die Autokorrelationsstruktur, die zur Modelltransformation verwendet wird, korrekt erfasst wurde. Wichtig ist in diesem Zusammenhang, dass sowohl Heteroskedastizität als auch Autokorrelation als Hinweise auf Modellfehlspezifikation interpretiert werden können. Dies bedeutet, dass die beschriebenen Gegenmaßnahmen erst dann umgesetzt werden sollten, wenn Spezifikationsfehler nach Möglichkeit ausgeschlossen sind.
Im Zusammenhang mit Zeitreihenregressionen ist außerdem anzumerken, dass hier die sog. Stationarität der verwendeten Zeitreihen eine bedeutende Rolle spielt. Zeitreihen bezeichnet man allgemein als stationär, wenn sich ihre grundlegenden Eigenschaften wie z.B. Erwartungswert und Varianz im Zeitverlauf nicht verändern. Bei nichtstationären Zeitreihen kommt es hingegen zu derartigen Veränderungen. Werden nichtstationäre Zeitreihen in Regressionen verwendet, kann dies zu sog. Scheinregressionen (engl. Spurious Regression) führen. Dies bedeutet, dass meist fälschlicherweise Schätzergebnisse resultieren, die dafür sprechen, dass die erklärende Variable einen signifikanten Einfluss auf die erklärte Variable hat, auch wenn zwischen beiden Variablen keinerlei Zusammenhang besteht. Auf Stationarität kann z.B. mit dem sog. Dickey-Fuller-Test getestet werden. Zeigt der Test Nicht-Stationarität auf, kann man sich damit behelfen, in ersten Differenzen zu schätzen, da erste Differenzen häufig stationär sind, auch wenn es die Ausgangsreihen nicht sind. Es gibt jedoch auch Fälle, in denen man nichtstationäre Variablen in Modellen einsetzen darf. Sind nämlich die Variablen eines Regressionsmodells nichtstationär, so kann es dennoch vorkommen, dass eine Linearkombination der Variablen stationär ist. Man sagt in einem solchen Fall, dass die Variablen kointegriert sind oder dass zwischen ihnen eine langfristige Beziehung (eine Gleichgewichtsbeziehung) besteht. Ob zwei Variablen kointegriert sind, kann man z.B. überprüfen, indem man die Residuen der einfachen OLS-Schätzung einem Dickey-Fuller-Test unter Berücksichtigung spezieller kritischer Werte unterzieht. Im Falle kointegrierter Variablen wäre es unvorteilhaft, nur in ersten Differenzen zu schätzen, da man damit lediglich die Kurz- und nicht auch die Langfristbeziehung zwischen den Variablen abbildet. Schätzt man das Modell in seiner ursprünglichen Form, bildet man nur die Langfristbeziehung ab. Um beide Fristigkeiten zu berücksichtigen, werden für Modelle mit kointegrierten Reihen spezielle Verfahren zur Schätzung der interessierenden Parameter eingesetzt. Zu diesen zählen z.B. Fehlerkorrekturmodelle und die dynamische OLS-Schätzung.
Nach diesem Exkurs in die Zeitreihenregression beschäftigen wir uns wieder mit den Basisannahmen des linearen Regressionsmodells. Während vollkommene Multikollinearität unmittelbar durch eine technische Fehlermeldung der Ökonometriesoftware angezeigt wird, kann man Hinweise auf unvollkommene Multikollinearität aus hohen paarweisen Korrelationskoeffizienten und hohen Bestimmtheitsmaßen in Regressionen der erklärenden Variablen aufeinander gewinnen. Da es durch unvollkommene Multikollinearität nicht zwangsläufig zu einer Steigerung der Varianz der Parameterschätzer kommen muss, wird in der Praxis meist ein gewisses Maß an unvollkommener Multikollinearität geduldet, solange die Varianzen nicht so groß werden, dass sie die Hypothesentests zu stark beeinflussen.
Auch die Annahme der Normalverteilung des stochastischen Störterms wird in der Praxis meist nicht intensiven Tests unterzogen. Es existieren zwar Testverfahren, wie etwa der Jarque-Bera-Test, doch wird in großen Stichproben meist davon ausgegangen, dass aufgrund des Zentralen Grenzwertsatzes zumindest approximativ eine Normalverteilung der geschätzten Parameter gegeben ist.
Abschließende Hinweise
Da der vorliegende Beitrag gibt nur einen groben Überblick über grundlegende Sachverhalte traditioneller ökonometrischer Vorgehensweisen. Zur praktischen Umsetzung von Regressionsanalysen und anderen ökonometrischen Verfahren bietet sich die Verwendung professioneller Software an. EViews und Stata sind in dieser Hinsicht die am meisten verwendeten ökonometrischen Programme, wobei Stata seine besonderen Stärken in der Panel- und Mikroökonometrie hat, EViews dagegen stärker für die Analyse von Zeitreihen ausgelegt ist.
GEPRÜFTES WISSEN
Über 200 Experten aus Wissenschaft und Praxis.
Mehr als 25.000 Stichwörter kostenlos Online.
Das Original: Gabler Wirtschaftslexikon