Direkt zum Inhalt

Ökonometrie

Definition: Was ist "Ökonometrie"?

Die Ökonometrie ist ein Teilgebiet der Wirtschaftswissenschaften, das ökonomische Theorie, empirische Daten und statistische Methoden vereinigt. Von einer selbstständigen Disziplin innerhalb der Wirtschaftswissenschaften wird erst seit der Gründung der Econometric Society im Jahr 1930 durch eine Gruppe namhafter Ökonomen gesprochen. Mit der Entwicklung der Rechenkapazitäten, der zunehmenden Verfügbarkeit ökonometrischer Software und der deutlich verbesserten empirischen Datenlage nahm die Anwendung ökonometrischer Methoden und Modelle insbesondere in den letzten Jahrzehnten in allen Bereichen der Wirtschaftswissenschaften stark zu.

GEPRÜFTES WISSEN
Über 200 Experten aus Wissenschaft und Praxis.
Mehr als 25.000 Stichwörter kostenlos Online.
Das Original: Gabler Wirtschaftslexikon

zuletzt besuchte Definitionen...

    Ausführliche Definition im Online-Lexikon

    Inhaltsverzeichnis

    1. Aufgaben der Ökonometrie
    2. Kerngebiete der Ökonometrie
    3. Lineare Regression
    4. Annahmenverletzungen im linearen Regressionsmodell
    5. Abschließende Hinweise

    Aufgaben der Ökonometrie

    Die zentrale Aufgabe der Ökonometrie ist die Ableitung ökonometrischer Modelle aus ökonomischen Theorien und deren numerische Konkretisierung. Da mit ökonometrischen Analysen unterschiedliche Detailziele verfolgt werden können, ist eine Betrachtung selbiger eine weitere Möglichkeit, um das Aufgabengebiet der Ökonometrie zu beschreiben:

    • Die Ökonometrie dient erstens dazu, wirtschaftswissenschaftliche Zusammenhänge zu quanti­fizieren. Dies geschieht durch Rückgriff auf empirische Daten und Schätzung konkreter Werte für ursprünglich nur abstrakte Para­meter in Modellgleichungen, die die Beziehung zwischen ökonomischen Größen beschreiben. So kann z.B. für ein Modell zur Investitions­nachfrage im Detail angegeben werden, wie stark sich diese verändert, wenn der langfristige Zinssatz um einen Prozentpunkt steigt.
    • Zweitens bietet die Ökonometrie Möglichkeiten zum empirischen Testen von Hypothesen und Modellen. Bevor nämlich für ein Modell ausgesagt werden kann, dass es die Realität an­nähernd beschreibt und es damit zur Analyse ökonomischer Sach­verhalte verwendet werden kann, gilt es nach dessen Schätzung seine empirische Gültigkeit zu überprüfen. Die Ökono­me­trie bietet auch Testverfahren, die es erlauben, zwischen kon­kurrierenden Hypothesen zu diskriminieren.
    • Ist die empirische Gültigkeit des Modells durch entsprechende Tests untermauert, besteht das dritte Ziel der ökonometrischen Analyse in der Abgabe von Prognosen oder in der Simulation von Änderungen, die z.B. aus wirtschaftspolitischen Eingriffen resultieren. Aus historischem Daten­material geschätzte Modelle werden von Ökonomen z.B. benutzt, um Prognosen für das künftige BIP-Wachstum oder die Infla­tionsrate abzugeben. Die Genauigkeit solcher Prognosen ist natürlich davon abhängig, ob die vergangene Entwicklung solcher Variablen wirklich Informationen über ihre zukünftige Entwicklung liefern kann. 

    Aus diesen Zielen ist ersichtlich, dass sich eine ökonometrische Analyse immer auf ökonomische Theorien stützen muss. Teilweise werden dabei Anforderungen an die Theorie gestellt, die man als Ökonom nicht immer gewohnt ist, bspw. die Angabe konkreter funktionaler Formen (z. B. lineare oder quadratische Funktionen) für theoretische Zusammenhänge. Des Weiteren benötigt man geeignete Daten, um die Modellvariablen mit empirisch beobachtbaren Daten beschreiben zu können. Bei manchen Fragestellungen ist eine empirische Operationalisierung der im theoretischen Modell enthaltenen Variablen nur schwer möglich (z.B. Risikobereitschaft, Intelligenz, Vertrauenswürdigkeit, Motivation).

    Kerngebiete der Ökonometrie

    Während in den letzten 30 Jahren v.a. die Kointegrations- und Zeitreihenanalyse, die ver­allgemeinerte Momentenmethode, die Bayessche Ökonometrie, Methoden zur Ausnutzung von Quasi-Experimenten sowie Mikro- und Paneldatenmodelle innerhalb der Wirtschaftswissenschaften zu­nehmend an Bedeutung gewonnen haben, ist die klassische Regressionsanalyse der älteste Ver­fahrens­komplex in der Ökonometrie und der Ausgangspunkt der genannten moderneren Methoden und Modelle. Sie ist ein statistisches Verfahren, welches versucht, die Ver­änderung einer sog. erklärten Variablen über die Ver­änderungen einer Reihe sog. erklärender Variablen durch Quantifizierung einer einzelnen Gleichung zu erklären. Eng verwandt, jedoch konzeptionell von der Regressionsanalyse sehr verschieden, ist die Korrelationsanalyse. Ihr Primärziel ist die Messung der Stärke und Richtung eines linearen Zusammenhangs zwischen Variablen (z.B. Mathematik- und Statistiknoten). Zudem werden bei der Korrelationsanalyse die zwei betrachteten Variablen symmetrisch behandelt, d.h. es wird nicht zwischen erklärten und erklärenden Variablen unter­schieden.

    Eine Regression kann feststellen, ob eine quantitative Beziehung zwischen den erklärenden Variablen und der erklärten Variable besteht. Ein Regressionsergebnis allein kann aber trotz statistischer Signifikanz keine Kausalität beweisen, da eine statistische Beziehung niemals Kausalität impliziert. Um Kausalität zu begründen, benötigt man zusätzlich Theorien und a-priori-Wissen außerhalb der Statistik. Trotzdem dienen die Regressionsanalyse und andere Verfahren der Ökonometrie im Gegensatz zur Korrelationsanalyse dazu, Kausalitäten zu erforschen. Damit die empirische Regressionsanalyse dazu in der Lage ist, müssen aber strenge Annahmen (siehe unten) erfüllt sein. Diese Annahmen können in ihrer Gesamtheit schließlich und endlich nur mithilfe von ökonomischen Theorien und a-priori-Wissen außerhalb der Statistik überprüft werden. Denn die statistischen Verfahren zur Überprüfung der Annahmen basieren wiederum auf gewissen Annahmen, die mithilfe ökonomischer Theorien begründet werden. Deshalb benötigt man a-priori-Wissen außerhalb der Statistik, um Kausalitäten zu begründen.

    Lineare Regression

    Im einfachsten Fall beschreibt ein Regressionsmodell Y = β0 + β1X1 + … + βkXk + ε eine endogene Variable Y durch eine lineare Beziehung zu einer oder mehreren anderen Variablen X1, …, Xk. Da es in der Praxis keine exakte Beziehung zwischen empirisch beobachteten Größen geben wird, erfasst darin ein Störterm e zusätzlich alle Faktoren, die neben X1, …, Xk einen Einfluss auf Y haben und nicht unmittelbar erfassbar sind. Von be­sonderer praktischer Bedeutung ist die Erlangung von Schätzungen für die Modellparameter β0, …, βk, da auf ihrer Basis Prognosen für die Ausprägung von Y bei vorliegenden Ausprägungen von X1, …, Xk möglich sind, sofern sich das Modell als empirisch tauglich herausgestellt hat. Das Standardverfahren zur Schätzung der Parameter in linearen Regressions­modellen ist die OLS-Schätzung (engl. Ordinary Least Squares). Um sie problemlos anwenden zu können, sind jedoch vom Regressions­modell eine Reihe von Annahmen zu erfüllen. Erstens muss das Regressions­modell parameterlineare Gestalt besitzen und nicht alle vor­liegenden Beobachtungen einer X-Variable dürfen gleich sein, da andernfalls keine Schätzung mit OLS möglich ist. Zweitens muss der bedingte Erwartungswert des Stör­terms gleich null sein, d.h. E(ε | X1, …, Xk) = 0, was eine Kovarianz  zwischen den X-Variablen und ε von null impliziert, d.h. Cov(ε, X1) = 0, …, Cov(ε, Xk) = 0. Diese Annahme der Exogenität von X1, …, Xk ist essentiell, da nur in diesem Fall ceteris-paribus-Aussagen wie "Eine Veränderung von X1 um eine Einheit führt zu einer Ver­änderung von Y um β1 Einheiten." möglich sind. Eine Verletzung dieser Annahme (z.B. durch Mess­fehler bei der er­klärenden Variablen oder Vernachlässigung zentraler Modellvariablen) führt zu ver­zerrten und inkonsistenten Parameter­schätzungen. Drittens müssen auch die bedingte Varianz des Störterms konstant und die bedingten Störtermkovarianzen gleich null sein. Ist diese sog. Störtermhomoskedastizität und -unkorreliertheit nicht gegeben, werden die Standardfehler der Parameterschätzer verzerrt geschätzt und die zum Regressions­modell ge­hörenden Hypothesentests verfälscht. Viertens darf keine perfekte Korrelation zwischen den erklärenden Variablen vor­herrschen, da in einem solchen Fall sog. vollkommener Multikollinearität eine OLS-Schätzung unmöglich ist. Auch eine unvollkommene Multikollinearität, die durch hohe (von eins verschiedene) Korrelationen gekennzeichnet ist, ist problematisch, da OLS in diesem Fall nicht präzise zwischen den Einflüssen der einzelnen Variablen unter­scheiden und deswegen ungenaue Parameterschätzungen liefern kann. Fünftens sollten die Störterme möglichst normalverteilt sein, da diese Verteilungseigenschaft von ent­scheidender Bedeutung für Hypothesen­tests in Regressionen ist.

    Annahmenverletzungen im linearen Regressionsmodell

    Um Indizien für Annahmen­ver­letzungen zu erlangen, kann eine Reihe statistischer Tests heran­ge­zogen werden. Werden Probleme fest­gestellt, kann je nach Art des Problems die Modell­spezifikation überarbeitet, auf robuste unterstützende Verfahren zurück­ge­griffen (z.B. Newey-West-Standardfehler) oder auf alternative Schätz­ver­fahren (z.B. Instrumentenvariablenschätzung) aus­ge­wichen werden. Deutet bereits die ökonomische Theorie darauf hin, dass sich Annahmen des klassischen Regressionsmodells nicht als realistisch erweisen, wird üblicher­weise direkt mit den all­ge­meineren Ver­fahren gearbeitet.

    Ist die Annahme der Parameterlinearität nicht erfüllt, kann unter Um­ständen durch Modell­transformation (z.B. durch Logarith­mierung) eine para­meter­lineare Form hergestellt werden. Ist dies nicht möglich, kann keine OLS-Schätzung durchgeführt werden. In diesem Fall kann man jedoch z.B. eine NLS-Schätzung (engl. Non­linear Least Squares) an­wenden. Eng verbunden mit der Annahme der Parameterlinearität ist, dass im linearen Regressions­modell zeitinvariante Mo­dell­parameter unter­stellt werden. Zur Überprüfung dieser Annahme werden in der Praxis Chow-, CUSUM- und CUSUMQ-Tests eingesetzt. Werden mit diesen Tests Strukturbrüche identifiziert, so kann dies als ein Hinweis auf eine schwerwiegende Fehlspezifikation des Modells interpretiert werden. Es empfiehlt sich dann die Modellspezifikation bspw. hinsichtlich Variablenauswahl oder funktionaler Form zu überarbeiten. Wird allerdings aus theoretischen Überlegungen mit Strukturbrüchen gerechnet, so kann anstatt einer Modifikation der Spezifikation eine Aufteilung des vorliegenden Stichproben­zeit­raums und eine separate OLS-Schätzung für die Teilzeiträume vor­ge­nommen werden.

    Mangelnde Exogenität bzw. vorliegende Endogenität der erklärenden Variablen kann mit dem sog. Hausman-Test aufgedeckt werden. Begegnen kann man der  Annahmenverletzung mit der sog. Instru­menten­­variablen­schätzung (IV-Schätzung). Bei dieser werden sog. Instrumenten­variablen benötigt, die hoch­gradig mit den endo­genen erklärenden Variablen korreliert (Instrument-Relevanz) und gleich­zeitig nicht mit dem Störterm korreliert sind (Instrument-Exo­geni­tät). Anders als OLS liefert der IV-Schätzer bei geeigneter Instrumentgüte konsistente Parameterschätzungen. Die Güte der Instru­mente kann dabei durch Regressionen der endogenen erklärenden Variable auf alle Instru­mente einschließlich der exogenen Variablen (Test der Ins­tru­ment-Relevanz) und den sog. Sargan-Test (Test der Instrument-Exogenität) geprüft werden.

    Ein besonders in Querschnittsregressionen (Daten­­material zu verschiedenen Merkmalsträgern zu einem bestimmten Zeitpunkt) häufig anzu­treffendes Problem ist das der Heteroskedastizität, d.h. nicht konstanter bedingter Varianz des stochastischen Störterms. Kann man mittels eines Breusch-Pagan- oder White-Tests Heteroskedastiziät aufdecken, besteht in großen Stichproben die Möglich­keit, anstelle der dann von OLS falsch geschätzten Standardfehler, hetero­skedas­ti­zi­täts­robuste White-Standardfehler heranzuziehen. Alternativ ist in großen Stichproben auch die Anwendung von WLS (engl. Weighted Least Squares) denkbar. Hier werden die Daten auf Basis der durch spezielle Testverfahren konkret aufgedeckten Hetero­skedas­tizitäts­struktur trans­for­miert, sodass ein mit OLS schätz­bares Modell ent­steht, das keine Hetero­skedastizität mehr aufweist. Man erhält durch dieses Verfahren nicht nur andere geschätzte Standard­fehler, sondern auch effizientere Schät­zungen der Modellparameter. Kritisch ist bei diesem Verfahren jedoch, dass nur bei korrekt erfasster Hetero­skedastizitätsstruktur effizientere Schätz­ungen als mit OLS im nicht transformierten Modell ent­stehen können. Gerade die Aufdeckung dieser Struktur ist allerdings meist problematisch.

    In Zeitreihenregressionen (Datenmaterial zu einem Merkmalsträger zu verschiedenen Zeit­punkten) ist man häufig mit dem Problem von Störtermautokorrelation konfrontiert. Kann man mit einem Durbin-Watson-Test Autokorrelation erster Ordnung (Störterm hängt nur vom Wert der Vorperiode ab) oder mit einem Breusch-Godfrey-Test Autokorrelation höherer Ordnung (Störterm hängt auch von weiter zurück­liegen­den Werten ab) aufdecken, so hat man die Mög­lichkeit, dieser in großen Stichproben mit auto­korrela­tionsrobusten Newey-West-Standard­fehlern zu begegnen. Es handelt sich dabei um Standard­fehler, die in ihren Berechnungsformeln Autokorrelation be­lie­bi­ger Ord­nung (und auch Heteroskedastizität) be­rück­sichtigen. Alternativ kann man in großen Stichproben auch auf eine Ver­allgemeinerung von WLS und zwar GLS (engl. Generalised Least Squares) zurückgreifen. Dieses Ver­fahren liefert korrekte Standardfehler und effizientere Schät­zungen der Modellparameter, sofern die Auto­korrelations­struktur, die zur Modell­trans­formation verwendet wird, korrekt erfasst wurde. Wichtig ist in diesem Zusammenhang, dass sowohl Heteroskedastizität als auch Autokorrelation als Hinweise auf Modellfehlspezifikation interpretiert werden können. Dies bedeutet, dass die beschriebenen Gegenmaßnahmen erst dann umgesetzt werden sollten, wenn Spezifikationsfehler nach Möglichkeit ausgeschlossen sind.

    Im Zusammenhang mit Zeitreihenregressionen ist außerdem anzumerken, dass hier die sog. Stationarität der verwendeten Zeitreihen eine bedeutende Rolle spielt. Zeitreihen bezeichnet man allgemein als stationär, wenn sich ihre grund­legenden Eigen­schaften wie z.B. Erwartungswert und Varianz im Zeitverlauf nicht ver­ändern. Bei nichtstationären Zeitreihen kommt es hingegen zu derartigen Ver­änder­ungen. Werden nichtstationäre Zeitreihen in Regressionen verwendet, kann dies zu sog. Schein­regressionen (engl. Spurious Regres­sion) führen. Dies bedeutet, dass meist fälsch­licherweise Schätzergebnisse resultieren, die dafür sprechen, dass die er­klärende Variable einen signifikanten Einfluss auf die er­klärte Variable hat, auch wenn zwischen beiden Variablen keinerlei Zusammenhang besteht. Auf Stationarität kann z.B. mit dem sog. Dickey-Fuller-Test getestet werden. Zeigt der Test Nicht-Stationarität auf, kann man sich damit behelfen, in ersten Differenzen zu schätzen, da erste Differenzen häufig stationär sind, auch wenn es die Ausgangsreihen nicht sind. Es gibt jedoch auch Fälle, in denen man nichtstationäre Variablen in Modellen einsetzen darf. Sind nämlich die Variablen eines Regressionsmodells nichtstationär, so kann es dennoch vorkommen, dass eine Linearkombination der Variablen stationär ist. Man sagt in einem solchen Fall, dass die Variablen kointegriert sind oder dass zwischen ihnen eine langfristige Beziehung (eine Gleich­ge­wichtsbeziehung) besteht. Ob zwei Variablen kointegriert sind, kann man z.B. überprüfen, indem man die Residuen der einfachen OLS-Schätzung einem Dickey-Fuller-Test unter Berück­sichtigung spezieller kritischer Werte unterzieht. Im Falle kointegrierter Variablen wäre es unvorteilhaft, nur in ersten Differenzen zu schätzen, da man damit lediglich die Kurz- und nicht auch die Langfrist­beziehung zwischen den Variablen abbildet. Schätzt man das Modell in seiner ur­sprüng­lichen Form, bildet man nur die Lang­frist­beziehung ab. Um beide Fristigkeiten zu berück­sichtigen, werden für Modelle mit kointegrierten Reihen spezielle Verfahren zur Schätzung der interes­sierenden Parameter eingesetzt. Zu diesen zählen z.B. Fehlerkorrekturmodelle und die dyna­mische OLS-Schätzung.

    Nach diesem Exkurs in die Zeitreihenregression beschäftigen wir uns wieder mit den Basisannahmen des linearen Regressionsmodells. Während vollkommene Multikollinearität unmittelbar durch eine technische Fehlermeldung der Öko­no­metrie­­software angezeigt wird, kann man Hinweise auf unvoll­kommene Multikollinearität aus hohen paarweisen Korrelations­koeffi­zienten und hohen Bestimmt­heits­maßen in Regres­sionen der er­klärenden Variablen auf­einander gewinnen. Da es durch unvoll­kommene Multi­kollinearität nicht zwangs­läufig zu einer Steigerung der Varianz der Parameterschätzer kommen muss, wird in der Praxis meist ein gewisses Maß an unvollkommener Multi­kol­linearität geduldet, so­lange die Varianzen nicht so groß werden, dass sie die Hypothesentests zu stark beeinflussen.

    Auch die Annahme der Normalverteilung des stochastischen Störterms wird in der Praxis meist nicht intensiven Tests unterzogen. Es existieren zwar Testverfahren, wie etwa der Jarque-Bera-Test, doch wird in großen Stichproben meist davon ausgegangen, dass aufgrund des Zentralen Grenzwertsatzes zu­mindest approximativ eine  Normalverteilung der geschätz­ten Parameter gegeben ist.

    Abschließende Hinweise

    Der vorliegende Beitrag gibt nur einen groben Überblick über grundlegende Sachverhalte traditioneller ökonometrischer Vorgehensweisen. Zur praktischen Um­setzung von Regressionsanalysen und anderen ökonometrischen Verfahren bietet sich die Ver­wendung professioneller Software an. EViews und Stata sind in dieser Hinsicht die am meisten verwendeten ökono­metrischen Programme, wobei Stata seine besonderen Stärken in der Panel- und Mikroökonometrie hat, EViews dagegen stärker für die Analyse von Zeitreihen ausgelegt ist.  

    Mit Ihrer Auswahl die Relevanz der Werbung verbessern und dadurch dieses kostenfreie Angebot refinanzieren: Weitere Informationen

    Mindmap "Ökonometrie"

    Hilfe zu diesem Feature
    Mindmap Ökonometrie Quelle: https://wirtschaftslexikon.gabler.de/definition/oekonometrie-42346 node42346 Ökonometrie node39342 Mikroökonomik node37562 Methodologie node42884 Operationalisierbarkeit node48211 Ziel-Mittel-Zusammenhang node42884->node48211 node42650 Operationalisierung node42650->node48211 node46326 strategisches Management node37353 Krisenmanagement node45267 Statistik node50281 Szenario-Technik node30636 Daten node44629 ökonometrisches Modell node30636->node44629 node52094 Paneldaten und Paneldatenmodelle node41133 Konjunkturprognose node41133->node44629 node48113 Wirtschaftswissenschaften node48113->node42346 node46576 Spieltheorie node48113->node46576 node32315 Entscheidungstheorie node48113->node32315 node29345 Allgemeine Wirtschaftspolitik node29345->node42346 node34332 Ethik node29345->node34332 node40778 Makroökonomik node29345->node40778 node44735 Ordnungspolitik node29345->node44735 node44629->node42346 node44629->node52094 node43088 strategische Frühaufklärung node43088->node42346 node43088->node46326 node43088->node37353 node43088->node45267 node43088->node50281 node48211->node42346 node48211->node39342 node48211->node37562 node38052 Keynesianismus node38052->node29345 node54080 Wirtschaft node54080->node48113 node53895 Philosophie node53895->node48113
    Mindmap Ökonometrie Quelle: https://wirtschaftslexikon.gabler.de/definition/oekonometrie-42346 node42346 Ökonometrie node48113 Wirtschaftswissenschaften node48113->node42346 node29345 Allgemeine Wirtschaftspolitik node29345->node42346 node44629 ökonometrisches Modell node44629->node42346 node43088 strategische Frühaufklärung node43088->node42346 node48211 Ziel-Mittel-Zusammenhang node48211->node42346

    News SpringerProfessional.de

    Bücher

    Auer, B.R./Rottmann, H.: Statistik und Ökonometrie für Wirtschaftswissenschaftler
    Wiesbaden, 2011
    Gujarati, D.N./Porter, D.: Basic Econometrics
    New York, 2008
    Wooldridge, J.M. : Introductory Econometrics - A Modern Approach
    Edinburgh, 2008

    Zeitschriften

    Auer, B.R./Rottmann, H. : Ein Überblick über die lineare Regression
    in: Wirtschaftswissenschaftliches Studium, 2010, S. 549-554
    Auer, B.R./Rottmann, H. : GMM-Schätzung und konsumbasierte Kapitalmarktmodelle
    2012, S. 201-207

    Literaturhinweise SpringerProfessional.de

    Bücher auf springer.com

    Sachgebiete