| 
 | 
 | 
 | 
Wirtschaftslexikon
  Detailsuche
Digitale Fachbibliothek
in über 61.000 Fachbüchern + 500 Fachzeitschriften 

ANZEIGE

Bücher
Das kompakte Nachschlagewerk bietet sowohl Studierenden und Lehrenden der Wirtschaftsmathematik und der Wirtschaftswissenschaften als auch Anwendern in der Praxis eine ... Vorschau
9.99 €

Dieses Buch online im Abo für monatlich 45,90 € - inkl. weiterer 61.000 Fachbücher als PDF auf Springer Professional !
Statistik (von statista.com)
Einstiegsgehalt von BWL-Studenten
Bruttoeinstiegsgehälter von BWL-Absolventen nach Funktion im Unternehmen in Deutschland im Jahr 2011
Statistik: Einstiegsgehalt von BWL-Studenten
(Kostenpflichtige Statistik)
Statista: hochwertige Statistiken, Umfragen und Studien aus über 10.000 Quellen
Meine zuletzt besuchten Definitionen
Schwerpunktbeiträge des Tages
Arbeitsmarktpolitik ist grundsätzlich die Summe aller Maßnahmen zur Beeinflussung des Geschehens auf Arbeits- und Ausbildungsmärkten. Von ihr betroffen sind in erster Linie Arbeitslose, Arbeitsplatz- und Ausbildungsplatzsuchende.
von  Prof. Dr. Berndt Keller, Privatdozent Dr. Fred Henneberger
I. Begriff Bezeichnung für Objekte, die sowohl die allgemeine als auch die spezifische Portabilität anderer Objekte verbessern und auf diese Weise zum „Wohlstand der Nationen“ (A. Smith) beitragen. II. Forschung 1. Forschungansätze Als elementarer Bestandteil gesellschaftlicher Wertschöpfungsprozesse ist die Tüte ... mehr
von  Prof. Dr. Andreas Suchanek

Ökonometrie

Definition

ANZEIGE

Kurzerklärung:

Die Ökonometrie ist ein Teilgebiet der Wirtschaftswissenschaften, das ökonomische Theorie, empirische Daten und statistische Methoden vereinigt. Von einer selbstständigen Disziplin innerhalb der Wirtschaftswissenschaften wird erst seit der Gründung der Econometric Society im Jahr 1930 durch eine Gruppe namhafter Ökonomen gesprochen. Mit der Entwicklung der Rechenkapazitäten, der zunehmenden Verfügbarkeit ökonometrischer Software und der deutlich verbesserten empirischen Datenlage nahm die Anwendung ökonometrischer Methoden und Modelle insbesondere in den letzten Jahrzehnten in allen Bereichen der Wirtschaftswissenschaften stark zu.

Ausführliche Erklärung:

I. Aufgaben der Ökonometrie

Die zentrale Aufgabe der Ökonometrie ist die Ableitung ökonometrischer Modelle aus ökonomischen Theorien und deren numerische Konkretisierung. Da mit ökonometrischen Analysen unterschiedliche Detailziele verfolgt werden können, ist eine Betrachtung selbiger eine weitere Möglichkeit, um das Aufgabengebiet der Ökonometrie zu beschreiben:

  • Die Ökonometrie dient erstens dazu, wirtschaftswissenschaftliche Zusammenhänge zu quanti­fizieren. Dies geschieht durch Rückgriff auf empirische Daten und Schätzung konkreter Werte für ursprünglich nur abstrakte Para­meter in Modellgleichungen, die die Beziehung zwischen ökonomischen Größen beschreiben. So kann z.B. für ein Modell zur Investitions­nachfrage im Detail angegeben werden, wie stark sich diese verändert, wenn der langfristige Zinssatz um einen Prozentpunkt steigt.
  • Zweitens bietet die Ökonometrie Möglichkeiten zum empirischen Testen von Hypothesen und Modellen. Bevor nämlich für ein Modell ausgesagt werden kann, dass es die Realität an­nähernd beschreibt und es damit zur Analyse ökonomischer Sach­verhalte verwendet werden kann, gilt es nach dessen Schätzung seine empirische Gültigkeit zu überprüfen. Die Ökono­me­trie bietet auch Testverfahren, die es erlauben, zwischen kon­kurrierenden Hypothesen zu diskriminieren.
  • Ist die empirische Gültigkeit des Modells durch entsprechende Tests untermauert, besteht das dritte Ziel der ökonometrischen Analyse in der Abgabe von Prognosen oder in der Simulation von Änderungen, die z.B. aus wirtschaftspolitischen Eingriffen resultieren. Aus historischem Daten­material geschätzte Modelle werden von Ökonomen z.B. benutzt, um Prognosen für das künftige BIP-Wachstum oder die Infla­tionsrate abzugeben. Die Genauigkeit solcher Prognosen ist natürlich davon abhängig, ob die vergangene Entwicklung solcher Variablen wirklich Informationen über ihre zukünftige Entwicklung liefern kann. 

Aus diesen Zielen ist ersichtlich, dass sich eine ökonometrische Analyse immer auf ökonomische Theorien stützen muss. Teilweise werden dabei Anforderungen an die Theorie gestellt, die man als Ökonom nicht immer gewohnt ist, bspw. die Angabe konkreter funktionaler Formen (z. B. lineare oder quadratische Funktionen) für theoretische Zusammenhänge. Des Weiteren benötigt man geeignete Daten, um die Modellvariablen mit empirisch beobachtbaren Daten beschreiben zu können. Bei manchen Fragestellungen ist eine empirische Operationalisierung der im theoretischen Modell enthaltenen Variablen nur schwer möglich (z.B. Risikobereitschaft, Intelligenz, Vertrauenswürdigkeit, Motivation).

II. Kerngebiete der Ökonometrie

Während in den letzten 30 Jahren v.a. die Kointegrations- und Zeitreihenanalyse, die ver­allgemeinerte Momentenmethode, die Bayessche Ökonometrie, Methoden zur Ausnutzung von Quasi-Experimenten sowie Mikro- und Paneldatenmodelle innerhalb der Wirtschaftswissenschaften zu­nehmend an Bedeutung gewonnen haben, ist die klassische Regressionsanalyse der älteste Ver­fahrens­komplex in der Ökonometrie und der Ausgangspunkt der genannten moderneren Methoden und Modelle. Sie ist ein statistisches Verfahren, welches versucht, die Ver­änderung einer sog. erklärten Variablen über die Ver­änderungen einer Reihe sog. erklärender Variablen durch Quantifizierung einer einzelnen Gleichung zu erklären. Eng verwandt, jedoch konzeptionell von der Regressionsanalyse sehr verschieden, ist die Korrelationsanalyse. Ihr Primärziel ist die Messung der Stärke und Richtung eines linearen Zusammenhangs zwischen Variablen (z.B. Mathematik- und Statistiknoten). Zudem werden bei der Korrelationsanalyse die zwei betrachteten Variablen symmetrisch behandelt, d.h. es wird nicht zwischen erklärten und erklärenden Variablen unter­schieden.

Eine Regression kann feststellen, ob eine quantitative Beziehung zwischen den erklärenden Variablen und der erklärten Variable besteht. Ein Regressionsergebnis allein kann aber trotz statistischer Signifikanz keine Kausalität beweisen, da eine statistische Beziehung niemals Kausalität impliziert. Um Kausalität zu begründen, benötigt man zusätzlich Theorien und a-priori-Wissen außerhalb der Statistik. Trotzdem dienen die Regressionsanalyse und andere Verfahren der Ökonometrie im Gegensatz zur Korrelationsanalyse dazu, Kausalitäten zu erforschen. Damit die empirische Regressionsanalyse dazu in der Lage ist, müssen aber strenge Annahmen (siehe unten) erfüllt sein. Diese Annahmen können in ihrer Gesamtheit schließlich und endlich nur mithilfe von ökonomischen Theorien und a-priori-Wissen außerhalb der Statistik überprüft werden. Denn die statistischen Verfahren zur Überprüfung der Annahmen basieren wiederum auf gewissen Annahmen, die mithilfe ökonomischer Theorien begründet werden. Deshalb benötigt man a-priori-Wissen außerhalb der Statistik, um Kausalitäten zu begründen.

III. Lineare Regression

Im einfachsten Fall beschreibt ein Regressionsmodell Y = β0 + β1X1 + … + βkXk + ε eine endogene Variable Y durch eine lineare Beziehung zu einer oder mehreren anderen Variablen X1, …, Xk. Da es in der Praxis keine exakte Beziehung zwischen empirisch beobachteten Größen geben wird, erfasst darin ein Störterm e zusätzlich alle Faktoren, die neben X1, …, Xk einen Einfluss auf Y haben und nicht unmittelbar erfassbar sind. Von be­sonderer praktischer Bedeutung ist die Erlangung von Schätzungen für die Modellparameter β0, …, βk, da auf ihrer Basis Prognosen für die Ausprägung von Y bei vorliegenden Ausprägungen von X1, …, Xk möglich sind, sofern sich das Modell als empirisch tauglich herausgestellt hat. Das Standardverfahren zur Schätzung der Parameter in linearen Regressions­modellen ist die OLS-Schätzung (engl. Ordinary Least Squares). Um sie problemlos anwenden zu können, sind jedoch vom Regressions­modell eine Reihe von Annahmen zu erfüllen. Erstens muss das Regressions­modell parameterlineare Gestalt besitzen und nicht alle vor­liegenden Beobachtungen einer X-Variable dürfen gleich sein, da andernfalls keine Schätzung mit OLS möglich ist. Zweitens muss der bedingte Erwartungswert des Stör­terms gleich null sein, d.h. E(ε | X1, …, Xk) = 0, was eine Kovarianz  zwischen den X-Variablen und ε von null impliziert, d.h. Cov(ε, X1) = 0, …, Cov(ε, Xk) = 0. Diese Annahme der Exogenität von X1, …, Xk ist essentiell, da nur in diesem Fall ceteris-paribus-Aussagen wie "Eine Veränderung von X1 um eine Einheit führt zu einer Ver­änderung von Y um β1 Einheiten." möglich sind. Eine Verletzung dieser Annahme (z.B. durch Mess­fehler bei der er­klärenden Variablen oder Vernachlässigung zentraler Modellvariablen) führt zu ver­zerrten und inkonsistenten Parameter­schätzungen. Drittens müssen auch die bedingte Varianz des Störterms konstant und die bedingten Störtermkovarianzen gleich null sein. Ist diese sog. Störtermhomoskedastizität und -unkorreliertheit nicht gegeben, werden die Standardfehler der Parameterschätzer verzerrt geschätzt und die zum Regressions­modell ge­hörenden Hypothesentests verfälscht. Viertens darf keine perfekte Korrelation zwischen den erklärenden Variablen vor­herrschen, da in einem solchen Fall sog. vollkommener Multikollinearität eine OLS-Schätzung unmöglich ist. Auch eine unvollkommene Multikollinearität, die durch hohe (von eins verschiedene) Korrelationen gekennzeichnet ist, ist problematisch, da OLS in diesem Fall nicht präzise zwischen den Einflüssen der einzelnen Variablen unter­scheiden und deswegen ungenaue Parameterschätzungen liefern kann. Fünftens sollten die Störterme möglichst normalverteilt sein, da diese Verteilungseigenschaft von ent­scheidender Bedeutung für Hypothesen­tests in Regressionen ist.

IV. Annahmenverletzungen im linearen Regressionsmodell

Um Indizien für Annahmen­ver­letzungen zu erlangen, kann eine Reihe statistischer Tests heran­ge­zogen werden. Werden Probleme fest­gestellt, kann je nach Art des Problems die Modell­spezifikation überarbeitet, auf robuste unterstützende Verfahren zurück­ge­griffen (z.B. Newey-West-Standardfehler) oder auf alternative Schätz­ver­fahren (z.B. Instrumentenvariablenschätzung) aus­ge­wichen werden. Deutet bereits die ökonomische Theorie darauf hin, dass sich Annahmen des klassischen Regressionsmodells nicht als realistisch erweisen, wird üblicher­weise direkt mit den all­ge­meineren Ver­fahren gearbeitet.

Ist die Annahme der Parameterlinearität nicht erfüllt, kann unter Um­ständen durch Modell­transformation (z.B. durch Logarith­mierung) eine para­meter­lineare Form hergestellt werden. Ist dies nicht möglich, kann keine OLS-Schätzung durchgeführt werden. In diesem Fall kann man jedoch z.B. eine NLS-Schätzung (engl. Non­linear Least Squares) an­wenden. Eng verbunden mit der Annahme der Parameterlinearität ist, dass im linearen Regressions­modell zeitinvariante Mo­dell­parameter unter­stellt werden. Zur Überprüfung dieser Annahme werden in der Praxis Chow-, CUSUM- und CUSUMQ-Tests eingesetzt. Werden mit diesen Tests Strukturbrüche identifiziert, so kann dies als ein Hinweis auf eine schwerwiegende Fehlspezifikation des Modells interpretiert werden. Es empfiehlt sich dann die Modellspezifikation bspw. hinsichtlich Variablenauswahl oder funktionaler Form zu überarbeiten. Wird allerdings aus theoretischen Überlegungen mit Strukturbrüchen gerechnet, so kann anstatt einer Modifikation der Spezifikation eine Aufteilung des vorliegenden Stichproben­zeit­raums und eine separate OLS-Schätzung für die Teilzeiträume vor­ge­nommen werden.

Mangelnde Exogenität bzw. vorliegende Endogenität der erklärenden Variablen kann mit dem sog. Hausman-Test aufgedeckt werden. Begegnen kann man der  Annahmenverletzung mit der sog. Instru­menten­­variablen­schätzung (IV-Schätzung). Bei dieser werden sog. Instrumenten­variablen benötigt, die hoch­gradig mit den endo­genen erklärenden Variablen korreliert (Instrument-Relevanz) und gleich­zeitig nicht mit dem Störterm korreliert sind (Instrument-Exo­geni­tät). Anders als OLS liefert der IV-Schätzer bei geeigneter Instrumentgüte konsistente Parameterschätzungen. Die Güte der Instru­mente kann dabei durch Regressionen der endogenen erklärenden Variable auf alle Instru­mente einschließlich der exogenen Variablen (Test der Ins­tru­ment-Relevanz) und den sog. Sargan-Test (Test der Instrument-Exogenität) geprüft werden.

Ein besonders in Querschnittsregressionen (Daten­­material zu verschiedenen Merkmalsträgern zu einem bestimmten Zeitpunkt) häufig anzu­treffendes Problem ist das der Heteroskedastizität, d.h. nicht konstanter bedingter Varianz des stochastischen Störterms. Kann man mittels eines Breusch-Pagan- oder White-Tests Heteroskedastiziät aufdecken, besteht in großen Stichproben die Möglich­keit, an Stelle der dann von OLS falsch geschätzten Standardfehler, hetero­skedas­ti­zi­täts­robuste White-Standardfehler heranzuziehen. Alternativ ist in großen Stichproben auch die Anwendung von WLS (engl. Weighted Least Squares) denkbar. Hier werden die Daten auf Basis der durch spezielle Testverfahren konkret aufgedeckten Hetero­skedas­tizitäts­struktur trans­for­miert, sodass ein mit OLS schätz­bares Modell ent­steht, das keine Hetero­skedastizität mehr aufweist. Man erhält durch dieses Verfahren nicht nur andere geschätzte Standard­fehler, sondern auch effizientere Schät­zungen der Modellparameter. Kritisch ist bei diesem Verfahren jedoch, dass nur bei korrekt erfasster Hetero­skedastizitätsstruktur effizientere Schätz­ungen als mit OLS im nicht transformierten Modell ent­stehen können. Gerade die Aufdeckung dieser Struktur ist allerdings meist problematisch.

In Zeitreihenregressionen (Datenmaterial zu einem Merkmalsträger zu verschiedenen Zeit­punkten) ist man häufig mit dem Problem von Störtermautokorrelation konfrontiert. Kann man mit einem Durbin-Watson-Test Autokorrelation erster Ordnung (Störterm hängt nur vom Wert der Vorperiode ab) oder mit einem Breusch-Godfrey-Test Autokorrelation höherer Ordnung (Störterm hängt auch von weiter zurück­liegen­den Werten ab) aufdecken, so hat man die Mög­lichkeit, dieser in großen Stichproben mit auto­korrela­tionsrobusten Newey-West-Standard­fehlern zu begegnen. Es handelt sich dabei um Standard­fehler, die in ihren Berechnungsformeln Autokorrelation be­lie­bi­ger Ord­nung (und auch Heteroskedastizität) be­rück­sichtigen. Alternativ kann man in großen Stichproben auch auf eine Ver­allgemeinerung von WLS und zwar GLS (engl. Generalised Least Squares) zurückgreifen. Dieses Ver­fahren liefert korrekte Standardfehler und effizientere Schät­zungen der Modellparameter, sofern die Auto­korrelations­struktur, die zur Modell­trans­formation verwendet wird, korrekt erfasst wurde. Wichtig ist in diesem Zusammenhang, dass sowohl Heteroskedastizität als auch Autokorrelation als Hinweise auf Modellfehlspezifikation interpretiert werden können. Dies bedeutet, dass die beschriebenen Gegenmaßnahmen erst dann umgesetzt werden sollten, wenn Spezifikationsfehler nach Möglichkeit ausgeschlossen sind.

Im Zusammenhang mit Zeitreihenregressionen ist außerdem anzumerken, dass hier die sog. Stationarität der verwendeten Zeitreihen eine bedeutende Rolle spielt. Zeitreihen bezeichnet man allgemein als stationär, wenn sich ihre grund­legenden Eigen­schaften wie z.B. Erwartungswert und Varianz im Zeitverlauf nicht ver­ändern. Bei nichtstationären Zeitreihen kommt es hingegen zu derartigen Ver­änder­ungen. Werden nichtstationäre Zeitreihen in Regressionen verwendet, kann dies zu sog. Schein­regressionen (engl. Spurious Regres­sion) führen. Dies bedeutet, dass meist fälsch­licherweise Schätzergebnisse resultieren, die dafür sprechen, dass die er­klärende Variable einen signifikanten Einfluss auf die er­klärte Variable hat, auch wenn zwischen beiden Variablen keinerlei Zusammenhang besteht. Auf Stationarität kann z.B. mit dem sog. Dickey-Fuller-Test getestet werden. Zeigt der Test Nicht-Stationarität auf, kann man sich damit behelfen, in ersten Differenzen zu schätzen, da erste Differenzen häufig stationär sind, auch wenn es die Ausgangsreihen nicht sind. Es gibt jedoch auch Fälle, in denen man nichtstationäre Variablen in Modellen einsetzen darf. Sind nämlich die Variablen eines Regressionsmodells nichtstationär, so kann es dennoch vorkommen, dass eine Linearkombination der Variablen stationär ist. Man sagt in einem solchen Fall, dass die Variablen kointegriert sind oder dass zwischen ihnen eine langfristige Beziehung (eine Gleich­ge­wichtsbeziehung) besteht. Ob zwei Variablen kointegriert sind, kann man z.B. überprüfen, indem man die Residuen der einfachen OLS-Schätzung einem Dickey-Fuller-Test unter Berück­sichtigung spezieller kritischer Werte unterzieht. Im Falle kointegrierter Variablen wäre es unvorteilhaft, nur in ersten Differenzen zu schätzen, da man damit lediglich die Kurz- und nicht auch die Langfrist­beziehung zwischen den Variablen abbildet. Schätzt man das Modell in seiner ur­sprüng­lichen Form, bildet man nur die Lang­frist­beziehung ab. Um beide Fristigkeiten zu berück­sichtigen, werden für Modelle mit kointegrierten Reihen spezielle Verfahren zur Schätzung der interes­sierenden Parameter eingesetzt. Zu diesen zählen z.B. Fehlerkorrekturmodelle und die dyna­mische OLS-Schätzung.

Nach diesem Exkurs in die Zeitreihenregression beschäftigen wir uns wieder mit den Basisannahmen des linearen Regressionsmodells. Während vollkommene Multikollinearität unmittelbar durch eine technische Fehlermeldung der Öko­no­metrie­­software angezeigt wird, kann man Hinweise auf unvoll­kommene Multikollinearität aus hohen paarweisen Korrelations­koeffi­zienten und hohen Bestimmt­heits­maßen in Regres­sionen der er­klärenden Variablen auf­einander gewinnen. Da es durch unvoll­kommene Multi­kollinearität nicht zwangs­läufig zu einer Steigerung der Varianz der Parameterschätzer kommen muss, wird in der Praxis meist ein gewisses Maß an unvollkommener Multi­kol­linearität geduldet, so­lange die Varianzen nicht so groß werden, dass sie die Hypothesentests zu stark beeinflussen.

Auch die Annahme der Normalverteilung des stochastischen Störterms wird in der Praxis meist nicht intensiven Tests unterzogen. Es existieren zwar Testverfahren, wie etwa der Jarque-Bera-Test, doch wird in großen Stichproben meist davon ausgegangen, dass aufgrund des Zentralen Grenzwertsatzes zu­mindest approximativ eine  Normalverteilung der geschätz­ten Parameter gegeben ist.

V. Abschließende Hinweise

Der vorliegende Beitrag gibt nur einen groben Überblick über grundlegende Sachverhalte traditioneller ökonometrischer Vorgehensweisen. Zur praktischen Um­setzung von Regressionsanalysen und anderen ökonometrischen Verfahren bietet sich die Ver­wendung professioneller Software an. EViews und Stata sind in dieser Hinsicht die am meisten verwendeten ökono­metrischen Programme, wobei Stata seine besonderen Stärken in der Panel- und Mikroökonometrie hat, EViews dagegen stärker für die Analyse von Zeitreihen ausgelegt ist.  

Suche in der E-Bibliothek für Professionals

ANZEIGE

Literaturhinweise/Links
Literaturhinweise
Bücher
  • Auer, B.R./Rottmann, H.:  Statistik und Ökonometrie für Wirtschaftswissenschaftler
    2, Wiesbaden, 2011
  • Gujarati, D.N./Porter, D.:  Basic Econometrics
    5, New York, 2008
  • Wooldridge, J.M. :  Introductory Econometrics - A Modern Approach
    4, Edinburgh, 2008
Zeitschriften
  • Auer, B.R./Rottmann, H. :  GMM-Schätzung und konsumbasierte Kapitalmarktmodelle
    2012  201-207
  • Auer, B.R./Rottmann, H. :  Ein Überblick über die lineare Regression
    in: Wirtschaftswissenschaftliches Studium, 2010  549-554
Sachgebiete
Ökonometrie
ist im Gabler Wirtschaftslexikon folgenden Sachgebieten zugeordnet:
Informationen zu den Sachgebieten
Durch eine internationale Rechnungslegung und damit internationale Harmonisierung der Rechnungslegung soll eine Vergleichbarkeit bzw. Interpretierbarkeit der Jahresabschlüsse international agierender Unternehmen, die ansonsten nach länderspezifischen, unterschiedlichen Rechtsnormen erstellt sind, erreicht werden. Diese Harmonisierung ist seit 2001 Aufgabe des IASB, des privatrechtlichen ... mehr
Die Wirtschaftsinformatik als Wissenschaft von der Konzeption, Entwicklung und Anwendung computergestützter Informations- und Kommunikationssysteme (IKS) nimmt eine interdisziplinäre Schnittstellenfunktion zwischen der Betriebswirtschaftslehre und der Informatik ein. Jedoch bietet die Wirtschaftsinformatik auch zusätzliche Funktionen/Ergebnisse wie etwa Methoden und Modelle, anhand derer ... mehr