Satz von Gauß-Markow

mathematischer Satz

In der Stochastik ist der Satz von Gauß-Markow (in der Literatur ist auch die englische Transkription Markov zu finden, also Satz von Gauß-Markov) bzw. Satz von Gauß ein mathematischer Satz über die Klasse der linearen erwartungstreuen Schätzfunktionen. Er stellt eine theoretische Rechtfertigung der Methode der kleinsten Quadrate dar und ist nach den Mathematikern Carl Friedrich Gauß und Andrei Andrejewitsch Markow benannt. Es wird in neuer Zeit vorgeschlagen, dass der Satz einfach Satz von Gauß heißen sollte, da die Zuschreibung zu Markow auf einem Irrtum beruht (siehe unten Abschnitt "Geschichte"). Der Satz besagt, dass in einem linearen Regressionsmodell, in dem die Störgrößen einen Erwartungswert von null und eine konstante Varianz haben sowie unkorreliert sind (Annahmen des klassischen linearen Regressionsmodells), der Kleinste-Quadrate-Schätzer – vorausgesetzt er existiert – ein bester linearer erwartungstreuer Schätzer, kurz BLES[1] (englisch best linear unbiased estimator, kurz: BLUE) ist. Hierbei bedeutet der „beste“, dass er – innerhalb der Klasse der linearen erwartungstreuen Schätzer – die „kleinste“ Kovarianzmatrix aufweist und somit minimalvariant ist. Die Störgrößen müssen nicht notwendigerweise normalverteilt sein. Sie müssen im Fall der verallgemeinerten Kleinste-Quadrate-Schätzung auch nicht unabhängig und identisch verteilt sein.

Geschichte

Bearbeiten

Der Satz wurde im Jahr 1821 von Carl Friedrich Gauß bewiesen. Versionen seines Beweises wurden unter anderem von Helmert (1872), Czuber (1891) und Markow (1912) veröffentlicht. Jerzy Neyman, der die Arbeit von Gauß nicht kannte, benannte den Satz unter anderem nach Markow. Seitdem ist der Satz als Satz von Gauß-Markow bekannt. Da die heutige Bezeichnung vor allem auf der Unkenntnis Neymans von Gauß’ Beweis beruht, wird in neuer Zeit – vor allem in englischsprachiger Literatur – vorgeschlagen, den Satz allein nach Gauß zu benennen, etwa Satz von Gauß. Historische Informationen zum Satz von Gauß-Markow finden sich bei Seal (1967), Placket (1972), Stigler (1986) und in History of Mathematical Statistics from 1750 to 1930 von Hald (1998).[2]

Formulierung des Satzes

Bearbeiten

In Worten lautet dieser Satz: Der Kleinste-Quadrate-Schätzer ist die beste lineare erwartungstreue Schätzfunktion, wenn die zufälligen Störgrößen (die folgenden Formeln beziehen sich auf die einfache lineare Regression):[3]

  • unkorreliert sind:
     .
unabhängige Zufallsvariablen sind immer auch unkorreliert. Man spricht in diesem Zusammenhang auch von Abwesenheit von Autokorrelation.
  • im Mittel Null sind: Wenn das Modell einen – von Null verschiedenen – Achsenabschnitt enthält, ist es vernünftig, dass man zumindest fordert, dass der Mittelwert von   in der Grundgesamtheit Null ist und sich die Schwankungen der einzelnen Störgrößen über die Gesamtheit der Beobachtungen ausgleichen. Mathematisch bedeutet das, dass der Erwartungswert der Störgrößen Null ist  . Diese Annahme macht keine Aussage über den Zusammenhang zwischen   und  , sondern gibt lediglich eine Aussage über die Verteilung der unsystematischen Komponente in der Grundgesamtheit.[4] Dies bedeutet, dass das betrachte Modell im Mittel dem wahren Zusammenhang entspricht. Wäre der Erwartungswert nicht Null, dann würde man im Mittel einen falschen Zusammenhang schätzen. Zur Verletzung dieser Annahme kann es kommen, wenn eine relevante Variable im Regressionsmodell nicht berücksichtigt wurde (siehe Verzerrung durch ausgelassene Variablen).
  • eine endliche konstante Varianz haben (Homoskedastizität): 
wenn die Varianz der Residuen (und somit die Varianz der erklärten Variablen selbst) für alle Ausprägungen der Regressoren gleich ist, liegt Homoskedastizität bzw. Varianzhomogenität vor.

Alle oben genannten Annahmen über die Störgrößen lassen sich so zusammenfassen:

 ,

das heißt alle Störgrößen folgen der Verteilung   mit Erwartungswert   und der Varianz  . Hierbei ist die Verteilung anfangs nicht näher spezifiziert.

Diese Annahmen werden auch als Gauß-Markow-Annahmen bezeichnet. In der Ökonometrie wird der Satz von Gauß-Markow oft abweichend dargestellt und es werden weitere Annahmen getroffen.

Allgemeine Formulierung des Satzes von Gauß-Markow (regulärer Fall)

Bearbeiten

Als Ausgangslage betrachten wir ein typisches multiples lineares Regressionsmodell mit gegebenen Daten   für   statistische Einheiten und   Regressoren. Der Zusammenhang zwischen der abhängigen Variablen und den unabhängigen Variablen kann wie folgt dargestellt werden

 .

In Matrixnotation auch

 

mit  . In kompakter Schreibweise

 .

Hier stellt   einen Vektor von unbekannten Parametern dar (bekannt als Regressionskoeffizienten), die mithilfe der Daten geschätzt werden müssen. Des Weiteren wird angenommen, dass die Störgrößen im Mittel Null sind:  , was bedeutet, dass wir davon ausgehen können, dass unser Modell im Mittel korrekt ist. Hierbei nimmt man von der Datenmatrix   an, dass sie vollen (Spalten-)Rang hat, das heißt, es gilt  . Insbesondere ist dann   eine reguläre, also invertierbare Matrix. Deshalb spricht man hier vom regulären Fall (s. Überschrift). Ferner nimmt man für die Kovarianzmatrix des Vektors der Störgrößen an, dass   gilt. Die Gauß-Markow-Annahmen lassen sich im multiplen Fall also zusammenfassen als

 

wobei der Erwartungswert der Störgrößen der Nullvektor   und die Kovarianzmatrix den Erwartungswert des dyadischen Produkts der Störgrößen

  darstellt.

Diese Annahme ist die Homoskedastizitätsannahme im multiplen Fall. Durch obige Spezifikation des linearen Modells erhält man damit für den Zufallsvektor  

 .[5]

Durch diese Annahmen erhält man:

  1. Dass der Kleinste-Quadrate-Schätzer für den wahren Parametervektor  , der   lautet, ein minimalvarianter linearer erwartungstreuer Schätzer für   ist.
  2. Dass die Kovarianzmatrix des Kleinste-Quadrate-Schätzers   ist.
  3. Dass die geschätzte Varianz der Störgrößen   ein erwartungstreuer Schätzer für die unbekannte Varianz der Störgrößen   ist.

Minimalvarianter linearer erwartungstreuer Schätzer

Bearbeiten

Minimalvarianter

Bearbeiten

Der minimalvariante, bzw. „der Beste“ Schätzer zeichnet sich dadurch aus, dass er die „kleinste“ Kovarianzmatrix (bzgl. der Loewner-Halbordnung) aufweist (ist somit minimalvariant). Ein Schätzer der diese Eigenschaft aufweist wird deshalb auch minimalvarianter oder effizienter Schätzer genannt. Bei zusätzlicher Annahme von Erwartungstreue spricht man auch vom minimalvarianten erwartungstreuen Schätzer.

Jeder Schätzer aus der Klasse der linearen erwartungstreuen Schätzer lässt sich darstellen als

  (Linearität)

mit einer  -Matrix  . Ein Beispiel für einen Schätzer dieser Klasse ist der Kleinste-Quadrate-Schätzer  .

Die Eigenschaft der Erwartungstreue besagt, dass die Schätzfunktion „im Mittel“ dem wahren Parametervektor entspricht

 .

Unter den oben genannten Voraussetzungen gilt dann, für alle   Vektoren  , die Ungleichung:

  (Effizienzeigenschaft),

wobei   der Kleinste-Quadrate-Schätzer ist, also der Schätzer, der mittels der Kleinste-Quadrate-Schätzung ermittelt wurde. Diese Effizienzeigenschaft kann auch umgeschrieben werden in

 

oder

 .[6]

Diese Eigenschaft wird positive Semidefinitheit genannt (siehe auch Kovarianzmatrix als Effizienzkriterium). Wenn also obige Ungleichung zutrifft, dann kann man sagen, dass   besser ist als  .

Linearität

Bearbeiten

Für den Kleinste-Quadrate-Schätzer gilt, dass er ebenfalls linear ist

 .

Die obige Ungleichung besagt, dass nach dem Satz von Gauß-Markow   ein bester (nämlich minimalvarianter) linearer erwartungstreuer Schätzer, kurz BLES[7] (englisch Best Linear Unbiased Estimator, kurz: BLUE) ist, also in der Klasse der linearen erwartungstreuen Schätzern die kleinste (Ko-)Varianz besitzt. Für diese Eigenschaft der Schätzfunktion   braucht keine Verteilungsinformation der Störgröße vorzuliegen. Eine Steigerung der BLES-Eigenschaft stellt die sogenannte BES-Eigenschaft (BES für Bester erwartungstreuer Schätzer) dar, bei der die Beschränkung auf lineare Schätzer wegfällt. Oft stellt der Maximum-Likelihood-Schätzer eine Lösung dar, die BES ist. Tatsächlich ist der Kleinste-Quadrate-Schätzer   bei normalverteilten Störgrößen ein Maximum-Likelihood-Schätzer und mit dem Satz von Lehmann-Scheffé kann die BES-Eigenschaft nachgewiesen werden.

Gegeben, dass der wahre Zusammenhang durch ein lineares Modell beschrieben wird, gilt es den Kleinste-Quadrate-Schätzer mit allen anderen linearen Schätzern zu vergleichen. Um einen Vergleich anstellen zu können, beschränkt man sich in der Analyse auf die Klasse der linearen und erwartungstreuen Schätzer. Jeder beliebige Schätzer dieser Klasse, neben dem Kleinste-Quadrate Schätzer  , kann dargestellt werden als

  mit  .

Falls   erhält man den Kleinste-Quadrate-Schätzer  . Die Klasse aller linearen Schätzer ist somit gegeben durch

 , wobei die Matrix   gegeben ist durch  

Nun gilt es Restriktionen für   zu finden die sicherstellen, dass   erwartungstreu für   ist. Ebenfalls muss die Kovarianzmatrix von   gefunden werden. Der Erwartungswert von   ergibt

 

D. h.   ist dann und nur dann erwartungstreu für  , wenn  , also gilt  .

Es folgt für die Kovarianzmatrix von  :

 

Daraus folgt

 [8]

Diese Matrix wird immer positiv semidefinit sein, – unabhängig wie   definiert ist – da eine Matrix multipliziert mit ihrer eigenen Transponierten immer positiv semidefinit ist.

Singulärer Fall, schätzbare Funktionen

Bearbeiten

Wir betrachten nun den sog. singulären Fall, d. h. es gilt  . Dann ist auch   nicht von vollem Rang, also nicht invertierbar. Der oben angegebene Kleinste-Quadrate-Schätzer   existiert nicht. Man sagt,   ist nicht schätzbar bzw. nicht identifizierbar.

Der singuläre Fall tritt dann ein, wenn  , oder wenn nur in   verschiedenen Regressoreinstellungen beobachtet wird, oder wenn lineare Abhängigkeiten in der Datenmatrix   vorliegen.

Sei nun  . Dann sind bestenfalls  -dimensionale Linearformen   linear und erwartungstreu schätzbar, wobei   eine  -Matrix ist.

Schätzbarkeitskriterium

Bearbeiten

  mit einer  -Matrix   ist schätzbar genau dann, wenn es eine  -Matrix   gibt, so dass   gilt, d. h. wenn jeder Zeilenvektor von   eine Linearkombination der Zeilenvektoren von   ist. Siehe z. B.[9]

Wesentlich eleganter kann das Schätzbarkeitskriterium mit Pseudoinversen formuliert werden. Dabei heißt   Pseudoinverse von  , wenn   gilt.

  mit einer  -Matrix   ist schätzbar genau dann, wenn  . Dabei ist   eine beliebige Pseudoinverse von  . Siehe z. B.[10]

Beispiel

Bearbeiten

Für die quadratische Regressionsgleichung   wurden   Beobachtungen bei   durchgeführt. Damit ergibt sich

 .

Dann ist

 

schätzbar, weil die Zeilenvektoren von   Linearkombinationen der Zeilenvektoren von   sind. Beispielsweise ist der zweite Zeilenvektor von   gleich der Differenz aus drittem und erstem Zeilenvektor von  .

Hingegen ist

 

nicht schätzbar, weil sich keiner der Zeilenvektoren von   als Linearkombination der der Zeilenvektoren von   darstellen lässt.

Satz von Gauß-Markow im singulären Fall

Bearbeiten

Sei   schätzbar. Dann ist

 

bester linearer erwartungstreuer Schätzer für  , wobei   eine beliebige Pseudoinverse zu   ist.

Der Schätzer   kann auch ohne Pseudoinverse ausgedrückt werden:

 

Dabei ist   eine beliebige Lösung des Normalgleichungssystems  .

Verallgemeinerte Kleinste-Quadrate-Schätzung

Bearbeiten

Die verallgemeinerte Kleinste-Quadrate-Schätzung (VKQ-Schätzung), die von Aitken[11] entwickelt wurde, erweitert der Satz von Gauß-Markow auf den Fall, bei dem der Vektor der Störgrößen eine nichtskalare Kovarianzmatrix hat, d. h. es gilt  .[12] Der VKQ-Schätzer ist ebenfalls BLUE.

Siehe auch

Bearbeiten
Bearbeiten

Literatur

Bearbeiten
  • George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988

Einzelnachweise

Bearbeiten
  1. International Statistical Institute: Glossary of statistical terms.
  2. Ulrich Kockelkorn: Lineare statistische Methoden. De Gruyter 2018, ISBN 978-3-486-78782-5, S. 329 (abgerufen über De Gruyter Online).
  3. Ludwig von Auer: Ökonometrie. Eine Einführung. Springer, ISBN 978-3-642-40209-8, 6. durchges. u. aktualisierte Aufl. 2013, S. 49.
  4. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education 2015, S. 24.
  5. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 202.
  6. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 203.
  7. International Statistical Institute: Glossary of statistical terms.
  8. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 205.
  9. C. R. Rao, Helge Toutenburg, Shalabh, C. Heumann: Linear Models and Generalizations, Springer-Verlag 2008 (third edition)
  10. F. Pukelsheim: Optimal Design of Experiments, Wiley, New York 1993
  11. A. C. Aitken: On Least Squares and Linear Combinations of Observations. In: Proceedings of the Royal Society of Edinburgh. 55. Jahrgang, 1935, S. 42–48.
  12. David S. Huang: Regression and Econometric Methods. John Wiley & Sons, New York 1970, ISBN 0-471-41754-8, S. 127–147 (google.com).