Warum wird die gewöhnliche Methode der kleinsten Quadrate bei einer linearen Regression verwendet?

Warum wird die gewöhnliche Methode der kleinsten Quadrate bei einer linearen Regression verwendet?
Anonim

Antworten:

Wenn die Annahmen von Gauss-Markof gelten, liefert OLS den niedrigsten Standardfehler eines linearen Schätzers, also den besten linearen Schätzer

Erläuterung:

Angesichts dieser Annahmen

  1. Die Koeffizienten der Parameter sind linear, das heißt nur # beta_0 und beta_1 # sind linear aber die # x # Variable muss nicht linear sein, es kann sein # x ^ 2 #

  2. Die Daten wurden einer Stichprobe entnommen

  3. Es gibt keine perfekte Multikollinearität, so dass zwei Variablen nicht perfekt korrelieren.

  4. #EU#/#x_j) = 0 # mittlere bedingte Annahme ist Null, was bedeutet, dass die # x_j # Variablen liefern keine Informationen über den Mittelwert der nicht beobachteten Variablen.

  5. Die Abweichungen sind für jedes gegebene Niveau von gleich # x # d.h. #var (u) = Sigma ^ 2 #

Dann ist OLS der beste lineare Schätzer in der Population von linearen Schätzern oder (Best Linear Unb bias Estimator) BLUE.

Wenn Sie diese zusätzliche Annahme haben:

  1. Die Abweichungen sind normalerweise verteilt

Dann wird der OLS-Schätzer zum besten Schätzer, unabhängig davon, ob es sich um einen linearen oder nichtlinearen Schätzer handelt.

Dies bedeutet im Wesentlichen, dass, wenn die Annahmen 1 bis 5 gelten, der OLS den niedrigsten Standardfehler eines linearen Schätzers liefert, und wenn der Wert 1 bis 6 gilt, liefert er den niedrigsten Standardfehler eines Schätzers.