Por que o método dos mínimos quadrados ordinários é usado em uma regressão linear?

Por que o método dos mínimos quadrados ordinários é usado em uma regressão linear?
Anonim

Responda:

Se as suposições de Gauss-Markof prevalecerem, então o OLS fornecerá o menor erro padrão de qualquer estimador linear, portanto, o melhor estimador linear não-viesado

Explicação:

Dadas estas suposições

  1. Os coeficientes dos parâmetros são lineares, isto significa apenas que # beta_0 e beta_1 # são lineares, mas o # x # variável não tem que ser linear pode ser # x ^ 2 #

  2. Os dados foram retirados de uma amostra aleatória

  3. Não há multielinearidade perfeita, então duas variáveis não são perfeitamente correlacionadas.

  4. #Eu#/#x_j) = 0 # pressuposto condicional médio é zero, significando que o # x_j # variáveis não fornecem informações sobre a média das variáveis não observadas.

  5. As variâncias são iguais para qualquer nível de # x # isto é #var (u) = sigma ^ 2 #

Então OLS é o melhor estimador linear na população de estimadores lineares ou (Best Linear Unbiased Estimator) BLUE.

Se você tem essa suposição adicional:

  1. As variações são normalmente distribuídas

Então, o estimador OLS se torna o melhor estimador, independentemente de ser um estimador linear ou não linear.

O que isso significa essencialmente é que, se as suposições de 1 a 5 forem mantidas, o OLS fornecerá o menor erro padrão de qualquer estimador linear e, se 1-6, ele fornecerá o menor erro padrão de qualquer estimador.