Mengapa metode kuadrat terkecil biasa digunakan dalam regresi linier?

Mengapa metode kuadrat terkecil biasa digunakan dalam regresi linier?
Anonim

Menjawab:

Jika asumsi Gauss-Markof berlaku maka OLS memberikan kesalahan standar terendah dari setiap penaksir linier sehingga penaksir tidak bias linier terbaik

Penjelasan:

Mengingat asumsi-asumsi ini

  1. Koefisien parameter bersifat linier, ini artinya # beta_0 dan beta_1 # linear tetapi # x # variabel tidak harus linier # x ^ 2 #

  2. Data diambil dari sampel acak

  3. Tidak ada multi-collinearity sempurna sehingga dua variabel tidak berkorelasi sempurna.

  4. #E (u #/#x_j) = 0 # berarti asumsi bersyarat adalah nol, yang berarti bahwa # x_j # variabel tidak memberikan informasi tentang rata-rata variabel yang tidak teramati.

  5. Variansnya sama untuk setiap level tertentu # x # yaitu #var (u) = sigma ^ 2 #

Kemudian OLS adalah penaksir linier terbaik dalam populasi penaksir linier atau (Penaksir Linear Tidak Cocok Terbaik) BIRU.

Jika Anda memiliki asumsi tambahan ini:

  1. Varians terdistribusi normal

Kemudian estimator OLS menjadi estimator terbaik terlepas dari apakah itu merupakan estimator linier atau non-linear.

Apa artinya ini pada dasarnya adalah bahwa jika asumsi 1-5 ditahan maka OLS memberikan kesalahan standar terendah dari setiap penaksir linier dan jika 1-6 tahan maka itu memberikan kesalahan standar terendah dari setiap penaksir.