Kamis, 18 November 2010

ASUMSI REGRESI KLASIK

ASUMSI MODEL REGRESI LINIER KLASIK
1.Variabel respons atau dependen mengikuti sebaran distribusi normal.
2.Varians bersyarat dari ui adalah konstan atau homokedastik.
3.Tidak adanya autokorelasi dalam gangguan.
4.Tidak adanya multikolinearitas diantara variabel independent.

PENYIMPANGAN ASUMSI MODEL KLASIK
1.Variabel respons atau dependen tidak mengikuti pola sebaran distribusi normal, yang akibatnya diperoleh taksiran yang bias.
2.Varians bersyarat dari ui tidak konstan untuk setiap i yang berarti heteroskedastisitas.
3.Adanya autokorelasi artinya adanya korelasi antar gangguan
4.Adanya multikolinearitas artinya adanya hubungan linier yang sempurna di antara beberapa atau semua variabel yang menjelaskan dari model regresi.

CARA MENDETEKSI PELANGGARAN ASUMSI KLASIK
 NORMALITAS
Dengan melakukan pengujian hipotesis dengan statistik uji, yaitu : Uji Liliefors
UJI LILIEFORS
Langkh-langkah yang harus diambil :
1.Bakukan nilai-nilai variabel Y dan urutkan dari yang terkecil hingga yang terbesar
2.Hitung nilai peluangnya
3.Hitung nilai peluang empiris setiap nilai
4.Hitung nilai selisih absolut dari (2) dan (3). Disebut dengan DHitung
5.Cari yang terbesar dan bandingkan dengan Tabel Liliefors
Bila DHitung < DTabel maka disimpulkan bahwa data berdistribusi Normal.

 HETEROSKEDASTISITAS
Dengan melakukan pengujian hipotesis dengan statistik uji, yaitu : Uji Park
UJI PARK
Langkah-langkah yang harus diambil :
1. Taksir model dengan menggunakan metoda kuadrat terkecil biasa
2. Tentukan
3. Taksir model regresi dengan variabel respon ln dan regresor ln xi
4. Jika  signifikan maka kesimpulan terdapat gejala heteroskedastisitas.
Harus tidak signifikan. Pake korelasi RS antara X1 dan X2 dengan residual. Jika tdk signifikan maka homoskedastisitas (seharusnya)
 AUTOKORELASI
Dengan melakukan pengujian hipotesis dengan statistik uji, yaitu: Uji Durbin Watson

UJI DURBIN WATSON
Langkah-langkah yang harus diambil :
1. Lakukan regresi OLS dan dapatkan residual
2. Hitung statistik d dari Durbin-Watson
3. Kriteria uji Bandingkan d hitung dengan d tabel durbin-watson
Tolak H0 jika d hitung < db atau d hitung > 4 – db terdapat autokorelasi
Terima H0 jika da < dhitung < 4 – da tidak terdapat autokorelasi
Tidak ada Kesimpulan Jika : db  d hitung  da atau 4 – da d hitung 4 – db

 MULTIKOLINIERITAS
1. Adanya statistik F atau R2 yang signifikan dengan diikuti banyaknya statistik t yang tidak signifikan
2. Bila terjadi kolinearitas sempurna antara beberapa variabel bebas, maka statistik F-nya dapat digunakan untuk menguji ada tidaknya multikolinearitas. Jika F signifikan, hal ini disebabkan oleh adanya multikolinearitas sempurna.. Jika F tidak signifikan maka variabel tersebut tidak mempunyai pengaruh pada variabel respon.

CARA MENANGGULANGI PELANGGARAN ASUMSI KLASIK

 HETEROSKEDASTISITAS
Metoda kuadrat terkecil diboboti
Metoda kuadrat terkecil secara umum
 AUTOKORELASI
Karena gangguan ui tidak bisa diamati, sifat korelasi sering merupakan soal spekulasi atau keadaan mendesak yang bersifat praktis. Dalam praktek, biasanya diasumsikan ui mengikuti skema autoregresif derajat pertama yaitu : . Dimana <1 dan dimana i mengikuti asumsi ols dengan nilai yang diharapkan sama dengan nol, varians konstan dan tidak ada autokorelasi . Ini bila  diketahui.
Apabila  tidak diketahui  ditaksir dengan beberapa cara :
Ditaksir dengan koefisien korelasi sampel
 MULTIKOLINIERITAS
Multikolinieritas berarti adanya hubungan linier yang sempurna di antara beberapa atau semua variabel yang menjelaskan dari model regresi. Untuk regresi k- variabel, meliputi variabel yang menjelaskan , suatu hubungan linier yang pasti dikatakan ada apabila kondisi berikut ini dipenuhi :
Sedangkan untuk suatu hubungan linier yang hampir sempurna adalah :
dimana adalah unsur kesalahan stokastik.
Adanya multikolinieritas dapat dilihat dari nilai koefisien deterministik yaitu : R2
Dikatakan ada multikolinieritas tinggi antara variabel jika nilai koefisien deterministik ada di antara 0,7 < < 1.
Untuk mengurangi atau menghilangkan multikolinieritas di antaranya adalah :
1. Dengan transformasi variabel satu ke dalam variabel lainnya
2. Menghilangkan variabel yang dianggap menyebabkan terjadinya multikolinieritas
3. Menambah jumlah pengamatan atau observasi
Untuk mencari variabel mana yang berkorelasi dapat dilihat dari nilai VIF

Tidak ada komentar:

Posting Komentar