4
Uji Asumsi Klasik Regresi Linier Uji asumsi klasik adalah pengujian asumsi-asumsi statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Bagi pembuat model, asumsi merupakan anggapan pengarang dalam membentuk model statistik yang dapat digunakan dalam kondisi-kondisi data tertentu. Sedangkan bagi pengguna model, asumsi merupakan batasan yang berguna untuk mengetahui apakah model statistik yang digunakan layak untuk kondisi data pengamatan. Ketika asumsi tidak terpenuhi, biasanya peneliti menggunakan berbagai solusi agar asumsinya dapat terpenuhi, atau beralih ke metode yang lebih advance agar asumsinya dapat terselesaikan. Tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak harus digunakan pada analisis regresi linear sederhana. Untuk regresi linear sederhana, biasanya digunakan asumsi linieritas yang pengujiannya dapat menggunakan Linearity Test. Namun, asumsi linieritas ini jarang digunakan pada regresi linier berganda karena pengujian lineritas secara partial untuk variabel penelitian (X1 -> Y dan X2 -> Y) belum tentu dapat diperoleh hasil model regresi yang baik. Contohnya, terdapat linieritas antara X1 dan Y, serta lineritas antara X2 dan Y; yang mana peneliti belum tentu menghasilkan model regresi berganda dengan parameter yang signifikan semua. Regresi linear sederhana memiliki empat uji asumsi klasik, yaitu: asumsi linieritas, asumsi normalitas, asumsi heteroskdatisitas, dan asumsi autokorelasi. Sedangkan untuk regresi linear berganda, ada empat uji asumsi klasik yang sering digunakan, yaitu: 1. Uji Normalitas

Ekonometrika (Ols & Asumsi)

Embed Size (px)

Citation preview

Uji Asumsi Klasik Regresi Linier

Uji asumsi klasik adalah pengujian asumsi-asumsi statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Bagi pembuat model, asumsi merupakan anggapan pengarang dalam membentuk model statistik yang dapat digunakan dalam kondisi-kondisi data tertentu. Sedangkan bagi pengguna model, asumsi merupakan batasan yang berguna untuk mengetahui apakah model statistik yang digunakan layak untuk kondisi data pengamatan. Ketika asumsi tidak terpenuhi, biasanya peneliti menggunakan berbagai solusi agar asumsinya dapat terpenuhi, atau beralih ke metode yang lebih advance agar asumsinya dapat terselesaikan.Tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak harus digunakan pada analisis regresi linear sederhana. Untuk regresi linear sederhana, biasanya digunakan asumsi linieritas yang pengujiannya dapat menggunakan Linearity Test. Namun, asumsi linieritas ini jarang digunakan pada regresi linier berganda karena pengujian lineritas secara partial untuk variabel penelitian (X1 -> Y dan X2 -> Y) belum tentu dapat diperoleh hasil model regresi yang baik. Contohnya, terdapat linieritas antara X1 dan Y, serta lineritas antara X2 dan Y; yang mana peneliti belum tentu menghasilkan model regresi berganda dengan parameter yang signifikan semua.

Regresi linear sederhana memiliki empat uji asumsi klasik, yaitu: asumsi linieritas, asumsi normalitas, asumsi heteroskdatisitas, dan asumsi autokorelasi. Sedangkan untuk regresi linear berganda, ada empat uji asumsi klasik yang sering digunakan, yaitu:

1. Uji NormalitasUji normalitas adalah pengujian asumsi residual yang berdistribusi normal. Asumsi ini harus terpenuhi untuk model regresi linier yang baik. Uji normalitas dilakukan pada nilai residual model. Asumsi normalitas dapat diperiksa dengan pemeriksaan output normal P-P plot atau normal Q-Q plot. Asumsi normalitas terpenuhi ketika penyebaran titik-titik output plot mengikuti garis diagonal plot. Namun, ketika peneliti mendapati keraguan dengan pemeriksaan normalitas tersebut, maka dapat digunakan pengujian normalitas, seperti uji Kolmogorov-Smirnov, uji Anderson-Darling, uji Shapiro-Wilk, atau uji Jarque-Bera (Uji Skewness-Kurtosis). Asumsi Normalitas terpenuhi ketika pengujian normalitas menghasilkan P-value (Sign.) > dengan nilai ditentukan sebesar 1%, 5%, atau 10%.2. Uji Heteroskedatisitas Uji heteroskedatisitas adalah pengujian asumsi residual dengan varians tidak konstan. Harapannya, asumsi ini tidak terpenuhi karena model regresi linier berganda memiliki asumsi residual dengan varians konstan (homoskedasitas). Deteksi heteroskedatisitas dapat dilakukan dengan menampilkan scatter plot dari nilai ZPRED (nilai prediksi, sumbu X) dengan SRESID (nilai residualnya, sumbu Y). Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik. Pola tertentu yang dimaksud seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Namun, ketika peneliti mendapati keraguan dengan pemeriksaan heteroskdatisitas tersebut, maka dapat digunakan pengujian heteroskdatisitas, seperti: uji heteroskdatisitas untuk regresi linier sederhana (Uji Park, Uji Glejser, Uji Spearmans Rank Correlation, atau Uji Goldfeld-Quandt) dan uji heteroskdatisitas untuk regresi linier berganda(Uji Breusch-Pagan-Godfrey (BPG), Uji White, atau Uji KoenkerBassett (KB)).3. Uji AutokorelasiUji autokorelasi adalah pengujian asumsi residual yang memiliki korelasi pada periode ke-t dengan periode sebelumnya (t-1). Harapannya, model regresi linier berganda memiliki residual yang sifat white noise (tidak ada autokorelasi). Statistik uji yang sering dipergunakan adalah uji Durbin-Watson. Apabila nilai Durbin-Watson berada di sekitar angka 2, berarti model regresi aman dari kondisi Autokorelasi. Dengan cara lain, Pengujian ada tidaknya problem autokorelasi pada residual dapat dilihat dari nilai statistik Durbin-Watson, jika nilai statistik Durbin-Watson lebih besar dari nilai tabel Durbin-Watson[1] batas atas (dU), maka problem autokorelasi pada residual dinyatakan tidak ada. Tabel Durbin-Watson ditunjukkan sebagai berikut:

Pengujian yang lain yang biasanya digunakan adalah Uji Runs (Uji Geary), Uji BreuschGodfrey (BG), atau Uji Fungsi Autokorelasi (Autocorrelation Function, ACF). 4. Uji MultikolinearitasUji multikolinearitas adalah pengujian untuk mengetahui ada atau tidaknya korelasi yang signifikan antara variabel-variabel prediktor/independen dalam suatu model regresi linear berganda. Model regresi yang baik memiliki variabel-variabel bebas yang independen/bebas/tidak terkait/tidak berkorelasi. Harapannya, asumsi multikolinieritas tidak terpenuhi.Statistik uji yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), atau korelasi pearson antara variabel-variabel bebas. Pada uji multikolinieritas, diharapkan nilai VIF < 10, atau korelasi pearson antara variabel-variabel bebas signifikan (P-value (Sign.) < = 5% atau 1%), sehingga asumsi multikolinieritas tidak terpenuhi. Terdapat beberapa identifikasi kasus multikolineritas, yaitu:1) Koefisien determinasi atau R-Square tinggi (R2 >0,7), tetapi tidak ada parameter / koefisien model regresi yang signifikan.2) Nilai korelasi antara Y dan Xj memiliki tanda yang berbeda dengan koefisien model regresi. Misalnya: rY,Xj > 0 (positif), tetapi j < 0 (negatif).3) Terdapat standard error dari parameter/koefisien regresi yang bernilai sangat besar .