40
ANALISIS REGRESI Metodologi Penelitian Disusun Oleh: Nastiti Nugerahani 041414253009 Refivia Audie C. 041414253013 Santy Sari Dewi 041424253007 Andhika Pramudya G. 041424253039 Program Magister Akuntansi Fakultas Ekonomi dan Bisnis Universitas Airlangga 2015

makalah regresi

Embed Size (px)

DESCRIPTION

resume makalah terkait analisis regresi disertai tutorial regresi pada spss

Citation preview

Page 1: makalah regresi

ANALISIS REGRESI

Metodologi Penelitian

Disusun Oleh:

Nastiti Nugerahani 041414253009

Refivia Audie C. 041414253013

Santy Sari Dewi 041424253007

Andhika Pramudya G. 041424253039

Program Magister Akuntansi Fakultas Ekonomi dan Bisnis

Universitas Airlangga

2015

Page 2: makalah regresi

Analisis Regresi Page 1

Konsep Dasar Analisis Regresi

Dalam kehidupan sehar-hari sering dijumpai hubungan antara variabel satu dengan

lainnya. Sebagai contoh pada bidang pertanian dosis dan jenis pupuk akan mempengaruhi

hasi pertanian. Secara umum ada dua macam hubungan antara dua atau lebih variabel, yaitu

bentuk hubungan dan keeratan hubungan. Bila ingin mengetahui bentuk hubungan dua

variabel atau lebih, digunakan analisis regresi. Bila ingin melihat keeratan hubungan,

digunakan analisis korelasi. Jika variabel independen lebih dari satu, maka analisis regresi

disebut regresi linear berganda. Disebut berganda karena pengaruh beberapa variabel bebas

akan dikenakan kepada variabel tergantung.

Secara umum, analisis regresi pada dasarnya adalah studi mengenai ketergantungan

variabel dependen (terikat) dengan satu atau lebih variabeel independen (variabel

penjelas/bebas), dengan tujuan untuk mengestimasi dan/atau memprediksi rata-rata populasi

atau nilai ratrata variabel dependen berdasarkan nilai variabel independen yang diketahui

(Gujarati, 2003). Hasil analisis regresi adalah berupa koefisien untuk masing – masing

variabel independen. Dalam analisis regresi (Singgih, 2015), akan dikembangkan sebuah

persamaan regresi, yaitu suatu formula yang mencari nilai variabel dependen dan nilai

variabel independen yang diketahui. Manfaat dari hasil analisis regresi adalah untuk membuat

keputusan apakah naiknya dan menurunnya variabel dependen dapat dilakukan melalui

peningkatan variabel independen atau tidak. Sebagai contoh, naiknya jumlah penjualan dapat

dilakukan melalui jumlah iklan atau tidak. Koefisien ini diperoleh dengan cara memprediksi

nilai variabel dependen dengan suatu persamaan. Koefisien regresi dihitung dengan dua

tujuan sekaligus : pertama, meminimumkan penyimpangan antara nilai aktual dengan nilai

estimasi variabel dependen berdasarkan data yang ada (Tabachnick, 1996).

Sebagai contoh bila ada 3 variabel, yaitu penjualan, biaya iklan dan biaya promosi

penjualan. Pada praktiknya akan dibahas mengenai hubungan antar biaya promosi penjualan

dan biaya iklan terhadap penjualan. Disini berarti variabel dependen penjualan, sedangkan

variabel independennya yaitu biaya iklan dan biaya promosi penjualan. Jika pada korelasi

akan membahas mengenai keeratan hubungan biaya iklan dan biaya promosi penjualan

teradap penjualan, maka metode regresi akan membahas prediksi, dimana penjualan di masa

mendatang bisa diramalkan jika biaya iklan dan biaya promosi penjualan diketahui. Pada

praktinya regresi dibagi menjadi dua, yaitu regresi sederhana jika hanya ada satu variabel

Page 3: makalah regresi

Analisis Regresi Page 2

independen, sedangkan regresi berganda jika lebih dari satu variabel independen

(Singgih;2015).

Kuatnya hubungan antara variabel yang dihasilkan dari analisis korelasi dapat

diketahui dari besar kecilnya koefisien korelasi yang yang harganya antara minus 1 (-1)

sampai dengan plus satu (+1). Koefisien korelasi yang mendekati minus 1 atau plus 1, berarti

hubungan variabel tersebut sempurna negatif atau sempurna positif. Bila koefisien korelasi (r)

tinggi, pada umumnya koefisien regresi (b) juga tinggi, sehingga daya prediktifnya tinggi,

dan sebaliknya. Jika korelasi dan regresi terdapat hubungan yang fungsional sebagai alat

untuk analisis. (Sugiyono, 2015)

Regresi Linier Sederhana

Regresi sederhana didasarkan pada hubungan fungsional ataupun kausal satu variabel

independen dengan satu variabel dependen. Persamaan umum regresi linier sederahana

adalah:

Y = a + bX

Dimana:

Y = subyek dalam variabel dependen yang diprediksikan

a = harga Y ketika harga X = 0 (harga konstan)

b = angka arah atau koefisien regresi, yang menunjukkan angka peningkatan ataupun

penurunan variabel dependen yang didasarkan pada perubahan variabel independen.

Bila (+) arah garis naik, dan bila (-) maka arah garis turun.

X = subyek pada variabel independen yang mempunyai nilai tertentu.

Secara teknis harga b merupakan tangen dari (perbandingan) antara panjang garis

variabel dependen, setelah persamaan regresi ditemukan.

Harga b = r

Harga a = Y – bX

Dimana:

r = koefisien korelasi product moment antara variabel X dengan variabel Y

Sy = simpangan baku variabel Y

Sx = simpangan baku variabel X

Jadi harga b merupakan fungsi dari koefisien korelasi. Bila koefisien korelasi tinggi,

maka harga b juga besar, sebaliknya bila koefisien korelasi rendah maka harga b juga rendah

Page 4: makalah regresi

Analisis Regresi Page 3

(kecil). Selain itu bila koefisien korelasi negatif maka harga b juga negatif, dan sebaliknya

bila koefisien korelasi positif maka harga b juga positif.

Regresi Ganda

Analisis regresi ganda digunakan oleh peneliti, bila peneliti bermaksud meramalkan

bagaimana keadaan (naik turunnya) variabel dependen (kriterium), bila dua atau lebih

variabel independen sebagai faktor prediktor dimanipulasi (dinaik turunkan nilainya). Jadi

analisis regresi ganda akan dilakukan bila jumlah variabel independennya minimal 2.

Persamaan regresi untuk 2 prediktor adalah:

Y = a + b1X1 + b2X2

Persamaan regresi untuk 3 prediktor adalah:

Y = a + b1X1 + b2X2 + b3X3

Persamaan regresi untuk n prediktor adalah:

Y = a + b1X1 + b2X2 + ... + bnXn

Untuk bisa membuat ramalan melalui regresi, maka data setiap variabel harus

tersedia. Selanjutnya berdasarkan data itu peneliti harus dapat menemukan persamaan

melalui hitungan.

Regresi vs Korelasi

Analisis korelasi bertujuan untuk mengukur kekuatan asosiasi (hubungan) linear

antara dua variabel. Korelasi tidak menunjukkan hubungan fungsional atau dengan kata lain

analisis orelasi tidak membedakan antara variabel dependen dengan variabel independen.

Dalam analisis regresi, selain mengukur kekuatan hubungan antara dua variabel atau

lebih, juga menunjukkan arah hubungan antara variabel dependen dengan variabel

independen. Variabel dependen diasumsikan random/stokastik, yang berarti memiliki

distribusi probabilistik. Variabel independen/bebas diasumsikan memiliki nilat tetap (dalam

pengambilan sampel yang berulang).

Teknik estimasi variabel dependen yang melandasi analisis regresi disebut Ordinary

Least Square (pangkat kuadrat terkecil biasa). Inti metode OLS adalah mengestimasi suatu

garis regresi dengan jalan meminimalkan jumlah dari kuadrat kesalahan tiap observasi

terhadap garis tersebut.

Page 5: makalah regresi

Analisis Regresi Page 4

Asumsi Ordinary Least Square (OLS)

Menurut Gujarati (2003) asumsi utama yang mendasari model regresi linear klasik

dengan menggunakan model OLS adalah:

a. Model regresi linear, artinya linear dalam parameter seperti dalam persamaan di bawah

ini:

b. Nilai X diasumsikan non-stokastik, artinya nilai X dianggap tetap dalam sampel yang

berulang

c. Nilai rata-rata kesalahan adalah nol, atau

d. Homoskedastisitas, artinya variance kesalahan sama untuk setiap periode (Homo =

sama, Skedastisitas = sebaran) dan dinyatakan dalam bentuk matematis

e. Tidak ada autokorelasi antar kesalahan (antara ui dan uj tidak ada korelasi) atau secara

matematis

f. Antara ui dan Xi saling bebas, sehingga

g. Jumlah observasi, n, harus lebih besar daripada jumlah parameter yang diestimasi

(jumlah variabel bebas)

h. Adanya variabilitas dalam nilai X, artinya nilai X harus berbeda

i. Model regresi telah dispesifikasi secara benar. Dengan kata lain tidak ada bias

(kesalahan) spesifikasi dalam model yang digunakan dalam analisis empirik.

j. Tidak ada multikolinearitas yang sempurna antar variabel bebas

Menilai Goodness of Fit Suatu Model

Ketepatan fungsi regresi sampel dalam menaksir nilai aktual dapat diukur dari

Goodness of fitnya. Secara statistik, setidaknya ini dapat diukur dari nilai koefisien

determinasi, nilai statistik F dan nilai statistik t. perhitungan statistik disebut signifikan secara

statistik apabila nilai uji statistiknya berada dalam daerah kritik (daerah dimana Ho ditolak).

Sebaliknya disebut tidak signifikan bila nilai uji statistiknya berada dalam daerah dimana Ho

diterima.

1. Koefisien Determinasi

Koefisien determinasi (R2) pada intinya mengukur seberapa jauh kemampuan model

dalam menerangkan variasi variabel dependen. Nilai koefisien determinasi adalah antara

nol dan satu. Nilai R2 yang kecil berarti kemampuan variabel – variabel independen dalam

Page 6: makalah regresi

Analisis Regresi Page 5

menjelaskan variasi variabel dependen amat terbatas. Kelemahan penggunaan koefisien

determinasi adalah bias terhadap jumlah variabel independen yang dimasukkan ke dalam

model. Setiap tambahan satu variabel independen, maka R2 pasti meningkat tidak peduli

apakah variabel tersebut berpengaru secara signifikan terhadap variabel dependen. Oleh

karena itu, banyak peneliti yang menganjurkan menggunakan nilai Adjusted R2 pada saat

mengevaluasi model regresi terbaik karena nilai Adjusted R2 dapat naik atau turun apabila

satu variabel independen ditambah ke dalam model

2. Uji Signifikansi Simultan (Uji statistik F)

Uji statistik F pada dasarnya menunjukkan apakah semua variabel independen yang

dimasukkan dalam model mempunyai pengaruh secara bersama - sama terhadap variabel

dependen. Hipotesis nol (Ho) yang hendak diuji adalah apakah semua parameter dalam

model sama dengan nol, atau :

Ho:b1= b2 =.........= bk = 0

Artinya apakah semua variabel independen bukan merupakan penjelas yang signifikan

terhadap variabel dependen. Hipotesis alternatifnya adalah

HA : b1 ≠ b2 ≠.......≠ bk ≠ 0

Artinya semua variabel dependen secara simultan merupakan penjelas yang signifikan

terhadap variabel dependen. Kriteria pengambilan keputusan dalam uji statistik F adalah

sebagai berikut :

Quick look : bila nilai F lebih besar daripada 4 maka Ho dapat ditolak pada derajat

kepercayaan 5%.

Membandingkan nilai F hasil perhitungan dengan nilai F menurut tabel. Jika F hitung

lebih besar daripada F tabel maka Ho ditolak dan HA diterima.

3. Uji Signifikan Parameter Individual (Uji Statistik t)

Uji statistik t menunjukkan seberapa jauh pengaruh satu variabel penjelas secara

individual dalam menerangkan variasi variabel dependen. Ho yang hendak diuji adalah

apakah suatu parameter (bi) sama dengan nol, atau Ho :bi = 0. Hal ini berarti variabel

independen bukan merupakan penjelas yang signifikan terhadap variabel dependen.

Hipotesis alternatifnya (HA) parameter suatu variabel tidak sama dengan nol, atau HA : bi

≠ 0. Hal ini berarti variabel tersebut merupakan variabel penjelas yang signifikan terhadap

variabel dependen. Kriteria uji statistik t adalah sebagai berikut:

Page 7: makalah regresi

Analisis Regresi Page 6

Quick look : bila jumlah degree of freedom (df) adalah 20 atau lebih, dan derajat

kepercayaan 5%, maka Ho yang menyatakan bi=0 dapat ditolak bila nilai t lebih besar

dari 2 (dalam nilai absolut).

Membandingkan nilai statistik t dengan titik kritis menurut tabel. Apabila nilai statistik

t hasil perhitungan lebih tinggi dibandingkan nilai t tabel, maka HA / hipotesis

alternatif dapat diterima yaitu variabel independen secara individual berpengaruh

singnifikan terhadap variabel dependen.

Standardized Beta Koefisien

Apabila masing-masing koefisien variabel bebas (independen) dilakukan standarisasi

lebih dahulu, maka kita akan mempunyai koefisien yang berbeda karena garis regresi

melewati origin (titik pusat) sehingga tidak ada konstantanya. Keuntungan dengan

menggunakan standardized beta adalah mampu mengeliminasi perbedaan unit ukuran pada

variabel independen. Jika ukuran variabel independen tidak sama (ada kg, Rp, liter, dll) maka

sebaiknya interpretasi persamaan regresi menggunakan standardized beta. Namun demikian,

ada dua hal yang perlu mendapat perhatian jika menggunakan standardized beta: pertama,

koefisien beta digunakan untuk melihat pentingnya masing-masing variabel independen

secara relatif dan tidak ada multikolinearitas antar variabel independen. Kedua, nilai

koefisien beta hanya dapat diinterpretasikan dalam kontek variabel lain dalam persamaan

regresi.

Uji Asumsi Klasik

Tujuan pengujian asumsi klasik ini adalah untuk memberikan kepastian bahwa

persamaan regresi yang didapatkan memiliki ketepatan dalam estimasi, tidak bias dan

konsisten. Uji asumsi klasik yang dikemukakan dalam buku imam ghozali antara lain: uji

multikolinearitas, uji autokorelasi, uji heteroskedastisitas, uji normalitas dan uji linearitas.

1. Uji Asumsi Multikolinieritas

Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya

korelasi antar variabel bebas (independent variable). Model regresi yang baik seharusnya

tidak terjadi korelasi di antara variabel bebas, karena jika hal tersebut terjadi maka

variabel-variabel tersebut tidak ortogonal atau terjadi kemiripan. Variabel ortogonal

adalah variabel bebas yang nilai korelasi antar sesama variabel bebas bernilai nol. Untuk

mendeteksi ada atau tidaknya multikolonieritas di dalam model regresi adalah sebagai

berikut:

Page 8: makalah regresi

Analisis Regresi Page 7

a. Nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi

secara individual variabel – variabel independen banyak yang tidak signifikan

mempengaruhi variabel dependen.

b. Menganalisis matrik korelasi variabel – variabel independen ada korelasi yang cukup

tinggi (umumnya di atas 0.90), maka hal ini merupakan indikasi adanya

multikolonieritas. Multikolonieritas dapat disebabkan karena adanya efek kombinasi

dua atau lebih variabel independen.

c. Multikolonieritas dapat dilihat dari (1) nilai tolerance dan lawannya (2) variance

inflation factor (VIF). Kedua ukuran ini menunjukkan setiap variabel independen

manakah yang dijelaskan oleh variabel independen lainnya. Tolerence mengukur

variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel

independen lainnya. Jadi nilai tolerence yang rendah sama dengan nilai VIF tinggi

(karena VIF = 1/tolerence). Nilai cutoff yang umum dipakai untuk menunjukkan

adanya multikolonieritas adalah nilai tolerence ≤ 0.10 atau sama dengan nilai VIF ≥ 10.

Setiap peneliti harus menentukan tingkat kolonieritas yang masih dapat ditolerir.

Walaupun multikolonieritas dapat dideteksi dengan nilai tolerence dan VIF, tetapi kita

masih tetap tidak mengetahui variabel independen mana saja yang saling berkorelasi.

d. Cara lain mendeteksi ada atau tidaknya multikolonieritas adalah menggunakan cara

regresi parsial.

e. Seperti metode (d), metode ini dikemukakan oleh Farrar dan Glauber (1967). Setelah

dilakukan regresi parsial variabel independen seperti pada point d, dapatkan nilai R2-

nya kemudian hitung nilai F dengan rumus:

R2 x t n - k

F hitung = -------------- x --------------

1 - R2 x t k – 1

R2 x t = nilai R

2 dari hasil estimasi regresi parsial variabel independen

n = jumlah observasi (data)

k = jumlah variabel independen termasuk konstanta

jika nilai F hitung > F tabel, berarti variabel independen berkorelasi dengan variabel

independen lainnya dan ini menunjukkan adanya multikolonieritas.

f. Eigenvalues dan Condition Index (CI)

Pada program komputer SAS diagnosis ada tidaknya multikolonieritas dengan

menggunakan eigenvalues dan condition index.

Condition jumlah k adalah:

Page 9: makalah regresi

Analisis Regresi Page 8

Maximum eigenvalue

k = -----------------------------------------

Minimum eigenvalue

Condition index CI:

Maximum eigenvalue

CI = √ ---------------------------------- = √ k

Minimum eigenvalue

Jika nilai k antara 100 dan 1000, maka terdapat multikoloniertias moderat ke kuat. Jika

k > 1000, maka terdapat multikolonieritas sangat kuat. Dengan cara lain CI (=k)

nilainya antara 10 dan 30 terdapat multikolonieritas moderat ke kuat, jika nilai CI > 30

terdapat multikolonieritas sangat kuat.

Cara mengobati multikolonieritas:

a. Menggabungkan data crossection dan time series (pooling data)

b. Keluarkan satu atau lebih variabel independen yang mempunyai korelasi tinggi dari

model regresi dan identifikasi variabel independen lainnya untuk membantu prediksi.

c. Transformasi variabel merupakan salah satu cara mengurangi hubungan linear diantara

variabel independen. Transformasi dapat dilakukan dalam bentuk logaritma natural dan

bentuk first difference atau delta, caranya:

Yt = b1 + b2 X2t + b3 X3t + ut ..................... (1)

Yt-1 = b1 + b2 X2t-1 + b3 X3t-1 + ut-1 ....... (2)

Kurangkan persamaan (2) dari (1) didapat first difference

Yt – Yt-1 = b2 (X2t – X2t-1) + b3 (X3t – X3t-1) + vt ........... (3)

d. Gunakan model dengan variabel independen yang mempunyai korelasi tinggi hanya

semata-mata untuk prediksi (jangan mencoba untuk menginterpretasikan koefisien

regresinya)

e. Gunakan metode analisis yang lebih canggih seperti Bayesian regression atau dalam

kasus khusus ridge regression

2. Uji Asumsi Autokorelasi

Uji autokorelasi bertujuan untuk menguji apakah dalam model regresi linear ada korelasi

antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t-

1 (sebelumnya). Jika terjadi korelasi, maka dinamakan ada problem autokorelasi.

Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu

sama lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari

Page 10: makalah regresi

Analisis Regresi Page 9

satu observasi ke observasi lainnya. Model regresi yang baik adalah regresi yang bebas

dari autokorelasi. Ada beberapa cara yang dapat digunakan untuk mendeteksi ada atau

tidaknya autokorelasi.

a. Uji Durbin-Watson (DW test)

Uji ini hanya digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan

mensyaratkan adanyaintercept (konstanta) dalam model regresi dan tidak ada variabel

lag diantara variabel independen. Hipotesis yang akan diuji adalah:

H0 : tidak ada autokorelasi (r = 0)

HA : ada autokorelasi (r ≠ 0)

Pengambilan keputusan ada atau tidaknya autokorelasi:

Hipotesis nol Keputusan Jika

Tidak ada autokorelasi positif Tolak 0 < d < dl

Tidak ada autokorelasi positif No desicison dl ≤ d ≤ du

Tidak ada korelasi negatif Tolak 4 – dl < d < 4

Tidak ada korelasi negatif No desicison 4 – du ≤ d ≤ 4 – dl

Tidak ada autokorelasi, positif atau negatif Tidak ditolak du < d < 4 – du

b. Uji Lagrange Multiplier (LM teest)

Uji ini terutama digunakan untuk sampel besar diatas 100 observasi. Uji ini memang

lebih tepat digunakan dibandingkan uji DW terutama bila sample yang digunakan

relatif besar dan derajat autokorelasi lebih dari satu. Uji LM akan menghasilkan

statistik Breusch Godfrey. Pengujian Breusch Godfrey (BG test) dilakukan dengan

meregress variabel pengganggu (residual) ut menggunakan autoregresive model dengan

orde p:

Ut = ρ1 Ut-1 + ρ2 Ut-2 + .......... + ρp Ut-p + εt

Dengan hipotesis nol (H0) adalah ρ1 = ρ2 = ........... = ρp = 0, dimana koefisien

autogresive secara simultan sama dengan nol, menunjukkan bahwa tidak terdapat

autokorelasi pada setiap orde. Secara manual, jika (n-p)*R2 atau C

2 hitung lebih besar

dari C2 tabel, kita dapat menolak hipotesis nol yang menyatakan bahwa tidak ada

autokorelasi dalam model.

c. Uji Statistics Q: Box Pierce dan Ljung Box

Uji Box Pierce dan Ljung Box digunakan untuk melihat autokorelasi dengan lag lebih

dari dua.

Page 11: makalah regresi

Analisis Regresi Page 10

d. Mendeteksi autokorelasi dengan Run test

Run test sebagai bagian dari statistik non-parametrik dapat pula digunakan untuk

menguji apakah antar residual terdapat korelasi yang tinggi. Jika antar residual tidak

terdapat hubungan korelasi maka dikatakan bahwa residual adalah acak atau random.

Run test digunakan untuk melihat apakah data residual terjadi secara random atau tidak

(sistematis).

H0 : residual (res_1) random (acak)

HA : residual (res_1) tidak random

e. Pengobatan autokorelasi

Jika regresi memiliki autokorelasi, maka ada beberapa opsi penyelesaiannya antara lain:

Tentukan apakah autokorelasi yang terjadi merupakan pure autocorrelation dan

bukan karena kesalahan spesifikasi model regresi. Pola residual dapat terjadi karena

adanya kesalahan spesifikasi model yaitu ada variabel penting yang tidak

dimasukkan ke dalam model atau dapat juga karena bentuk fungsi persamaan regresi

tidak benar.

Jika yang terjadi adalah pure auto correlation, maka solusi autokorelasi adalah

dengan menstransformasi model awal menjadi model difference. Misalkan kita

memiliki model regresi dengan dua variabel sebagai berikut:

Yt = β1 + β2Xt + μt 7.1

Dan diasumsikan bahwa residual atau error mengikuti autoregressive AR (1) seperti

berikut:

μt = ρμt-1 + εt -1 < ρ < 1 7.2

sekarang kita memiliki asumsi (1) ρ diketahui nilainya dan (2) ρ tidak diketahui

nilainya.

Asumsi ρ diketahui

Jika koefisien first order autocorrelation diketahui, maka masalah autokorelasi dapat

diselesaikan dengan mudah. Jika persamaan 7.1 benar untuk waktu t, maka akan

benar juga dengan waktu t-1, sehingga:

Yt-1 = β1 + β2Xt-1 + μt-1 7.3

Sisi kanan dan kiri dari persamaan (7.3) dikalikan dengan ρ diperoleh persamaan

sebagai berikut:

ρYt-1 = ρβ1 + ρβ2Xt-1 + ρμt-1 7.4

Page 12: makalah regresi

Analisis Regresi Page 11

kurangkan persamaan dari (7.4) dari persamaan (7.1) akan diperoleh persamaan

sebagai berikut:

(Yt-ρYt-1 = β1 (1-ρ) β2 (Xt-ρXt-1) + εt 7.5

Dimana εt = (μt - ρμt-1)

Persamaan (7.5) dapat dinyatakan sebagai berikut:

Yt* = β1* + β2*Xt* + εt 7.6

Oleh karena residual persamaan (7.6) memenuhi asumsi OLS maka kita dapat

menggunkan estimasi OLS untuk menaksir persamaan (7.6). menaksir persamaan

(7.6) adalah melakukan regresi dengan metode estimasi Generalized Least Square

(GLS). Regresi persamaan (7.6) disebut dengan generalized, atau quasi atau

difference equation.

3. Uji Asumsi Heteroskedastisitas

Uji ini bertujuan untuk menguji apakah dalam model regresi terjadi atau terdapat

ketidaksamaan varians dari rersidual dari satu pengamatan ke pengamatan yang lain. Jika

varians dari nilai residual dari satu pengamatan ke pengamatan yang lain tetap, maka

disebut dengan Homokedastisitas. Dan jika varians berbeda dari satu pengamatan ke

pengamatan yang lainnya, maka disebut Heteroskedastisitas. Model regresi yang baik

adalah yang homokedastisitas atau tidak terjadi heterokedastisitas. Kebanyakan data

crossection mengandung situasi heteroskedastisitas karena data ini menghimpun data yang

mewakili berbagai ukuran (kecil, sedang, dan besar).

Ada beberapa cara untuk mendeteksi ada atau tidaknya heterokedastisitas:

a. Melihat grafik plot antara nilai prediksi variabel terikat (dependen) yaitu ZPRED

dengan residualnya SRESID. Deteksi ada tidaknya heteroskedastisitas dapat dilakukan

dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan

ZPRED dimana sumbu Y adalah Y yang telah diprediksi, dan sumbu X adalah residual

(Y prediksi – Y sesungguhnya) yang telah di studentized.

Dasar analisis:

Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang

teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah

terjadi heterokedastisitas.

Jika tidak ada pola yang jelas, serta titik-titik menyebar diatas dan dibawah angka 0

pada sumbu Y, maka tidak terjadi heteroskedastisitas.

Page 13: makalah regresi

Analisis Regresi Page 12

Dari grafik Scatterplot terlihat bahwa titik-titik menyebar secara acak serta tersebar

baik diatas maupun dibawah angka 0 pada sumbu Y. Jadi dapat disimpulkan bahwa

model pada penelitian ini memenuhi syarat untuk menjadi model yang baik karena

merupakan model yang homoskedastisitas atau varians dari nilai residual pengamatan

satu ke pengamatan yang lain tetap.

Analisis dengan grafik plots memiliki kelemahan yang cukup signifikan oleh karena

jumlah pengamatan memengaruhi hasil ploting. Semakin sedikit jumlah pengamatan

semakin sulit menginterpretasikan hasil grafik plot. Oleh sebab itu diperlukan uji

statistik yang lebih dapat menjamin keakuratan hasil. Ada beberapa uji statistik yang

dapat digunakan untuk mendeteksi ada tidaknya heterokedastisitas.

Uji Park

Park mengemukakan metode bahwa variance (s2) merupakan fungsi dari variabel-

variabel independen yang dinyatakan dalam persamaan sebagai berikut:

σ2i = α Xiβ

Persamaan ini dijadikan linear dalam bentuk persamaan logaritma sehingga menjadi:

Ln σ2i = α + β LnXi + vi

Karena s2i umumnya tidak diketahui, maka dapat ditaksir dengan menggunakan

residual Ut sebagai proksi, sehingga persamaan menjadi:

LnU2i = α + β LnXi + vi

Apabila koefisien parameter beta dari persamaan regresi tersebut signifikan secara

statistik, hal ini menunjukkan bahwa dalam data model empiris yang diestimasi

terdapat heterokedastisitas, dan sebaliknya jika parameter beta tidak signifikan

Page 14: makalah regresi

Analisis Regresi Page 13

secara statistik, maka asumsi homokedastisitas pada data model tersebut tidak dapat

ditolak.

Uji Glejser

Glejser mengusulkan untuk meregres nilai absolut residual terhadap variabel

independen (Gujarati, 2003) dengan persamaan regresi:

= α + βXt + vt

Jika variabel independen signifikan secara statistik memengaruhi variabel dependen,

maka ada indikasi terjadi heterokedastisitas.

Uji White

Pada dasarnya uji white mirip dengan kedua uji Park dan Glejser. Menurut White,

uji ini dapat dilakukan dengan meregres residual kuadrat (U2t) dengan variabel

independen, variabel independen kuadrat dan perkalian (interaksi) variabel

independen. Misalkan kita punya dua variabel independen X1 dan X2 maka

persamaan regresinya sebagai berikut:

U2t = b0 + b1X1 + b2X2 + b3X1

2 + b4X2

2 + b5 X1X2

Dari persamaan regresi ini dapatkan nilai R2 untuk menghitung c

2 dimana c

2 = n x

R2 (Gujarati, 2003). Pengujiannya adalah jika c

2 hitung < c

2 tabel maka hipotesis

alternatif adanya heterokedastisitas dalam model ditolak.

b. Cara Memperbaiki Model Jika Terdapat Heterokedastisitas

Berdasarkan pada pola heterokedastisitas maka dapat dilakukan transformasi variabel

untuk mengobati adanya heterokedastisitas. Ada beberapa asumsi pola

heterokedastisitas antara lain:

Misalkan kita mempunyai model regresi dua variabel sebagai berikut:

Yi = β1 + β2Xi + μi (7.17)

Asumsi 1: error variance σ2i proporsional terhadap X

2i

Asumsi 2: error variance σ2i proporsional terhadap variabel independen Xi, atau

disebut transformasi akar kuadrat

Asumsi 3: error variance σ2i proporsional terhadap kuadrat nilai mean Y

Asumsi 4: lakukan transformasi dalam bentuk logaritma

4. Uji Asumsi Normalitas

Uji ini bertujuan untuk menguji apakah dalam sebuah model regresi, variabel independen,

variabel dependen, atau keduanya mempunyai distribusi normal atau tidak. Suatu model

regresi yang baik adalah yang memiliki distribusi data normal atau mendekati normal.

Page 15: makalah regresi

Analisis Regresi Page 14

Uji normalitas bertujuan untuk menguji apakah didalam model regresi variabel

pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji F dan t

mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini

dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil. Ada dua cara

untuk mendeteksi apakah residual berdistribusi normal atau tidak yaitu dengan analisis

grafik dan uji statistik.

a. Analisis Grafik

Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat

grafik histogram yang membandingkan antara data observasi dengan distribusi yang

mendekati distribusi normal. Namun demikian, hanya dengan melihathistogram hal ini

dapat menyesatkan khususnya untuk jumlah sampel yang kecil. Metode yang handal

adalah dengan melihat normal probability plot yang membandingkan distribusi

komulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus

diagonal, dan ploting data residual akan dibandingkan dengan garis diagonal. Jika

distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya

akan mengikuti garis diagonalnya.

Page 16: makalah regresi

Analisis Regresi Page 15

Dengan melihat tampilan grafik Histogram maupun grafik Normal P-Plot of

Regression Standardized Residual dapat disimpulkan bahwa grafik histogram

memberikan pola distribusi yang normal. Sedangkan pada grafik normal plot, terlihat

titik-titik menyebar disekitar garis diagonal. Kedua grafik ini menunjukkan bahwa

model regresi tidak menyalahi asumsi normalitas. Jadi dapat disimpulkan bahwa model

regresi pada penelitian ini memenuhi syarat untuk menjadi model regresi yang baik

karena merupakan model regresi yang memiliki distribusi data normal atau mendekati

normal.

Pada prinsipnya normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada

sumbu diagonal dari grafik atau dengan melihat histogram dari residualnya. Dasar

pengambilan keputusan:

Jika data menyebar disekitar garis diagonal dan mengikuti arah garis diagonal atau

grafik histogramnya menunjukkan pola distribusi normal, maka model regresi

memenuhi asumsi normalitas.

Jika data menyebar jauh dari diagonal dan/atau tidak mengikuti arah garis diagonal

atau garis histogram tidak menunjukkan pola distribusi normal, maka model regresi

tidak memenuhi asumsi normalitas.

b. Uji Statistik

Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati secara visual

kelihatan normal, padahal secara statistik bisa sebaliknya. Oleh sebab itu dianjurkan

selain uji grafik dilengkapi dengan uji statistik. Uji statistik sederhana dapat dilakukan

Page 17: makalah regresi

Analisis Regresi Page 16

dengan melihat nilai kurtosis dan skewness dari residual. Nilai z statistik untuk

skewness dapat dihitung dengan rumus:

skewness

Zskewness = -------------------------

√ 6/N

Sedangkan nilai z kurtosis dapat dihitung dengan rumus:

skurtosis

Zkurtosis = -------------------------

√ 24/N

Dimana N adalah jumlah sampel, jika nilai Z hitung > Z tabel maka distribusi tidak

normal.

Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji

statistik non-parametrik Kolmogorov=Smirnov (K-S). Uji K-S dilakukan dengan

membuat hipotesis:

H0 : data residual berdistribusi normal

HA : data residual tidak berdistribusi normal

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,

Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tetapi signifikansinya jauh dari

nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi

data, melakukan trimming data outliers atau menambah data observasi.

5. Uji Asumsi Linearitas

Uji linieritas dilakukan dengan melihat scatterplot antara standar residual dengan

prediksinya. Bila sebaran tidak menunjukkan pola tertentu maka dikatakan asumsi

linieritas memenuhi syarat.

Page 18: makalah regresi

Analisis Regresi Page 17

Hasil pengujian menunjukkan scatterplot tidak membentuk pola tertentu sehingga dapat

disimpulkan bahwa model pada penelitian ini memenuhi syarat untuk menjadi model yang

baik karena asumsi linieritas terpenuhi.

Uji ini digunakan untuk melihat apakah spesifikasi model yang digunakan sudah benar

atau tidak. Dengan uji linearitas akan diperoleh informasi apakah model empiris sebaiknya

linier, kuadrat atau kubik. Ada beberapa uji yang dapat dilakukan diantaranya:

a. Uji Durbin Watson

Uji ini biasanya dilakukan untuk melihat ada atau tidaknya autokorelasi dalam suatu

model regresi. Dengan mendasarkan pada nilai D-W tabel, dibandingkan nilai statistik.

Jika signifikan atau berada pada daerah autokorelasi positif, maka spesifikasi model

persamaan utama adalah salah atau misspecification.

b. Ramsey Test

Uji ini dikembangkan oleh Ramsey pada tahun 1969. Ramsey menyarankan suatu uji

yang disebut general test of specification atau RESET. Untuk melakukan uji ini kita

harus membuat suatu asumsi atau keyakinan bahwa fungsi yang benar adalah fungsi

linear. Uji ini dilakukan untuk menghasilkan F hitung, dengan cara:

Dapatkan fitted value dari variabel dependen dengan cara dari linear regression, pilih

save dan aktifkan Dfit pada influence statistic.

Kemudian variabel fitted tersebut di regres bersama-sama dengan model semula

sebagai variabel independen. Dapatkan nilai R2 untuk menghitung F statistik dengan

rumus:

(R2new – R

2old) / m

F = ----------------------------

(1 - R2new) / (n-k)

m = jumlah variabel independen yang baru masuk

n = jumlah data observasi

k = banyaknya parameter dalam persamaan yang baru

R2new = nilai R

2 dari persamaan regresi baru

R2old = nilai R

2 dari persamaan regresi awal

Dari hasil perhitungan nilai F hitung, kemudian dibandingkan dengan F tabel. Jika F

hitung > F tabel maka hipotesis nol yang menyatakan bahwa spesifikasi model

dalam bentuk fungsi linear ditolak.

Page 19: makalah regresi

Analisis Regresi Page 18

c. Uji Langrange Multiplier

Uji ini merupakan uji alternatif dari Ramsey test dan dikembangkan oleh Engle tahun

1982. Estimasi dengan uji ini bertujuan untuk mendapatkan nilai c2 hitung atau (nxR

2).

Variabel Dummy

Permasalahan yang sering dihadapi adalah adanya variabel independen yang berskala

ukuran non-metrik atau kategori. Jika variabel independen berukuran kategori atau dikotomi,

maka dalam model regresi variabel tersebut harus dinyatakan sebagai variabel dummy

dengan memberi kode 0 (nol) atau 1 (satu). Setiap variabel dummy menyatakan satu kategori

variabel independen non-metrik, dan setiap variabel non metrik dengan k kategori dapat

dinyatakan dalam k-1 variabel dummy.

Cara pemberian kode dummy umumnya menggunakan kategori yang dinyatakan

dengan angka 1 atau 0. Kelompok yang diberi nilai dummy 0 (nol) disebut excluded group,

sedangkan kelompok yang diberi nilai dummy 1 (satu) disebut included group (Mirer, 1990).

Chow Test

Chow test adalah alat untuk menguji test for equality of coefficients atau uji kesamaan

koefisien dan test ini ditemukan oleh Gregory Chow. Jika hasil observasi yang sedang kita

teliti dapat dikelompokkan menjadi dua atau lebih kelompok, maka pertanyaan yang timbul

adalah apakah kedua atau lebih kelompok tadi merupakan subyek proses ekonomi yang sama.

Page 20: makalah regresi

Analisis Regresi Page 19

Contoh Kasus

P.T. CEMERLANG dalam beberapa bulan gencar mempromosikan sejumlah peralatan

elektronik dengan membuka outlet-outlet di berbagai daerah. Berikut adalah data mengenai

Penjualan, Biaya promosi, Jumlah Outlet, laju penduduk, jumlah pesaing dan income

masyarakat yang ada di 15 daerah di Indonesia:

Disini karena akan diketahui besar hubungan atau seberapa jauh Biaya Promosi Luas Outlet,

Laju pertambahan Penduduk, Kompetitor dan Income Penduduk berpengaruh terhadap

Penjualan P.T. CEMERLANG, maka akan dilakukan uji regresi, dengan variabel dependen

adalah Sales/Penjualan, dan variabel independen adalah kelima variabel diatas. Karena ada

lebih dari satu variabel independen, maka uji regresi tersebut dinamakan uji regresi berganda.

1. Pemasukan data ke SPSS

Karena isi data regresi berganda sama dengan regresi sederhana, dengan tambahan tiga

variabel, maka tidak perlu dilakukan pemasukan data ulang. Inputing hanya dilakukan

untuk menambah ketiga variabel baru tersebut. Langkah-langkahnya adalah:

Buka lembar regresi_berganda_2

Page 21: makalah regresi

Analisis Regresi Page 20

Prosedur menambah tiga variabel: Klik mouse pada sheet tab Variable View yang ada

dibagian kiri bawah, atau langsung tekan CTRL-T. Tampak di layar:

Pengisian

Variabel LAJU_PEN

Karena ini variabel kelima, tempatkan pointer pada baris 5.

Name. Sesuai kasus, ketik laju_pen.

Decimals. Untuk keseragaman, ketik 0.

Variabel PESAING

Karena ini variabel keenam, tempatkan pointer pada baris 6.

Name. Sesuai kasus, ketik pesaing.

Decimals. Untuk keseragaman, ketik 0.

Variabel INCOME

Karena ini variabel keenam, tempatkan pointer pada baris 6.

Name. Sesuai kasus, ketik income.

Decimals. Untuk keseragaman, ketik 0.

Abaikan bagian yang lain. Kemudian tekan CTRL-T untuk kembali

ke DATA VIEW.

2. Mengisi Data

Letakkan pointer pada baris kelima variabel LAJU_PEN, lalu isi data sesuai kasus diatas

(tentu variabel ini berupa sebuah angka). Demikian untuk dua variabel tambahan yang

lain. Kemudian simpan data diatas dengan nama regresi_berganda_2

3. Pengolahan Data dengan SPSS:

Dalam bab ini akan dilakukan tiga cara mencari persamaan regresi berganda (Multiple

Regression), yaitu:

Page 22: makalah regresi

Analisis Regresi Page 21

A. Backward Elimination

Langkah-langkah:

o Buka file regresi_berganda_2.

o Menu Analyze Æ Regression Æ Linear...

Tampak di layar:

Pengisian:

Dependent; masukkan variabel sales.

Independent(s)atau variabel bebas. Dalam hal ini masukkan variabel promosi,

outlet, laju_pen, pesaingdan income.

Case Labels; masukkan variabel daerah.

Method atau cara memasukkan/seleksi variabel. Sesuai kasus, pilih Backward.

Pilih kolom Statistics dengan klik mouse pada pilihan tersebut. Tampak di layar:

Page 23: makalah regresi

Analisis Regresi Page 22

Pilihan ini berkenaan dengan perhitungan statistik regresi yang akan

digunakan. Perhatikan default yang ada di SPSS adalah Estimates dan Model

fit. Pengisian:

Regression Coefficient atau perlakuan koefisien regresi, pilih default atau

ESTIMATE.

Klik mouse pada pilihan Descriptivedan Collinearity diagnostics pada kolom

sebelah kanan, selain pilihan Model fit.

Pilihan Residuals dikosongkan saja

Klik Continue untuk kembali ke kotak dialog utama.

Pilihan-pilihan yang lainnya untuk keseragaman tidak dibahas disini.

Tekan OK untuk proses data.

Output SPSS dan Analisis:

Simpan output dengan nama regresi_berganda_back.

ANALISIS:

Berikut output bagian pertama dan kedua dari analisis regresi berganda:

Page 24: makalah regresi

Analisis Regresi Page 23

Analisis:

Descriptive Statistics

Bagian ini menjelaskan ringkasan statistik singkat masing-masing variabel.

Rata-rata Sales (dengan jumlah data 15 buah) adalah Rp. 246,4 juta dengan

standar deviasi Rp. 41,11 juta.

Rata-rata Income (dengan jumlah data 15 buah) adalah Rp. 3,328 juta dengan

standar deviasi Rp. 922.100,-

Rata-rata Laju Penduduk (dengan jumlah data 15 buah) adalah 1,9833% dengan

standar deviasi 0,507%.

Luas outlet rata-rata (dengan jumlah data 15 buah) adalah 187,93 m 2 dengan

standar deviasi 38,09 m2.

Rata-rata Biaya Promosi (dengan jumlah data 15 buah) adalah Rp. 34,67 juta

dengan standar deviasi Rp. 9,68 juta.

Page 25: makalah regresi

Analisis Regresi Page 24

Pesaing rata-rata (dengan jumlah data 15 buah) adalah 16,2 buah, dan dibulatkan

17 kompetitor dengan standar deviasi 3,88.

Korelasi:

Lihat kolom satu:

Besar hubungan antar variabel Sales dengan variabel bebas, dengan diurutkan dari

terbesar ke terkecil:

Promosi = 0,916

Outlet = 0,901

Pesaing = 0,744

Income = 0,287 (tanda ‘ – ‘ hanya menunjukkan arah hubungan yang berlawanan)

Laju penduduk = 0,143 (tanda ‘ – ‘ hanya menunjukkan arah hubungan yang

berlawanan).

Hal ini menunjukkan variabel pesaing dan laju penduduk mempunyai korelasi yang lemah

(dibawah 0,5).

Terjadi korelasi yang cukup kuat antara variabel Promosi dengan Outlet dan

Pesaing (korelasi antar variabel tersebut diatas 0,5). Hal ini menandakan adanya

multikolinieritas, atau korelasi diantara ketiga variabel bebas tersebut.

Tingkat signifikansi koefisien korelasi satu sisi dari output (diukur dari

probabilitas) menghasilkan angka yang bervariasi, dengan catatan variabel laju

penduduk dan income tidak berkorelasi secara signifikan (mempunyai nilai

signifikansi diatas 0,05) dengan variabel lainnya.

Page 26: makalah regresi

Analisis Regresi Page 25

Bagian ketiga dan keempat dari output diatas:

Analisis:

Metode backward dimulai dengan memasukkan semua variabel (lihat Model 1 yang

mempunyai keterangan ENTER). Kemudian dilakukan analisis dan variabel yang tidak

layak masuk dalam regresi dikeluarkan satu persatu.

Model ke 2 menyatakan bahwa variabel yang dikeluarkan (removed) adalah variabel

Income. Kemudian pada Model ke 3, variabel laju_pen yang dikeluarkan. Pada Model ke

4 atau terakhir, variabel pesaing yang dikeluarkan.

Dengan demikian, setelah melewati 4 tahapan, variabel bebas yang layak dimasukkan

dalam model regresi adalah variabel Promosi dan Outlet.

Page 27: makalah regresi

Analisis Regresi Page 26

Analisis:

Keterangan Adjusted R Square

Seperti telah disebut didepan, ada 4 tahapan analisis, dimana pada setiap tahapan ada

variabel yang harus dikeluarkan dari model regresi. Pada tabel diatas, pada Model 1,

terlihat Adjusted R Square (R2

yang disesuaikan) adalah 0,928. Perhatikan bahwa untuk

regresi dengan lebih dari dua variabel bebas, digunakan Adjusted R2

sebagai koefisien

determinasi. Kemudian pada Model ke 2, dengan mengeluarkan variabel Income (liha

keterangan b. Predictordibawah tabel dimana variabel Income sudah hilang), maka R2

yang disesuaikan menjadi 0,935, atau terjadi peningkatan.

Demikian seterusnya hingga pada model final (ke 4), R2

yang disesuaikan meningkat

menjadi 0,944. Semakin tinggi R2

yang disesuaikan akan semakin baik bagi model

regresi, karena variabel bebas bisa menjelaskan variabel tergantung lebih besar. Disini

berarti 94,4% variasi Sales perusahaan bisa dijelaskan oleh variabel biaya promosi dan

outlet yang disewa. Sedangkan sisanya (100% - 94,4% = 5,6%) dijelaskan oleh

sebabsebab yang lain.

Keterangan Standar Error of Estimate

Juga terlihat dari model diatas, terjadi penurunan besar Standar Error of Estimate, dari

11,05 (Rp.11,05 juta) pada model 1, menjadi 9,76 (Rp.9,76 juta) pada model ke 4. Selain

itu, karena lebih kecil dari standar deviasi Sales (Rp.41,1 juta), maka model regresi lebih

bagus dalam bertindak sebagai prediktor Sales daripada Rata-rata Sales itu sendiri.

Page 28: makalah regresi

Analisis Regresi Page 27

Bagian kelima dan keenam dari output:

Analisis:

Dari uji ANOVA atau F test, didapat F hitung untuk model 4 atau model yang dipakai

adalah 118,294 dengan tingkat signifikansi 0,0000. Karena probabilitas (0,000) jauh lebih

kecil dari 0,05, maka model regresi bisa dipakai untuk memprediksi Sales. Atau bisa

dikatakan, Promosi dan Luas Outlet yang disewa secara bersama-sama berpengaruh

terhadap Sales.

Page 29: makalah regresi

Analisis Regresi Page 28

Analisis:

Keterangan Collinearity Statistics

Perhatikan kolom TOLERANCE atau toleransi. Sebagai contoh pada model 1 untuk

variabel Income, didapat besar tolerance adalah 0,750. Hal ini berarti R2

adalah 1 – 0,750

atau 0,250. Hal ini berarti hanya 25 % variabilitas Income bisa dijelaskan oleh prediktor

(variabel bebas) yang lain.

Default bagi SPSS bagi angka tolerance adalah 0,0001. Semua variabel yang akan

dimasukkan dalam perhitungan model regresi harus mempunyai tolerance diatas 0,0001.

Terlihat bahwa semua variabel telah memenuhi persyaratan ambang toleransi.

o Perhatikan kolom VIF

VIF atau Variance Inflation factor mempunyai persamaan:

VIF = 1 / TOLERANCE

Sebagai contoh, pada model 1 untuk variabel Income, didapat besar tolerance 0,750.

Maka besar VIF adalah:

VIF = 1 / 0,75 = 1,333

Pada umumnya, jika VIF lebih besar dari 5, maka variabel tersebut mempunyai persoalan

multikolinieritas dengan variabel bebas yang lainnya. Jika dilihat pada tabel diatas, maka

variabel bebas pesaing dan Promosi mempunyai VIF lebih dari 5, sehingga bisa diduga

ada persoalan multikolinieritas (korelasi yang besar diantara variabel bebas). Jika dilihat

pada model 4,terlihat kedua variabel bebas (OUTLET dan PROMOSI) mempunyai VIF

dibawah 5 (2,177), yang berarti tidak terdapat multikolinieritas. Untuk analisis

multikolinieritas yang lebih lengkap, lihat bagian lain analisis dibawah.

Menggambarkan persamaan regresi

Pada model 4 pada tabel diatas, pada kolom Unstandardized Coefficient, didapat

persamaan regresi:

Y = 64,639 + 2,342 X1 + 0,535 X2

Dimana:

Y = Sales

X1 = Biaya Promosi

X2 = Luas Outlet

Persamaan tersebut sama dengan persamaan regresi berganda pada kasus terdahulu,

dimana hanya terdapat variabel bebas Promosi dan Outlet.

Page 30: makalah regresi

Analisis Regresi Page 29

Persamaan tersebut berarti:

o Konstanta sebesar 64,639 menyatakan bahwa jika tidak ada Biaya promosi atau

Outlet yang disewa perusahaan, maka Sales adalah Rp.64,639 juta.

o Koefisien regresi X1sebesar 2,342 menyatakan bahwa setiap penambahan (karena

tanda +) Rp. 1,- Biaya Promosi akan meningkatkan Sales sebesar Rp. 2,342.

o Koefisien regresi X2 sebesar 0,535 menyatakan bahwa setiap penambahan (karena

tanda +) 1 m2

Luas Outlet yang disewa akan meningkatkan Sales sebesar Rp. 0,535.

Uji t untuk menguji signifikansi konstanta dan variabel dependen (promosi).

Berdasarkan Probabilitas:

Jika probabilitas > 0,05, maka Ho diterima.

Jika probabilitas < 0,05, maka Ho ditolak.

Keputusan:

Terlihat bahwa pada kolom Sig / significance adalah 0,000, atau probabilitas jauh

dibawah 0,05, Maka Ho ditolak, atau koefisien regresi signifikan, atau promosi benar -

benar berpengaruh secara signifikan terhadap Sales.

Demikian juga untuk analisis konstanta dan outlet dengan dua cara tadi dihasilkan angka

konstanta dan outlet yang signifikan.

Bagian ketujuh dari Output:

Page 31: makalah regresi

Analisis Regresi Page 30

Analisis:

Bagian ini membahas ada tidaknya multikolinieritas atau terjadinya korelasi diantara

sesama variabel bebas. Model regresi yang baik tentunya tidak ada multikolinier atau

adanya korelasi diantara variabel bebas.

Perhatikan kolom-kolom pada tabel diatas:

Eigenvalue. Multikolinieritas akan terjadi jika nilai Eugen mendekati 0

Condition Index. Multikolinieritas akan terjadi jika indeks melebihi 15, dan benar-

benar serius problem tersebut jika indeks sampai melebihi 30.

Pada model terakhir yang dipakai (model 4), terlihat nilai variabel bebas Promosi dan

Outlet (kode 2 dan 3) mempunyai nilai Eugen yang mendekati 0, dan ada indeks variabel

bebas yang melebihi angka 15. Hal ini berarti ada dugaan terjadi problem

multikolinieritas, yaitu adanya korelasi diantara variabel Promosi dan Outlet.

Untuk menyelesaikan problem model regresi dengan adanya multikolinieritas, bisa dilihat

pada buku statistik lanjutan.

Output bagian delapan:

Analisis:

Bagian ini membahas proses mengeluarkan (elimination) variabel bebas yang tidak layak

dimasukkan dalam model regresi. Eliminasi didasarkan pada besaran t (hitung).

Pada model 1 dicari variabel bebas dengan t hitung TERKECIL, yang didapat variabel

Income (perhatikan yang dilihat BESAR t HITUNG, sedangkan TANDA t HITUNG

TIDAK BERPENGARUH), maka variabel Income dikeluarkan (excluded). Demikian

seterusnya hingga didapat tiga variabel bebas (model 4) yang dikeluarkan dari model

regresi.

Page 32: makalah regresi

Analisis Regresi Page 31

B. Forward Elimination

Metode ini sebenarnya sama dengan prosedur Backward, hanya disini variabel bebas

dimasukkan tidak sekaligus, namun satu persatu.

Langkah-langkah:

Buka file regresi_berganda_2.

Menu Analyze Æ Regression Æ Linear...

Tampak di layar kotak dialog LINEAR REGRESSION.

Pengisian:

Dependent atau variabel tergantung. Pilih variabel sales

Independent(s)atau variabel bebas. Pilih variabel promosi, outlet, laju_pen,

pesaing dan income.

Case Labels atau keterangan pada kasus. Pilih daerah.

Method atau cara memasukkan/seleksi variabel. Sesuai dengan kasus, pilih

Forward.

Pilih kolom Statistics dengan klik mouse pada pilihan tersebut. Tampak di

layar:

Page 33: makalah regresi

Analisis Regresi Page 32

Pengisian:

Regression Coefficient atau perlakuan koefisien regresi, pilih default atau

ESTIMATE.

Klik mouse pada pilihan Descriptivedan Collinearity diagnostics pada kolom

sebelah kanan, selain pilihan Model fit.

Pilihan Residuals dikosongkan saja.

Klik Continue untuk kembali ke kotak dialog sebelumnya.

Pilihan-pilihan yang lainnya untuk keseragaman tidak dibahas disini.

Tekan OK untuk proses data.

Output SPSS dan Analisis:

Simpan output dengan nama regresi_berganda_for

ANALISIS:

(tidak semua output dibahas)

Bagian satu dan dua output:

Output regresi berganda untuk dua bagian ini sama dengan metode Backward,

sehingga analisis bisa dilihat pada metode Backward di depan.

Bagian ketiga dan keempat dari output diatas:

Page 34: makalah regresi

Analisis Regresi Page 33

Analisis:

Metode forward dimulai dengan memasukkan satu per satu variabel, dan terlihat pada

tabel diatas, dari lima variabel bebas, hanya dua variabel (Promosi dan Outlet) yang

layak masuk dalam model regresi. Disini Model 1 hanya memasukkan variabel

Promosi, dan Model 2 menambahkan variabel Oulet dalam model regresi.

Analisis:

Adjusted R Square

Perhatikan bahwa untuk regresi dengan lebih dari dua variabel bebas, digunakan

Adjusted R2 sebagai koefisien determinasi (ada lima variabel bebas). Terlihat pada

model 1, hasil Adjusted R2 adalah 0,839.

Kemudian pada model 2, dengan penambahan variabel Outlet, R2

yang disesuaikan

meningkat menjadi 0,944. Semakin tinggi R2

yang disesuaikan akan semakin baik bagi

model regresi, karena variabel bebas bisa menjelaskan variabel tergantung lebih besar.

Disini berarti 94,4% Sales perusahaan bisa dijelaskan oleh variabel biaya promosi dan

outlet yang disewa. Sedangkan sisanya (100 % - 94,4 % = 5,6 %) dijelaskan oleh

sebab-sebab yang lain.

Standar Error of Estimate

Juga terlihat dari model diatas, terjadi penurunan besar Standar Error of Estimate, dari

17,13 (Rp. 17,13 juta) pada model 1, menjadi 9,76 (Rp.9,76 juta) pada model ke 2.

Selain itu, karena lebih kecil dari standar deviasi Sales (Rp. 41,1 juta), maka model

regresi lebih bagus dalam bertindak sebagai prediktor Sales daripada Rata-rata Sales

itu sendiri.

Page 35: makalah regresi

Analisis Regresi Page 34

Bagian kelima dan keenam dari output:

Analisis:

Dari uji ANOVA atau F test, didapat F hitung untuk model 2 atau model yang dipakai

adalah 118,294 dengan tingkat signifikansi 0,0000. Karena probabilitas (0,000) jauh

lebih kecil dari 0,05, maka model regresi bisa dipakai untuk memprediksi Sales. Atau

bisa dikatakan, Promosi dan Luas Outlet yang disewa secara bersama - sama

berpengaruh terhadap Sales.

Analisis:

Collinearity Statistics

Perhatikan kolom TOLERANCE atau toleransi.

Sebagai contoh pada model 2 untuk variabel promosi, didapat besar tolerance adalah

0,459. Hal ini berarti R2adalah 1 – 0,459 atau 0,541. Hal ini berarti hanya 54,1 %

variabilitas promosi bisa dijelaskan oleh prediktor (variabel bebas) yang lain.

Default bagi SPSS bagi angka tolerance adalah 0,0001. Semua variabel yang akan

dimasukkan dalam perhitungan model regresi harus mempunyai tolerance diatas

0,0001. Terlihat bahwa semua variabel telah memenuhi persyaratan ambang toleransi.

Page 36: makalah regresi

Analisis Regresi Page 35

Perhatikan kolom VIF

Sebagai contoh, pada model 1 untuk variabel promosi, didapat besar tolerance 0,459.

Maka besar VIF adalah:

VIF = 1 / 0,459 = 2,177

Pada umumnya, jika VIF lebih besar dari 5, maka variabel tersebut mempunyai

persoalan multikolinieritas dengan variabel bebas yang lainnya. Jika dilihat pada tabel

diatas, maka variabel bebas Outlet dan Promosi mempunyai VIF kurang dari 5,

sehingga bisa diduga tidak ada persoalan multikolinieritas yang serius.

menggambarkan persamaan regresi:

Pada model 4, didapat persamaan regresi:

Y = 64,639 + 2,342 X1 + 0,535 X2

Dimana:

Y = Sales

X1 = Biaya Promosi

X2 = Luas Outlet

Persamaan tersebut sama dengan persamaan regresi berganda pada kasus terdahulu,

dimana hanya terdapat variabel bebas Promosi dan Outlet.

Persamaan tersebut berarti:

Konstanta sebesar 64,639 menyatakan bahwa jika tidak ada Biaya promosi atau

Outlet yang disewa perusahaan, maka Sales adalah Rp.64,639 juta.

Koefisien regresi X1 sebesar 2,343 menyatakan bahwa setiap penambahan

(karena tanda +) Rp. 1,- Biaya Promosi akan meningkatkan Sales sebesar Rp.

2,342.

Koefisien regresi X2 sebesar 0,535 menyatakan bahwa setiap penambahan

(karena tanda +) 1 m2

Luas Outlet yang disewa akan meningkatkan Sales sebesar Rp. 0,535.

Uji t untuk menguji signifikansi konstanta dan variabel dependen (promosi).

Berdasarkan Probabilitas:

Jika probabilitas > 0,05, maka Ho diterima

Jika probabilitas < 0,05, maka Ho ditolak

Keputusan:

Page 37: makalah regresi

Analisis Regresi Page 36

Terlihat bahwa pada kolom Sig / significance adalah 0,000, atau probabilitas jauh

dibawah 0,05, Maka Ho ditolak, atau koefisien regresi signifikan, atau promosi benar -

benar berpengaruh secara signifikan terhadap Sales.

Demikian juga untuk analisis konstanta dan outlet dengan dua cara tadi dihasilkan

angka konstanta dan outlet yang signifikan.

Bagian ketujuh dari Output :

Analisis:

Bagian ini membahas ada tidaknya multikolinieritas atau terjadinya korelasi diantara

sesama variabel bebas. Model regresi yang baik tentunya tidak ada multikolinier atau

adanya korelasi diantara variabel bebas.

Pada model terakhir yang dipakai (model 4), terlihat nilai variabel bebas Promosi dan

Outlet (kode 2 dan 3) mempunyai nilai Eugen yang mendekati 0. Sedangkan indeks

variabel Outlet melebihi angka 15. Hal ini berarti ada dugaan terjadi problem

multikolinieritas, yaitu adanya korelasi diantara variabel Promosi dan Outlet.

Untuk menyelesaikan problem model regresi dengan adanya multikolinieritas, bisa

dilihat pada buku statistik lanjutan.

Output bagian delapan:

Page 38: makalah regresi

Analisis Regresi Page 37

Analisis:

Pada model 1 dicari variabel bebas dengan t hitung TERBESAR, hingga empat

variabel dengan t hitung lebih kecil dikeluarkan. Pada model 2, dilanjutkan dengan

mengeluarkan tiga variabel, dan memasukkan variabel Outlet dalam model regresi.

Perhatikan bahwa cara perhitungan dengan Forward menghasilkan model regresi yang

sama dengan perhitungan Backward.

C. Stepwise Elimination

Metode Stepwise adalah salah satu metode yang sering dipakai dalam analisis regresi.

Metode ini hampir sama dengan Forward , hanya disini variabel yang telah

dimasukkan dalam model regresi bisa dikeluarkan lagi dari model. Metode ini dimulai

dengan memasukkan variabel bebas yang punya korelasi paling kuat dengan variabel

dependen. Kemudian setiap kali pemasukan variabel bebas yang lain, dilakukan

pengujian untuk tetap memasukkan variabel bebas atau mengeluarkannya.

Kasus yang dipakai tetap kasus P.T. CEMERLANG dengan tujuh variabel.

Langkah-langkah:

o Buka file regresi_berganda_2.

o Menu Analyze ÆRegression ÆLinear...

Tampak di layar kotak dialog LINEAR REGRESSION.

Pengisian:

o Dependent atau variabel tergantung. Pilih variabel sales.

o Independent(s)atau variabel bebas. Pilih variabel promosi, outlet, laju_pen,

pesaing dan income.

o Case Labels atau keterangan pada kasus. Pilih daerah.

o Method atau cara memasukkan /seleksi variabel. Sesuai dengan kasus, pilih

Stepwise.

Pilih kolom Statistics, dengan pengisian:

Regression Coefficient atau perlakuan koefisien regresi, pilih default atau

ESTIMATE.

Klik mouse pada pilihan Descriptivedan Collinearity diagnostics pada kolom

sebelah kanan, selain pilihan Model fit.

Pilihan Residuals dikosongkan saja

Page 39: makalah regresi

Analisis Regresi Page 38

Klik Continue untuk kembali ke kotak dialog sebelumnya.

Pilihan-pilihan yang lainnya untuk keseragaman tidak dibahas disini.

Tekan OK untuk mengakhiri pengisian prosedur analisis. Terlihat SPSS melakukan

pekerjaan analisis.

Output SPSS dan Analisis:

Simpan output dengan nama regresi_berganda_step

TAMPILAN BEBERAPA OUTPUT:

Regression

Page 40: makalah regresi

Analisis Regresi Page 39

ANALISIS:

Dari berbagai tabel output, terlihat bahwa semuanya sama persis dengan hasil dari metode

Forward. Karena itu, analisis sama dengan analisis metode Forward yang telah dijelaskan di

depan.

PENUTUP

Dari analisis regresi berganda yang menggunakan tiga metode, yaitu Backward, Forward dan

Stepwise, didapat kesimpulan yang sama, yaitu:

Hanya dua variabel bebas yang dimasukkan dalam model regresi, yaitu PROMOSI dan

OUTLET. Sedangkan persamaan regresi yang didapat adalah:

Y = 64,639 + 2,342 X1 + 0,535 X2

Dimana:

Y = Sales, sedang X1= Biaya Promosi, dan X2= Luas Outlet.