19
PROSEDUR PROSEDUR POPULER STATISTIK UNTUK MEMPERMUDAH RISET SKRIPSI Oleh: Jonathan Sarwono Email: [email protected] Web: http://www.jonathansarwono.info Abstract This writing is aimed at introducing several popular statistic procedures in relation to the prospective research that will be conducted by S1 students. By knowing these procedures, students will be assisted in carrying out their prospective research. Kata Kunci Riset skripsi, asosiasi, perbandingan rata-rata, pengaruh, dan prediksi I. PENDAHULUAN Skripsi merupakan puncak karya ilmiah mahasiswa S1 oleh karena itu dalam melaksanakan riset untuk menyusun skripsi diperlukan kemampuan yang memadai tidak hanya dalam isinya yang menyangkut bidang ilmu, tetapi juga menyangkut masalah metodologi riset dan prosedur analisis datanya. Tulisan ini sekedar memberikan gambaran umum bahwa dalam riset yang menggunakan pendekatan kuantitatif terdapat beberapa prosedur analisis data yang populer dan frekuensi penggunaannya tinggi di kalangan mahasiswa S1. Beberapa prosedur tersebut sebenarnya merupakan prosedur prosedur yang memotret gambaran persoalan riset di kalangan mahasiswa S1 yang dapat dengan mudah diselesaikan. Persoalan tersebut ialah: Mendeskripsikan gejala yang diamati Menghubung-hubungkan antara gejala yang satu dengan yang lain Membandingkan gejala satu dengan gejala yang lain. Melihat pengaruh gejala yang satu terhadap gejala yang lain Memprediksi perubahan gejala yang satu dengan menggunakan gejala yang lain. Persoalan pertama, mendeskripsikan gejala yang sedang diamati dalam statistik dikenal dengan statistik deskriptif, yaitu menggambarkan data dengan menggunakan, misalnya distribusi frekuensi, persen, rata- rata dan lain-lainnya. Masalah kedua, menghubung-hubungkan antara gejala yang satu dengan yang lain dalam statistik dikenal sebagai asosiasi, yang meliputi prosedur-prosedur korelasi, seperti korelasi Pearson Product Moment, Korelasi Berjenjang Spearman, Korelasi Peringkat Kendal, Sommer, dan lain sebagainya. Halnya dengan masalah yang ketiga, yaitu membandingkan gejala satu dengan gejala yang lain dalam statistik dikenal sebagai prosedur-prosedur yang digunakan untuk membandingkan rata-rata, seperti uji t sampel dependen, uji t sampel independen, ANOVA, MANOVA, ANCOVA dan lain-lainnya. Masalah keempat, melihat pengaruh gejala yang satu terhadap gejala yang lain yang dalam statistik dikenal sebagai prosedur yang digunakan untuk melihat pengaruh satu variabel terhadap variabel lainnya, seperti regresi linier sederhana, berganda dan analisis jalur. Sedang untuk memprediksi perubahan gejala yang satu dengan menggunakan gejala yang lain dalam statistik digunakan prosedur

PROSEDUR – PROSEDUR POPULER STATISTIK UNTUK

Embed Size (px)

Citation preview

PROSEDUR – PROSEDUR POPULER STATISTIK UNTUK MEMPERMUDAH RISET SKRIPSI

Oleh: Jonathan Sarwono

Email: [email protected]

Web: http://www.jonathansarwono.info

Abstract

This writing is aimed at introducing several popular statistic procedures in relation to the prospective research that will be conducted by S1 students. By knowing these procedures, students will be assisted in carrying out their prospective research.

Kata Kunci

Riset skripsi, asosiasi, perbandingan rata-rata, pengaruh, dan prediksi

I. PENDAHULUAN Skripsi merupakan puncak karya ilmiah mahasiswa S1 oleh karena itu dalam melaksanakan riset untuk menyusun skripsi diperlukan kemampuan yang memadai tidak hanya dalam isinya yang menyangkut bidang ilmu, tetapi juga menyangkut masalah metodologi riset dan prosedur analisis datanya. Tulisan ini sekedar memberikan gambaran umum bahwa dalam riset yang menggunakan pendekatan kuantitatif terdapat beberapa prosedur analisis data yang populer dan frekuensi penggunaannya tinggi di kalangan mahasiswa S1.

Beberapa prosedur tersebut sebenarnya merupakan prosedur – prosedur yang memotret gambaran persoalan riset di kalangan mahasiswa S1 yang dapat dengan mudah diselesaikan. Persoalan tersebut ialah:

Mendeskripsikan gejala yang diamati

Menghubung-hubungkan antara gejala yang satu dengan yang lain

Membandingkan gejala satu dengan gejala yang lain.

Melihat pengaruh gejala yang satu terhadap gejala yang lain

Memprediksi perubahan gejala yang satu dengan menggunakan gejala yang lain.

Persoalan pertama, mendeskripsikan gejala yang sedang diamati dalam statistik dikenal dengan statistik deskriptif, yaitu menggambarkan data dengan menggunakan, misalnya distribusi frekuensi, persen, rata-rata dan lain-lainnya. Masalah kedua, menghubung-hubungkan antara gejala yang satu dengan yang lain dalam statistik dikenal sebagai asosiasi, yang meliputi prosedur-prosedur korelasi, seperti korelasi Pearson Product Moment, Korelasi Berjenjang Spearman, Korelasi Peringkat Kendal, Sommer, dan lain sebagainya. Halnya dengan masalah yang ketiga, yaitu membandingkan gejala satu dengan gejala yang lain dalam statistik dikenal sebagai prosedur-prosedur yang digunakan untuk membandingkan rata-rata, seperti uji t sampel dependen, uji t sampel independen, ANOVA, MANOVA, ANCOVA dan lain-lainnya. Masalah keempat, melihat pengaruh gejala yang satu terhadap gejala yang lain yang dalam statistik dikenal sebagai prosedur yang digunakan untuk melihat pengaruh satu variabel terhadap variabel lainnya, seperti regresi linier sederhana, berganda dan analisis jalur. Sedang untuk memprediksi perubahan gejala yang satu dengan menggunakan gejala yang lain dalam statistik digunakan prosedur

yang dapat digunakan untuk memprediksi fluktuasi nilai variabel tergantung dengan menggunakan variabel bebas sebagai predictor. Dalam tulisan ini, penulis tidak membahas prosedur analisis untuk memperoleh nilai-nilai statistik deskriptif. Sebagai tambahan penulis juga sedikit membahas mengenai beberapa prosedur yang merupakan generalisasi prosedur-prosedur yang termasuk dalam model General Liner Model (GLM), seperti regresi linier, ANOVA, MANOVA dan sejenisnya yang disebut sebagai prosedur Generalized Liner Model (GLZ) dan perluasan model GLM yang disebut dengan Liniear Mixed Model (LMM) dan prosedur yang termasuk dalam kategori multivariat. Prosedur – prosedur ini jarang digunakan oleh mahasiswa S1, kecuali regresi linier berganda; sekalipun demikian mahasiswa layak untuk setidak-tidaknya mengenalnya.

II. PROSEDUR – PROSEDUR DALAM KATEGORI ASOSIASI

Prosedur – prosedur yang termasuk dalam kategori asosiasi yang akan dibahas disini ialah mengenai korelasi Pearson Product Moment dan korelasi Rank Spearman. Pada dasarnya kedua korelasi ini sama. Letak perbedaannya ialah korelasi Pearson mengikuti asumsi normalitas dan linieritas dengan data berskala metrik, setidak-tidaknya berskala interval; sedang korelasi Spearman tidak mengikuti asumsi tersebut dan menggunakan data dengan skala non-metrik setidak-tidaknya data berskala ordinal. Apa itu korelasi dan bagaimana karakteristiknya. Bagian berikut akan membahas masalah tersebut.

2.1 Pengertian Korelasi

Korelasi merupakan teknik analisis yang termasuk dalam salah satu teknik pengukuran asosiasi / hubungan (measures of association). Pengukuran asosiasi merupakan istilah umum yang mengacu pada sekelompok teknik dalam statistik bivariat yang digunakan untuk mengukur kekuatan hubungan antara dua variabel. Diantara sekian banyak teknik-teknik pengukuran asosiasi, terdapat dua teknik korelasi yang sangat populer sampai sekarang, yaitu Korelasi Pearson Product Moment dan Korelasi Rank Spearman.

Pengukuran asosiasi mengenakan nilai numerik untuk mengetahui tingkatan asosiasi atau kekuatan hubungan antara dua variabel atau lebih. Dua variabel dikatakan berasosiasi jika perilaku variabel yang satu berhubungan dengan variabel yang lain.

Korelasi bermanfaat untuk mengukur kekuatan hubungan antara dua variabel (kadang lebih dari dua variabel) dengan skala-skala tertentu, misalnya Pearson data harus berskala interval atau rasio; sedang Spearman menggunakan skala ordinal. Kuat lemah hubungan diukur diantara jarak (range) 0 sampai dengan 1. Korelasi mempunyai kemungkinan pengujian hipotesis dua arah (two tailed). Korelasi searah jika nilai koefesien korelasi diketemukan positif; sebaliknya jika nilai koefesien korelasi negatif, korelasi disebut tidak searah. Yang dimaksud dengan koefesien korelasi ialah suatu pengukuran statistik kovariasi atau asosiasi antara dua variabel. Jika koefesien korelasi diketemukan tidak sama dengan nol (0), maka terdapat ketergantungan antara dua variabel tersebut. Jika koefesien korelasi diketemukan +1. maka hubungan tersebut disebut sebagai korelasi sempurna atau hubungan linear sempurna dengan kemiringan (slope) positif. Jika koefesien korelasi diketemukan -1. maka hubungan tersebut disebut sebagai korelasi sempurna atau hubungan linear sempurna dengan kemiringan (slope) negatif.

Dalam korelasi sempurna tidak diperlukan lagi pengujian hipotesis, karena kedua variabel mempunyai hubungan linear yang sempurna. Artinya variabel X mempengaruhi variabel Y secara sempurna. Jika korelasi sama dengan nol (0), maka tidak terdapat hubungan antara kedua variabel tersebut.

Dalam korelasi sebenarnya tidak dikenal istilah variabel bebas dan variabel tergantung karena sifat hubungan independen. Artinya variabel yang satu tidak tergantung dengan variabel lainnya. Biasanya dalam penghitungan digunakan simbol X untuk variabel pertama dan Y untuk variabel kedua. Dalam contoh hubungan antara variabel remunerasi dengan kepuasan kerja, maka variabel remunerasi merupakan variabel X dan kepuasan kerja merupakan variabel Y.

2.2 Kegunaan

Pengukuran asosiasi berguna untuk mengukur kekuatan (strength) hubungan antar dua variabel atau lebih. Contoh: mengukur hubungan antara variabel:

Tingkat kecerdasan dengan produktivitas kerja pegawai

Kualitas produk dengan kepuasan konsumen

Tingkat suku bunga Bank dengan naik turunya nilai IHSG Pengukuran ini hubungan antara dua variabel untuk masing-masing kasus akan menghasilkan keputusan, diantaranya:

Hubungan kedua variabel tidak ada

Hubungan kedua variabel lemah

Hubungan kedua variabel cukup kuat

Hubungan kedua variabel kuat

Hubungan kedua variabel sangat kuat Penentuan tersebut didasarkan pada kriteria yang menyebutkan jika hubungan mendekati 1, maka hubungan semakin kuat; sebaliknya jika hubungan mendekati 0, maka hubungan semakin lemah.

2.3 Korelasi Dalam Kaitannya Dengan Konsep Linieritas

Terdapat hubungan erat antara pengertian korelasi dan linieritas. Korelasi Pearson, misalnya, menunjukkan adanya kekuatan hubungan linier dalam dua variabel. Sekalipun demikian jika asumsi normalitas salah maka nilai korelasi tidak akan memadai untuk membuktikan adanya hubungan linieritas. Linieritas artinya asumsi adanya hubungan dalam bentuk garis lurus antara variabel. Linearitas antara dua variabel dapat dinilai melalui observasi scatterplots bivariat. Jika kedua variabel berdistribusi normal dan behubungan secara linier, maka scatterplot berbentuk oval; jika tidak berdistribusi normal scatterplot tidak berbentuk oval.

Dalam praktinya kadang data yang digunakan akan menghasilkan korelasi tinggi tetapi hubungan tidak linier; atau sebaliknya korelasi rendah tetapi hubungan linier. Dengan demikian agar linieritas hubungan dipenuhi, maka data yang digunakan harus mempunyai distribusi normal. Dengan kata lain, koefesien korelasi hanya merupakan statistik ringkasan sehingga tidak dapat digunakan sebagai sarana untuk memeriksa data secara individual.

2.4 Asumsi Untuk Penggunaan Korelasi

Asumsi dasar korelasi diantaranya seperti tertera di bawah ini:

Kedua variabel bersifat independen satu dengan lainnya, artinya masing-masing variabel berdiri sendiri dan tidak tergantung satu dengan lainnya. Tidak ada istilah variabel bebas dan variabel tergantung. Jika digunakan istilah varaibel X dan Y itu hanya untuk mempermudah dalam penghitungan melalui rumus yang ada.

Data untuk kedua variabel berdistribusi normal untuk korelasi Pearson. Data yang mempunyai distribusi normal artinya data yang distribusinya simetris sempurna dengan nilai rata-rata di puncak dan nilai-nilai di atas dan dibawah rata-rata simetris.

2.5 Karakteristik Korelasi

Korelasi mempunyai karakteristik-karakteristik diantaranya:

Kisaran (range) korelasi mulai dari 0 sampai dengan 1. Korelasi dapat positif dan dapat pula negatif.

Korelasi sama dengan 0 mempunyai arti tidak ada hubungan antara dua variabel.

Korelasi sama dengan + 1 artinya kedua variabel mempunyai hubungan linier sempurna (membentuk garis lurus) positif. Korelasi sempurna seperti ini mempunyai makna jika nilai X naik, maka Y juga naik.

Korelasi sama dengan -1 artinya kedua variabel mempunyai hubungan linier sempurna (membentuk garis lurus) negatif. Korelasi sempurna seperti ini mempunyai makna jika nilai X naik, maka Y turun (dan sebaliknya).

2.6 Pengertian Koefesien Korelasi

Koefesien korelasi ialah pengukuran statistik kovarian atau asosiasi antara dua variabel. Besarnya koefesien korelasi berkisar antara +1 s/d -1. Koefesien korelasi menunjukkan kekuatan (strength) hubungan linear dan arah hubungan dua variabel acak. Jika koefesien korelasi positif, maka kedua variabel mempunyai hubungan searah. Artinya jika nilai variabel X tinggi, maka nilai variabel Y akan tinggi pula. Sebaliknya, jika koefesien korelasi negatif, maka kedua variabel mempunyai hubungan terbalik. Artinya jika nilai variabel X tinggi, maka nilai variabel Y akan menjadi rendah (dan sebaliknya). Untuk memudahkan melakukan interpretasi mengenai kekuatan hubungan antara dua variabel penulis memberikan kriteria sebagai berikut:

o 0 : Tidak ada korelasi antara dua variabel o >0 – 0,25: Korelasi sangat lemah o >0,25 – 0,5: Korelasi cukup o >0,5 – 0,75: Korelasi kuat o >0,75 – 0,99: Korelasi sangat kuat o 1: Korelasi sempurna

2.7 Signifikansi

Apa sebenarnya signifikansi itu? Dalam bahasa Inggris umum, kata, "significant" mempunyai makna penting; sedang dalam pengertian statistik kata tersebut mempunyai makna “benar” tidak didasarkan secara kebetulan. Hasil riset dapat benar tapi tidak penting. Signifikansi / probabilitas / α memberikan

gambaran mengenai bagaimana hasil riset itu mempunyai kesempatan untuk benar. Jika kita memilih signifikansi sebesar 0,01, maka artinya kita menentukan hasil riset nanti mempunyai kesempatan untuk benar sebesar 99% dan untuk salah sebesar 1%.

Secara umum kita menggunakan angka signifikansi sebesar 0,01; 0,05 dan 0,1. Pertimbangan penggunaan angka tersebut didasarkan pada tingkat kepercayaan (confidence interval) yang diinginkan oleh peneliti. Angka signifikansi sebesar 0,01 mempunyai pengertian bahwa tingkat kepercayaan atau bahasa umumnya keinginan kita untuk memperoleh kebenaran dalam riset kita adalah sebesar 99%. Jika angka signifikansi sebesar 0,05, maka tingkat kepercayaan adalah sebesar 95%. Jika angka signifikansi sebesar 0,1, maka tingkat kepercayaan adalah sebesar 90%.

Pertimbangan lain ialah menyangkut jumlah data (sample) yang akan digunakan dalam riset. Semakin kecil angka signifikansi, maka ukuran sample akan semakin besar. Sebaliknya semakin besar angka signifikansi, maka ukuran sample akan semakin kecil. Unutuk memperoleh angka signifikansi yang baik, biasanya diperlukan ukuran sample yang besar. Sebaliknya jika ukuran sample semakin kecil, maka kemungkinan munculnya kesalahan semakin ada.

2.8 Interpretasi Korelasi

Ada tiga penafsiran hasil analisis korelasi, meliputi: pertama, melihat kekuatan hubungan dua variabel; kedua, melihat signifikansi hubungan; dan ketiga, melihat arah hubungan.

Untuk melakukan interpretasi kekuatan hubungan antara dua variabel dilakukan dengan melihat angka koefesien korelasi hasil perhitungan dengan menggunakan kriteria sbb:

o Jika angka koefesien korelasi menunjukkan 0, maka kedua variabel tidak mempunyai hubungan

o Jika angka koefesien korelasi mendekati 1, maka kedua variabel mempunyai hubungan semakin kuat

o Jika angka koefesien korelasi mendekati 0, maka kedua variabel mempunyai hubungan semakin lemah

o Jika angka koefesien korelasi sama dengan 1, maka kedua variabel mempunyai hubungan linier sempurna positif.

o Jika angka koefesien korelasi sama dengan -1, maka kedua variabel mempunyai hubungan linier sempurna negatif.

Interpretasi berikutnya melihat signifikansi hubungan dua variabel dengan didasarkan pada angka signifikansi yang dihasilkan dari penghitungan dengan ketentuan sebagaimana sudah dibahas di bagian diatas di atas. Interpretasi ini akan membuktikan apakah hubungan kedua variabel tersebut signifikan atau tidak.

Interpretasi ketiga melihat arah korelasi. Dalam korelasi ada dua arah korelasi, yaitu searah dan tidak searah. Pada SPSS hal ini ditandai dengan pesan two tailed. Arah korelasi dilihat dari angka koefesien korelasi. Jika koefesien korelasi positif, maka hubungan kedua variabel searah. Searah artinya jika

variabel X nilainya tinggi, maka variabel Y juga tinggi. Jika koefesien korelasi negatif, maka hubungan kedua variabel tidak searah. Tidak searah artinya jika variabel X nilainya tinggi, maka variabel Y akan rendah.

2.9 Uji Hipotesis Dalam Korelasi

Pengujian hipotesis uintuk korelasi secara manual digunakan uji T. Rumusnya sebagai berikut:

Pengambilan keputusan menggunakan angka pembanding t tabel dengan kriteria sebagai berikut:

Jika t hitung (observasi) > t table (nilai kritis) H0 ditolak; H1 diterima

Jika t hitung (observasi) < t table H0 (nilai kritis) diterima; H1 ditolak

Disamping menggunakan cara diatas, cara kedua ialah menggunakan angka signifikansi dalam prosedur SPSS. SPSS menggunakan signifikansi sebagai cara pengujian hipotesis. Dan cara seperti ini jauh lebih mudah dibandingkan dengan cara di atas. Menggunakan nilai signifiknasi sebagai pengujian hipotesis, caranya sebagai berikut:

Hipotesis berbunyi sbb:

o H0: Tidak ada hubungan signifikan antara kepuasan konsumen dengan loyalitas o H1: Ada hubungan signifikan antara kepuasan konsumen dengan loyalitas pegawai

Keputusan menggunakan kriteria sbb:

o Jika angka signifikansi hasil riset < 0,05 (alpha / α), maka H0 ditolak. o Jika angka signifikansi hasil riset > 0,05, (alpha / α) maka H0 diterima

Perlu kita ketahui jika nilai korelasi sama dengan 1 atau -1; maka tidak diperlukan uji hipotesis karena korelasi disebut korelasi sempurna. Korelasi sempurna tidak memerlukan uji hipotesis karena sudah mencerminkan kondisi populasi.

2.10 Korelasi dan Kausalitas

Ada perbedaan mendasar antara korelasi dan kausalitas. Jika kedua variabel dikatakan berkorelasi, maka kita tergoda untuk mengatakan bahwa variabel yang satu mempengaruhi variabel yang lain atau dengan kata lain terdapat hubungan kausalitas. Kenyataannya belum tentu. Hubungan kausalitas terjadi jika variabel X mempengaruhi Y. Jika kedua variabel diperlakukan secara simetris (nilai pengukuran tetap sama seandainya peranan variabel-variabel tersebut ditukar) maka meski kedua variabel berkorelasi tidak dapat dikatakan mempunyai hubungan kausalitas. Dengan demikian, jika terdapat dua variabel yang berkorelasi, tidak harus terdapat hubungan kausalitas.

Terdapat dictum yang mengatakan “correlation does not imply causation”. Artinya korelasi tidak dapat digunakan secara valid untuk melihat adanya hubungan kausalitas dalam variabel-variabel. Dalam korelasi aspek-aspek yang melandasi terdapatnya hubungan antar variabel mungkin tidak diketahui atau tidak langsung. Oleh karena itu dengan menetapkan korelasi dalam hubungannya dengan variabel-variabel yang diteliti tidak akan memberikan persyaratan yang memadai untuk menetapkan hubungan kausalitas kedalam variabel-variabel tersebut. Sekalipun demikian bukan berarti bahwa korelasi tidak dapat digunakan sebagai indikasi adanya hubungan kausalitas antar variabel. Korelasi dapat digunakan sebagai salah satu bukti adanya kemungkinan terdapatnya hubungan kausalitas tetapi tidak dapat memberikan indikasi hubungan kausalitas seperti apa jika memang itu terjadi dalam variabel-variabel yang diteliti, misalnya model recursive, dimana X mempengaruhi Y atau non-recursive, misalnya X mempengaruhi Y dan Y mempengaruhi X.

Dengan untuk mengidentifikasi hubungan kausalitas tidak dapat begitu saja dilihat dengan kaca mata korelasi tetapi sebaiknya menggunakan model-model yang lebih tepat, misalnya regresi, analisis jalur (path analysis) atau structural equation modelling (SEM).

III. PROSEDUR – PROSEDUR DALAM KATEGORI MEMBANDINGKAN RATA-RATA

Uji T digunakan untuk menilai apakah rata-rata dua kelompok secara statistik berbeda satu dengan yang lain. Penggunaan uji t cocok ketika kita akan membandingkan rata-rata dua kelompok serta untuk menganalisis desain experimental posttest dua kelompok yang dipilih secara random (posttest-only two-group randomized experimental design). Yang dimaksud dengan perbedaan rata-rata secara statistik ialah adanya perbedaan variabilitas atau sebaran data antara kelompok yang dibandingkan. Maksudnya dua kelompok mempunyai perbedaan rata-rata jika sebaran data atau variabilitas berbeda satu dengan yang lain. Analisis uji t digunakan untuk menguji perbedaan tersebut.

Asumsi penggunaan uji t diantaranya ialah:

Data harus berdistribusi normal

Data berskala interval atau rasio

Ada kesamaan varian dengan menggunakan nilai pengujian F atau pengujian Levene

Tidak melanggar asumsi sphericity, yaitu asumsi ini mengatakan varian suatu variabel akan membentuk lingkaran dengan diagonal bernilai 1. Jika asumsi ini dilanggar, maka diperlukan faktor koreksi menggunakan prosedur Greenhouse – Geisser atau Hyunh – Feldt yang intinya ialah mengubah nilai Degree of Freedom (DF) dengan cara mengkalikan dengan nilai epsilon (ε). Sehingga kita akan mendapatkan nilai DF yang baru yang akan digunakan sebagai referensi keputusan pengujian hipotesis yang baru.

Sampel dapat dependen atau independen tergantung pada hipotesis dan jenis sampel. Sampel independen biasanya dua kelompok yang dipilih secara random. Sedang sampel dependen apat dua kelompok yang dipasangkan pada variabel tertentu atau orang yang sama yang diuji dua kali atau disebut sebagai pengujian berulang.

3.1 Uji t Dependen / Sampel Berpasangan

Uji t sampel berpasangan digunakan untuk membandingkan rata-rata dua variabel dalam satu kelompok. Penghitungan dilakukan dengan cara mencari perbedaan antara nilai-nilai dua variabel untuk masing-masing kasus dan kemudian mengujinya apakah terdapat perbedaan rata-rata di atas nilai 0.

Asumsi dasar penggunaan uji t sampel berpasangan ialah observasi atau penelitian untuk masing-masing pasangan harus dalam kondisi yang sama. Perbedaan rata-rata harus berdistribusi normal. Varian untuk masing-masing variabel dapat sama atau tidak sama. Sekalipun demikian sebaiknya sama agar tidak melanggar asumsi sphericity. Untuk menggunakan uji t diperlukan data yang setidak-tidaknya berskala interval

Yang dimaksud dengan sampel berpasangan ialah kita menggunakan sampel yang sama tetapi pengujian dilakukan terhadap sampel tersebut dua kali dalam waktu yang berbeda atau dengan menggunakan interval waktu tertentu. Pengujian dilakukan dengan memberikan suatu perlakuan khusus (treatment) terhadap sampel tersebut. Pengujian pertama dilakukan sebelum ada perlakuan dan pengujian kedua.

3.2 Uji t Independen / Sampel Bebas

Uji t sampel bebas digunakan untuk membandingkan rata-rata dua kelompok kasus yang independen. Agar supaya hasil penelitiannya baik, subjek yang diteliti harus dipilih secara random untuk kedua kelompok yang dibandingkan. Hal ini dilakukan jika ada perbedaan dalam jawaban dikarenakan oleh adanya perlakuan atau kurangnya perlakuan (treatment) bukan karena faktor lain. Kegunaan prosedur ini ialah untuk membandingkan rata-rata dua sampel kecil. Persyaratan yang harus dipenuhi ialah kedua sampel mempunyai varians yang sama dan data harus berdistribusi normal.

3.3 ANOVA

ANOVA, yang merupakan generalisasi dari uji t, digunakan pada situasi saat peneliti ingin membandingkan nilai rata-rata dari variabel tergantung disemua kelompok yang dibandingkan. Keanggotaan masing-masing kelompok diidentifikasi oleh nilai-nilai masing-masing kelompok yang didasarkan pada variabel bebas / predictor yang berskala kategorikal / non-metrik. Fungsi predictor ini ialah untuk mewakili kelompok-kelompok yang ada atau sengaja dibuat oleh peneliti. Jika kelompok-kelompok ini sengaja dibuat maka riset ini merupakan riset eksperimental. Variabel predictor ini disebut sebagai faktor sedang kelompok-kelompok yang dibandingkan disebut tingkatan faktor.

Prosedur analisis One-Way ANOVA akan menghasilkan analisis satu faktor untuk sebuah variabel tergantung dengan satu buah variabel bebas. Kegunaan utama teknik ini ialah untuk menguji hipotesis yang membuktikan rata-rata sama atau tidak. Teknik analisis ini merupakan perluasan dari teknik uji t dengan dua sampel. Perbedaan pokok dengan uji t ialah : jika uji t digunakan untuk membandingkan nilai rata-rata variabel tergantung pada dua kelompok; maka pada teknik ANOVA satu faktor kita dapat membandingkan kelompok lebih dari dua yang mempunyai rata-rata sama atau berbeda. Kelebihan lain ANOVA ialah kita tidak hanya dapat membandingkan rata-rata subyek yang dibandingkan tetapi juga antar subyek (sampel). Hal yang tidak dapat dilakukan dengan menggunakan uji t.

Dalam membandingkan teknik anova satu faktor menggunakan metode pengujian hubungan antara satu variabel tergantung yang berskala interval atau ratio (metrik) dengan satu atau lebih variabel berskala nominal / ordinal (non-metrik).

Untuk menggunakan prosedur anova harus dipenuhi beberapa persyaratan diantaranya ialah:

Keragaman Varians: variabel tergantung harus mempunyai keragaman varians (homogeneity of variance) pada setiap kategori variabel bebasnya. Untuk mengetahui keragaman varians dilihat dari angka probabilitas (significance) pada Levene’s Test of Homogeneity of Variance. Ketentuannya ialah: Untuk mendapatkan keragaman varians, maka angka probabilitasnya harus diatas 0,05. Ketentuan ini didasarkan pada keputusan penerimaan hipotesis. Jika angka probabilitas > 0,05 maka H0 dierima; artinya varians kelompok yang dibandingkan sama. Jika ini terjadi maka persyaratan terpenuhi. Jika angka probabilitas < 0,05 maka H0 ditolak; artinya varians kelompok yang dibandingkan tidak sama dengan demikian persyaratan tidak dapat dipenuhi dan proses analisa selanjutnya tidak dapat diteruskan.

Sampel Acak: dalam pengujian signifikansi, subyek dalam setiap kelompok harus dipilih secara acak atau dengan kata lain menggunakan teknik probabilitas.

Data berskala interval Kelompok yang dibandingkan berasal dari sampel yang berbeda / responden yang berbeda

antar kelompok Variabel bebas: non-metrik / berskala ordinal; variabel tergantung : metrik / berskala interval Tidak melanggar asumi sphericity

IV. PROSEDUR – PROSEDUR DALAM KATEGORI UNTUK MELIHAT PENGARUH VARIABEL BEBAS TERHADAP VARIABEL TERGANTUNG

Prosedur yang akan dibahas dalam kategori ini ialah regresi linier sederhana dan regresi linier berganda.

4.1 Regresi Linier Sederhana

Apa yang dimaksud dengan regresi linier sederhana? Regresi linier sederhana digunakan untuk mengukur besarnya pengaruh variabel bebas terhadap variabel tergantung dan memprediksi variabel tergantung dengan menggunakan variabel bebas. Gujarati (2006) mendefinisikan analisis regresi sebagai kajian terhadap hubungan satu variabel yang disebut sebagai variabel yang diterangkan (the explained variable) dengan satu atau dua variabel yang menerangkan (the explanatory). Variabel pertama disebut juga sebagai variabel tergantung dan variabel kedua disebut juga sebagai variabel bebas. Jika variabel bebas lebih dari satu, maka analisis regresi disebut regresi linear berganda. Disebut berganda karena pengaruh beberapa variabel bebas akan dikenakan kepada variabel tergantung.

Adapun tujuan menggunakan analisis regresi ialah a) membuat estimasi rata-rata dan nilai variabel tergantung dengan didasarkan pada nilai variabel bebas; b) menguji hipotesis karakteristik dependensi; dan c) untuk meramalkan nilai rata-rata variabel bebas dengan didasarkan pada nilai variabel bebas diluar jangkauan sample.

Apa saja asumsi – asumsi yang mendasari regresi linear sederhana? Asumsi-asumsi tersebut diantaranya ialah: a) model regresi harus linier dalam parameter; b) variabel bebas tidak berkorelasi dengan disturbance term (Error); c) nilai disturbance term sebesar 0 atau dengan simbol sebagai berikut: (E (U / X) = 0; d) varian untuk masing-masing error term (kesalahan) konstan; d) tidak boleh terjadi otokorelasi;

e) model regresi dispesifikasi secara benar. Tidak terdapat bias spesifikasi dalam model yang digunakan dalam analisis empiris; dan f) jika variabel bebas lebih dari satu, maka antara variabel bebas (explanatory) tidak ada hubungan linier yang nyata.

Syarat kelayakan apa saja yang harus dipenuhi saat kita menggunakan regresi linier sederhana ? Kelayakan model regresi linear didasarkan pada hal-hal sebagai berikut:

a. Model regresi dikatakan layak jika angka signifikansi pada ANOVA sebesar < 0.05 b. Predictor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini diketahui jika

angka Standard Error of Estimate < Standard Deviation c. Koefesien regresi harus signifikan. Pengujian dilakukan dengan Uji T. Koefesien regresi

signifikan jika T hitung > T table (nilai kritis) d. Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat tinggi

atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk regresi linier berganda dengan variabel bebas lebih dari satu.

e. Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB) sebesar < 1 dan > 3

f. Keselerasan model regresi dapat diterangkan dengan menggunakan nilai r2 semakin besar

nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model regresi semakin baik. Nilai r2

mempunyai karakteristik diantaranya: 1) selalu positif, 2) Nilai r2 maksimal

sebesar 1. Jika Nilai r2 sebesar 1 akan mempunyai arti kesesuaian yang sempurna.

Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya jika r2

sama dengan 0, maka tidak ada hubungan linier antara X dan Y. g. Terdapat hubungan linier antara variabel bebas (X) dan variabel tergantung (Y) h. Data harus berdistribusi normal i. Data berskala interval atau rasio j. Kedua variabel bersifat dependen, artinya satu variabel merupakan variabel bebas (disebut

juga sebagai variabel predictor) sedang variabel lainnya variabel tergantung (disebut juga

sebagai variabel response)

Apa saja faktor-faktor yang menyebabkan suatu model dikatakan layak? Menurut Gujarati (2006), sebuah model dikatakan layak jika memenuhi beberapa kriteria seperti di bawah ini:

Parsimoni: Suatu model tidak akan pernah dapat secara sempurna menangkap realitas; akibatnya kita akan melakukan sedikit abstraksi ataupun penyederhanaan dalam pembuatan model.

Mempunyai Identifikasi Tinggi: Artinya dengan data yang ada, parameter-parameter yang diestimasi harus mempunyai nilai-nilai yang unik atau dengan kata lain, hanya akan ada satu parameter saja.

Keselarasan (Goodness of Fit): Tujuan analisis regresi ialah menerangkan sebanyak mungkin variasi dalam variabel tergantung dengan menggunakan variabel bebas dalam model. Oleh karena itu, suatu model dikatakan baik jika eksplanasi diukur dengan menggunakan nilai adjusted r2

yang setinggi mungkin.

Konsitensi Dalam Teori: Model sebaiknya segaris dengan teori. Pengukuran tanpa teori akan dapat menyesatkan hasilnya.

Kekuatan Prediksi: Validitas suatu model berbanding lurus dengan kemampuan prediksi

model tersebut. Oleh karena itu, pilihlah suatu model yang prediksi teoritisnya berasal dari

pengalaman empiris.

Bagaimana melakukan pengujian hipotesis dalam regresi. Pengujian hipotesis dapat dilakukan seperti di bawah ini: Pengujian hipotesis dapat didasarkan dengan menggunakan dua hal, yaitu: tingkat signifikansi atau probabilitas (α) dan tingkat kepercayaan atau confidence interval. Didasarkan tingkat signifikansi pada umumnya orang menggunakan 0,05. Kisaran tingkat signifikansi mulai dari 0,01 sampai dengan 0,1. Yang dimaksud dengan tingkat signifikansi adalah probabilitas melakukan kesalahan tipe I, yaitu kesalahan menolak hipotesis ketika hipotesis tersebut benar. Tingkat kepercayaan pada umumnya ialah sebesar 95%, yang dimaksud dengan tingkat kepercayaan ialah tingkat dimana sebesar 95% nilai sample akan mewakili nilai populasi dimana sample berasal. Dalam melakukan uji hipotesis terdapat dua hipotesis, yaitu:

H0 (hipotessis nol) dan H1 (hipotesis alternatif)

Contoh uji hipotesis misalnya rata-rata produktivitas pegawai sama dengan 10 (μ x= 10), maka bunyi hipotesisnya ialah:

H0: Rata-rata produktivitas pegawai sama dengan 10

H1: Rata-rata produktivitas pegawai tidak sama dengan 10

Hipotesis statistiknya:

H0: μ x= 10

H1: μ x > 10 Untuk uji satu sisi (one tailed) atau

H1: μ x < 10

H1: μ x ≠ 10 Untuk uji dua sisi (two tailed)

Beberapa hal yang harus diperhatikan dalam uji hipotesis ialah;

Untuk pengujian hipotesis kita menggunakan data sample.

Dalam pengujian akan menghasilkan dua kemungkinan, yaitu pengujian signifikan secara statistik jika kita menolak H0 dan pengujian tidak signifikan secara statistik jika kita menerima H0.

Jika kita menggunakan nilai t, maka jika nilai t yang semakin besar atau menjauhi 0, kita akan cenderung menolak H0; sebaliknya jika nila t semakin kecil atau mendekati 0 kita akan cenderung menerima H0.

Cara lain melakukan pengujian hipotesis ialah menggunakan kurva. Jika menggunakan kurva untuk menguji hipotesis dapat digambarkan sebagai berikut:

a) Untuk uji dua sisi: gunakan α/2 atau 5% (0,05) dibagi 2 sehingga α masing-masing sisi sebesar 2,5% (0,025)

b) Untuk uji sebelah kanan: gunakan α sebesar 5% atau 0,05

c) Untuk uji sebelah kiri: gunakan α sebesar 5% atau 0,05

4.2 Regresi linier Berganda

Regresi linier berganda merupakan perluasan dari regresi linier sederhana dengan dua atau lebih variabel bebas yang digunakan sebagai predictor dan satu variabel tergantung yang diprediksi. Semua ketentuan yang ada pada prosedur regresi linier sederhana berlaku bagi regresi berganda. Persyaratan lain selain yang sudah dibahas di atas ialah pada regresi linier berganda diperlukan juga pengujian multikolinieritas.

4.3 Ketaatan pada Asumsi Yang Mendasari Prosedur Regresi Salah satu asumsi dalam regresi yang tidak boleh dilanggar ialah asumsi normalitas. Dalam regresi data wajib berdistribusi normal karena normalitas berfungsi sebagai Function Link atau penghubung antara variabel bebas dan variabel tergantung. Jika data tidak berdistribusi normal, maka tidak ada penghubung antara kedua variabel tersebut. Meski secara teori bidang ilmu terdapat hubungan tetapi secara konsep statistik salah. Dengan demikian kasus robust sebaiknya dihindari, karena robust mempunyai probabilitas kebenaran yang kecil. Robust akan mengakibatkan kita melakukan kesalahan Tipe I (kesalahan alpha), yaitu gagal menerima H0 yang sebenarnya harus diterima. Kita berasumsi bahwa terdapat hubungan antara dua variabel atau terdapat perbedaan rata-rata atau variabel satu mempengaruhi variabel lain padahal sebenarnya tidak ada karena asumsi yang melandasi prosedur tersebut kita abaikan.

Karena asumsi yang mengharuskan adanya hubungan linier, maka data dalam regresi linier setidak-tidaknya harus berskala interval. Jika kita menggunakan data berskala lain, misalnya ordinal , maka sebaiknya menggunakan regresi biner atau variabel dummy. Jika tetap ingin menggunakan regresi linier, maka data ordinal harus diubah menjadi berskala interval. Jika tidak maka nilai koefesien korelasi (Pearson) akan kecil. Jika nilai r kecil, maka secara otomatis nilai r2 (koefesien determinasi). Akibatnya model regresi yang kita buat salah karena model yang layak salah satu indikatornya ialah nilai r2 mendekati 1.

V. PROSEDUR – PROSEDUR DALAM KATEGORI UNTUK MEMPREDIKSI NILAI VARIABEL TERGANTUNG DENGAN VARIABEL PREDICTOR

Terdapat beberapa prosedur yang mempunyai kemampuan untuk memprediksi. Pada bagian ini kita akan menggunakan regresi linier yang merupakan prosedur dalam statistik dengan kemampuan memprediksi yang akurat jika digunakan sesuai dengan persyaratan yang ada; dan kita akan menggunakan pula suatu prosedur yang biasa digunakan untuk memprediksi setidak-tidaknya empat tahun kedepan dari kejadian saat ini. Prosedur kedua ini dikenal sebagai prosedur time series. Time series sangat bermanfaat karena prosedur ini dapat digunakan hanya dengan satu variabel saja yang kita miliki. Kedua prosedur ini memerlukan data yang berskala interval. Pada bagian ini hanya prediksi dalam regresi yang akan kita bahas.

Untuk melakukan prediksi dalam regresi kita akan pergunakan persamaan sebagai berikut:

Y = a + bx

Dimana:

Y= variabel tergantung

a = intercept variabel y

b = slope kemiringan garis

x = variabel bebas / predictor

Nilai a merupakan nilai konstan yang diambil dari koefsien yang tidak dibakukan (Unstandardized Coefficient). Nilai merupakan nilai konstan saat x sama dengan 0. Nilai b adalah nilai koefisien regresi variabel tergantung yang mempunyai makna besarnya kenaikan per satu satuan saat nilai x naik sebesar satu satuan. Sedang nilai x diambil dari nilai observasi. Nilai y merupakan hasil prediksi. Selisih nilai prediksi dengan nilai observasi disebut residu. Prediksi akan semakin akurat jika nilai residu semakin kecil.

VI. PROSEDUR GENERAL LINEAR MODEL (GLM)

GLM merupakan prosedur estimasi yang digeneralisasi yang didasarkan pada tiga komponen, yaitu: 1) variat yang dibentuk oleh kombinasi linier variabel bebas, 2) distribusi probabilitas yang dispesifikasi oleh peneliti yang didasarkan pada karakteristik variabel tergantung, 3) fungsi penghubung yang menunjukkan hubungan antara variat dan distribusi probabilitas tersebut. Dalam GLM normalitas data merupakan syarat utama karena normalitas data ini berfungsi sebagai identitas penghubung (identity link) antara variabel bebas dan variabel tergantung. Contoh prosedur GLM ialah MANOVA dan Regresi Liner

Kegunaan prosedur ini ialah untuk menguji hipotesis nol untuk membuktikan bahwa pengaruh variabel-variabel faktor terhadap rata-rata kelompok yang berbeda dengan distribusi bersama pada variabel – variabel tergantung. Disamping itu, prosedur ini memungkinkan kita meneliti interaksi antar faktor dan juga pengaruh faktor masing-masing, pengaruh kovariat dan interaksi kovariat dengan faktor. Dalam konteks analisis regresi, maka variabel-variabel predictor / bebas disebut sebagai kovariat. Disamping itu

prosedur ini juga memperbolehkan kita menggunakan kasus dengan jumlah yang berbeda untuk masing-masing variabel yang ditelit

Data yang digunakan ialah:

Variabel tergantung harus data kuantitatif/ berskala metrik, setidak-tidak data berskala interval.

Faktor harus kategorikal dapat berupa angka (numerik) ataupun string.

Kovariat harus data kuantitatif/ berskala metrik setidak-tidak data berskala interval.

Asumsi untuk prosedur ini ialah:

Untuk variabel tergantung, data merupakan sampel acak vektor-vektor dari suatu populasi normal multivariat.

Dalam populasi, semua matrik varian dan kovarian untuk semua sel sama.

Analisis varian harus mengikuti asumsi normalitas dengan demikian data harus simetris

Untuk melakukan pengecekan asumsi digunakan pengujian kesamaan varian, misalnya menggunakan uji Box’s M atau Levene.

Persyaratan yang berkaitan dengan statistik uji, diantaranya:

Jika lebih dari satu variabel tergantung dispesifikasi, maka analisis varian multivariat menggunakan uji:

o Piilai’s trace: pengujian untuk perbedaan multivariat mirip dengan Wilk’s Lambda o Wilk’s Lamda: satu dari nilai statistik pokok untuk pengujian hipotesis nol dalam

statistik multivariat dan juga untuk menentukan tingkat signifikansi perbedaan rata-rata antar kelompok yang diteliti. Nilai berkisar antara 0 -1. Jika nilainya 1, maka rata-rata kelompok mempunyai nilai yang sama sehingga tidak berbeda satu dengan yang lain; sedang jika mendekati 0, maka rata-rata kelompok yang dibandingkan berbeda secara signifikan.

o Hotelling’s trace: pengujian untuk menilai signifikansi statistik perbedaan rata-rata dua variabel atau lebih dalam dua kelompok

o Roy’s largest root: nilai statistik untuk pengujian hipotesis nol dalam MANOVA. Untuk menguji fungsi diskriminan pertama variabel tergantung tentang kemampuan untuk melihat perbedaan kelompok

Pengujian hipotesis menggunakan kontras a priori (apriori contrast).

Untuk uji signifikansi menggunakan uji F

Untuk melihat perbedaan rata-rata menggunakan Post Hoc test

VII. PROSEDUR GENERALIZED LINEAR MODEL (GLZ)

Generalized Linier Model (GLZ) merupakan generalisasi dari General Linier Model (GLM). Sebagai contoh yang termasuk prosedur GLM ialah ANOVA, MANOVA, dan regresi berganda. Jika pada sebagaian besar prosedur GLM mengikuti pola distribusi normal sebagai persyaratannya; maka GLZ umumnya tidak mengikuti pola distribusi normal sebagai gantinya GLZ mengikuti distribusi binomial (suatu distribusi yang meringkas likelihood dimana satu nilai tertentu akan mengambil salah satu dari nilai independen dalam sekelompok parameter asumsi yang diberikan). Asumsi yang mendasari distribusi binomial ialah tidak akan pernah ada satu hasil dari setiap percobaan, oleh karena itu setiap percobaan mempunyai

probabilitas sukses yang sama dan setiap percobaan bersifat mutually exclusive.) , multinomial (generalisasi distribusi binomial yang terjadi saat variabel yang memberikan respon / variabel tergantung / dependen bercirikan kategorial ) atau distribusi lainnya selain distribusi normal (distribusi data yang membentuk pola seperti bel dimana rata-rata berada di puncak dan jumlah nilai diatas rata-rata sama dengan jumlah nilai dibawah rata-rata yang membentuk pola simetris). GLZ mempunyai ciri-ciri diantaranya:

Distribusi data selain distribusi normal

Variabel tergantung / dependen / yang memberi respon umumnya diskrit / data berskala metrik setidak-tidaknya berskala interval

Variabel Faktor (Faktor) harus kategorikal, data berskala non-metrik atau data berskala nominal

Kovariat harus berskala metrik, setidak-tidak berskala interval dan variabel – variabel ini harus berhubungan dengan variabel tergantungnya.

Nilai variabel tergantung diprediksi dari kombinasi linier variabel predictor / bebas / independen yang dihubungkan dengan variabel tergantung melalui “link function”, yaitu fungsi penghubung antara variabel bebas dan variabel tergantung yang dalam GLM diidentifikasi sebagai distribusi normal data. Sedang dalam GLZ karena tidak mengikuti pola distribusi normal, tetapi menggunakan fungsi penghubung dan distribusi selain distribusi normal.

Fungsi penghubung (link function) dan distribusi umumnya menggunakan distribusi, Gamma (untuk data yang berskala metrik, setidak-tidaknya interval), Binomial (untuk data berskala non-metrik berskala nominal) dan Multinomial. Terjadi tarnsformasi nilai variabel dependen.

Asumsi menggunakan estimasi Maximum Likelihood (ML) yang memerlukan prosedur iterasi dalam proses penghitungannya. Sebagai contoh Newton – Raphson dan Fisher Scoring.

Pengujian signifikansi menggunakan pengujian varian dan kovarian dari Wald Statistic, Likelihood ratio (LR) dan Score statisti dari Hesian Matrix

Diagnosis dalam GLZ menggunakan 2 tipe residual, yaitu Pearson Residual dan Deviance Residual. Pearson Residual didasarkan pada perbedaan nilai observasi dan nilai yang diprediksi; sedang Deviance Residual didasarkan pada kontribusi nilai observasi terhadap statistik log-likelihood Tipe Analisis dapat menggunakan variabel kontinus (metrik) dan kategorikal (non-metrik) sebagai variabel predictor / bebas / independen. Contoh prosedurnya ialah Factorial Regression dan Polynomial Regression

VIII. PROSEDUR DALAM KELOMPOK MULTIVARIAT

Untuk memahami teknik analisis multivariat, pertama – tama kita perlu mengerti klasifikasi yang terdapat dalam analisis multivariat. Secara umum teknik ini dibagi menjadi dua klasifikasi, yaitu: analsis dependensi dan analsis interdependensi. Masing – masing klasifikasi akan dibahas secara lebih rinci pada bagian berikut ini. 8.1 Klasifikasi Analisis Dependensi

Karakteristik utama analisis dependensi ialah satu variabel atau lebih diidentifikasikan sebagai variabel tergantung yang akan diprediksi atau diterangkan oleh variabel – variabel lain yang diketahui sebagai variabel bebas. Karakteristik berikutnya ialah teknik analisis dependensi dibedakan dari satu teknik dengan teknik lainnya dilihat dari sisi jumlah variabel tergantung dan jenis skala pengukuran yang dikenakan dalam

variabel – variabelnya. Menurut Hair (2010) Didasarkan jumlah variabel tergantungnya, maka teknik analisis dependensi diklasifikasi sebagai: a) Teknik analisis dependensi dengan satu variabel tergantung b) Teknik analisis dependensi dengan lebih dari satu variabel tergantung c) Teknik analisis dependensi dengan lebih dari satu variabel tergantung dan variabel bebas Sedang jika didasarkan pada jenis skala pengukuran, maka teknik analisis dependensi dapat diklasifikasikan sebagai: a) Variabel tergantung metrik (data kuantitatif / numerik) b) Variabel tergantung non-metrik (data kualitatif / kategorikal) Kegunaan utama teknik analisis dependensi ialah untuk menerangkan atau memprediksi variabel (variabel) tergantung dengan menggunakan dua atau lebih variabel bebas. Yang termasuk dalam klasifikasi ini ialah analisis regresi linear berganda, regresi logistik, analisis diskriminan, analisis varian multivariate (MANOVA), analsis conjoint dan analisis korelasi kanonikal serta korelasi kanonikal menggunakan variabel dummy. Sedang menurut Zikmund (1997) klasfifikasi teknik analisis dependensi diklasifikasikan didasarkan pada jumlah variabel tergantung dalam relasinya dengan variabel bebas sebagai predictor yang menerangkan. Zikmund membuat klasifikasi metode- metode dependensi seperti gambar di bawah ini:

Gambar 8.1 Klasifikasi Metode-Metode Dependensi Analisis Multivariat Menurut Zikmund

Maksud gambar klasifikasi di atas sebagai berikut: Metode dependensi diklasifikasikan didasarkan pada jumlah variabel tergantung yang akan diprediksi, misalnya satu variabel atau lebih dengan skala pengukuran bersifat metrik (data kuantitatif / numerik) atau non metrik (data kualitatif / kategorikal). Jika variabel tergantung hanya satu dan menggunakan skala pengukuran metrik, maka teknik analisis yang sesuai ialah menggunakan analisis regresi berganda. Sedang jika variabel tergantung hanya satu dan pengukurannya bersifat non-metrik, maka teknik analisis yang sesuai ialah menggunakan analisis diskriminan. Selanjutnya jika variabel tergantung lebih dari satu dengan skala pengukuran metrik, maka teknik analisis yang sesuai ialah menggunakan analisis multivariate varian. Sedang jika variabel tergantung lebih dari satu dengan skala pengukuran non-metrik, maka teknik analisis yang sesuai ialah menggunakan analisis conjoint, dan jika variabel tergantung serta variabel bebas lebih dari satu dengan skala pengukuran metrik atau non metrik, maka teknik analisis yang sesuai ialah menggunakan analisis korelasi kanonikal

8.2 Klasifikasi Analisis Interdependensi Dalam analisis interdependensi tidak terdapat satupun variabel yang didefinisikan sebagai variabel bebas ataupun variabel tergantung karena prosedur mencakup analisis yang dilakukan secara bersamaan untuk semua variabel dalam sekumpulan variabel yang diobservasi. Tujuannya ialah menemukan struktur yang mendasari seluruh kelompok variabel tersebut.

Fungsi dari analisis interdependensi ialah untuk memberikan makna terhadap seperangkat variabel atau membuat kelompok-kelompok secara bersama-sama. Yang termasuk dalam klasifikasi ini ialah analsis faktor, analisis kluster, dan multidimensional scaling. Jika kita ingin menganalisis struktur variabel, maka analsis faktor merupakan teknik analisis yang cocok. Jika kasus / responden ingin dikelompokkan untuk mewakili struktur, maka analisis kluster merupakan teknik analisis yang sesuai.

Klasifikasi untuk metode interdependensi oleh Zikmund (1997: 635) digambarkan sebagai berikut:

Gambar 8.2 Klasifikasi Metode-Metode Interdependensi Analisis Multivariat Menurut Zikmund

Diagram diatas menunjukkan bahwa metode interdependensi diklasifikasikan didasarkan pada jenis masukan variabel dengan skala pengukuran bersifat metrik atau non metrik. Jika masukan data berskala metrik, maka kita dapat menggunakan teknik analisis faktor, analisis kluster dan multidimensional scaling. Jika masukan data berskala non-metrik, maka kita dapat menggunakan teknik analisis multidimensional scaling. IX KESIMPULAN Prosedur – prosedur populer dalam statistik tidak banyak oleh karena itu mahasiswa setidak-tidaknya memahami prosedur – prosedur tersebut dalam kaitannya dengan persiapan melakukan riset skripsi. Didasarkan pengamatan penulis mayoritas mahasiswa di berbagai perguruan tinggi menggunakan prosedur korelasi dan regresi. Oleh karena itu dua prosedur ini harus diajarkan kepada mahasiswa secara benar agar pemahaman makna “hubungan” dan “pengaruh” benar-benar dimengerti oleh mahasiswa. Sehingga tidak terjadi lagi kerancuan antara dua prosedur ini.

Daftar Pustaka

Anderson, S. & William. (2011). Statistics for Business and Economics. South Western: Cengage Learning.

Cramer, D. & Howitt, D. (2006). The Sage Dictionary of Statistics. London: Sage Publication.

Gujarati, D. N. (2003). Basic Econometrics. New York: MacGraw Hill.

Gujarati, D. N. (2006). Essentials of Econometrics. New York: MacGraw Hill.

Glenn D. I. Determining sample size. Florida: University of Florida, Institute of Food and Agricultural Sciences (UF/IFAS). Retrieved from http://edis.ifas.ufl.edu.

Hair, J.F., Black, W.C, Babin, B.J., & Anderson, R.E. (2010). Multivariate data analysis: A global perspective (7th ed.). New Jersey: Pearson Prentice Hall.

Johnstom, I. (2004). A normal distribution and the normal curve. Malaspina University-College.

Liebetrau, M. A. (1993). Measures of Association. California: SAGE Publication Inc.

Sarwono, J. (2009). Statistik itu mudah: Panduan Lengkap Untuk Belajar Komputasi Statistik Menggunakan SPSS 16. Yogyakarta: Penerbit Andi.

Sarwono, J. (2010). PASW STATISTICS 18: Belajar Statistik Menjadi Mudah dan Cepat. Yogyakarta: Penerbit Andi.

Sarwono, J.(2011). Mengenal SPSS 20: Aplikasi Riset Eksperimental. Jakarta: Elex Media Komputindo.

Sarwono, J.(2012).Metode Riset Skripsi Pendekatan Kuantitatif: Menggunakan Prosedur SPSS. Jakarta: Elex Media Komputindo.

Zikmund, W. G. (1997). Exploring Marketing Research. Florida: The Dryden Press.