Click here to load reader

APLIKASI MATRIKS VARIAN-KOVARIAN ROBUST PADA ANALISIS

  • View
    0

  • Download
    0

Embed Size (px)

Text of APLIKASI MATRIKS VARIAN-KOVARIAN ROBUST PADA ANALISIS

ANALISIS FAKTOR
UNIVERSITAS SUMATERA UTARA
ANALISIS FAKTOR
SKRIPSI
Ditulis Sebagai Syarat untuk Mencapai Gelar Sarjana Sains di Fakultas Matematika
dan Ilmu Pengetahuan Alam Universitas Sumatera Utara.
AYU ANDINI
UNIVERSITAS SUMATERA UTARA
FAKTOR
SKRIPSI
Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri,kecuali beberapa
kutipan dan ringkasan yang masing-masing disebutkan sumbernya.
Medan, September 2018
Analisis Faktor
Kategori : Skripsi
Departemen : Matematika
Universitas Sumatera Utara
NIP.196005201985032002 NIP.195908131986011002
FAKTOR
ABSTRAK
Salah satu metode estimasi pada analisis faktor adalah metode analisis komponen
utama. Analisis Faktor dengan metode Analisis Komponen Utama menjelaskan
struktur matriks varian-kovarian data melalui sejumlah kecil komponen yang tidak
saling berkorelasi, dimana komponen tersebut merupakan kombinasi linier dari
variabel-variabel asal sedemikian hingga mempunyai variansi yang maksimal.
Matriks varian-kovarian robust dapat diestimasikan dengan Minimum Volume
Ellipsoid (MVE). Pada penelitian ini, faktor loading yang dihasilkan dari setiap
variabel dengan estimasi robust dan estimasi klasik memiliki perbedaan, yaitu
dengan estimasi robust faktor loading-faktor loading yang dihasilkan memiliki
nilai yang tidak jauh berbeda. Seperti pada variabel X1 faktor loading-nya adalah
2,6069; -3,2191; dan -0,0762. Sedangkan dengan estimasi biasa (klasik) faktor
loading-faktor loading yang dihasilkan memiliki perbedaan nilai yang cukup jauh.
Seperti pada variabel X1 faktor loading-nya adalah 1,6546; 13,4489; dan -0,5143.
Kata Kunci: Analisis faktor, analisis komponen utama, multivariat, MVE, robust
UNIVERSITAS SUMATERA UTARA
FACTOR ANALYSIS
ABSTRACT
One of the estimation methods in factor analysis is the principal component
analysis method. Factor Analysis with the Principal Component Analysis method
describes the structure of the variance-covariance matrix of data through a small
number of components that are not correlated with each other, where the
component is a linear combination of the origin variables so that they have
maximum variance. The robust covariance-variant matrix can be estimated by the
Minimum Ellipsoid Volume (MVE). In this study, the robust estimated factor
loading and the classic estimated factor loading have different results such in
variable X1 , the factor loadings are 2,6069; -3,2191; and -0,0762. However, the
classic estimated factor loadings are 1,6546; 13,4489; and -0,5143.
Keyword: Factor Analysis, Multivariate, MVE, Principal Component Analysis,
Robust
v
PENGHARGAAN
Puji dan syukur penulis panjatkan kepada Allah SWT, atas limpahan karunia-Nya
penulis dapat menyelesaikan penyusunan skripsi dengan judulAplikasi Matriks
Varian-KovarianRobust Pada Analisis Faktordengan baik,guna melengkapi syarat
memperoleh gelar S1Matematika pada Fakultas Matematika dan Ilmu
Pengetahuan Alam diUniversitas Sumatera Utara.
Dalam kesempatan ini, penulis ingin mengucapkan terima kasih
yangsebesar-besarnya kepada semua pihak yang telah membantu dan
membimbingpenulis dalam penyusunan skripsi ini, ucapan terima kasih penulis
sampaikankepada Bapak Alm. Drs. Pengarapen Bangun, M.Si dan IbuDr. Elly
Rosmaini, M.Si selaku Dosen Pembimbing.Bapak Dr. Sutarman, M.Scdan
IbuDra. Laurentina Pangaribuan, MSselaku DosenPembanding atas segala saran
dan masukan yang diberikan dalam penyelesaian skripsi ini.Bapak Dr. Suyanto,
M.Kom dan Bapak Drs. Rosman Siregar, M.Siselaku Ketua dan Sekretaris
Departemen Matematika FMIPA USU.Bapak Dr. Kerista Sebayang, MS selaku
Dekan FMIPA USU serta semuaWakil Dekan FMIPA USU.Semua Dosen
Departemen Matematika FMIPA-USU dan pegawai diFMIPA-USU.Ayahanda
Helmi Wahyudi, Ibunda Suriyani, M.Pd,Saudara penulis, Ari Andrian, S.T dan
Dimas Anhari, serta keluarga yang memberikan doa dan dukungan bagi
penulis.Seluruh teman-teman.
penulisanskripsi ini. Maka, diperlukan kritik dan saran dari pembaca
untukpenyempurnaan skripsi ini.
Medan, September 2018
2.1.4 Matriks Ortogonal 6
2.1.5 Matriks Simetrik 7
2.1.7 Matriks Identitas 7
2.1.8 Determinan Matriks 7
2.2 Analisis Faktor 8
2.3 Metode Estimasi 11
2.3.2 Faktor Model Solusi Komponen Utama 14
2.4 Analisis Komponen Utama Yang Robust 14
2.5 Minimum Volume Ellipsoid (MVE) 15
2.5.1 Algoritma MVE 15
3.1 Pengumpulan Data 18
3.3 Analisis Faktor Klasik
4.1 Kesimpulan 25
4.2 Saran 25
UNIVERSITAS SUMATERA UTARA
memahami hubungan kompleks yang tidak bisa dipahami dengan metode univariat
atau bivariat. Semakin banyak variabel, semakin besar kemungkinan bahwa variabel-
variabel tersebut berhubungan (berkorelasi) dan tidak mewakili konsep yang berbeda
atau variabel-variabel ini mewakili konsep yang lebih umum.
Analisis faktor membantu pemilihan variabel-variabel yang lebih representatif
atau membuat variabel baru sebagai pengganti variabel asli tapi masih mengandung
karakteristik dari variabel asli tersebut. Ada beberapa metode estimasi pada analisis
faktor, salah satunya adalah metode analisis komponen utama.
Analisis Faktor dengan metode Analisis Komponen Utama (Principal
Component Analysis) menjelaskan struktur matriks varian-kovarian data melalui
sejumlah kecil komponen yang tidak saling berkorelasi, dimana komponen tersebut
merupakan kombinasi linier dari variabel-variabel asal sedemikian hingga
mempunyai variansi yang maksimal. Seringkali Analisis Komponen Utama
digunakan sebagai langkah pertama dalam analisis data, seperti dalam regresi
komponen utama, analisis diskriminan, analisis cluster dan berbagai metode analisis
multivariat lainnya.
Matriks varian-kovarian sangat sensitif terhadap pengamatan outlier. Pada
kenyataannya, data lapangan seringkali mengandung beberapa pengamatan outlier
dan biasanya tidak mudah untuk dipisahkan dari data. Oleh karena itu, penyusutan
dimensi data berdasarkan Analisis Komponen Utama yang klasik menjadi tidak
dapat diandalkan lagi apabila pengamatan outlier muncul dalam data (Sujatmiko et
al., 2005).
pengamatan lainnya. Pendeteksian outlier pada pengamatan univariat telah dilakukan
UNIVERSITAS SUMATERA UTARA
2
oleh Hawkins (1980) yang melihat suatu outlier tunggal pada sampel dengan melihat
pengamatan yang menyimpang dari pengamatan lain. Barnet dan Lewis (1994)
melihat pengaruh pengamatan yang tidak konsisten dengan pengamatan lain pada
proses multivariat, Pena dan Prieto (2001) menyajikan prosedur pendeteksian outlier
didasarkan pada analisis proyeksi dari titik-titik sampel, dan Filzmoser (2005)
mengidentifikasi outlier didasarkan pada jarak Mahalanobis.
Keberadaan outlier akan mengganggu dalam proses analisis data dan harus
dihindari dalam banyak hal. Dalam kaitannya dengan analisis, outlier dapat
menyebabkan residual yang besar dari model yang terbentuk, varians pada data
tersebut menjadi lebih besar, taksiran interval memiliki rentang yang lebar.
Pengamatan outlier dapat diatasi dengan Analisis Komponen Utama yang
robust. Pendekatan pertama dilakukan dengan menggantikan matriks varian-kovarian
yang klasik dengan suatu estimator yang robust. Berbagai metode untuk
mendapatkan estimator yang robust telah banyak ditawarkan. Namun, breakdown
point (tingkat robust) yang dimiliki tidak lebih dari 1
(+1) , dimana p merupakan
dimensi data. Hal ini berarti bahwa untuk dimensi yang besar, suatu kelompok
pencemar yang sangat kecil dapat menghasilkan estimasi yang masih dipengaruhi
oleh pengamatan outlier. Matriks varian-kovarian robust dapat diestimasikan dengan
fast Minimum Covariance Determinant (fast-MCD) atau Minimum Volume Ellipsoid
(MVE). Pada penelitian ini penulis menggunakan metode MVE sebagai estimator
robust pada matriks varian-kovarian. Biasnya yang rendah membuat MVE sangat
berguna untuk deteksi outlier dalam data multivariat, sering kali melalui penggunaan
jarak robust berbasis MVE.
MVE.
1.2 Rumusan Masalah
Berdasarkan latar belakang di atas, didapati bahwa outlier akan mengganggu hasil
dari analisis faktor. Gangguan ini disebabkan oleh matriks varian-kovarian yang
UNIVERSITAS SUMATERA UTARA
3
tidak konsisten di dalam analisis faktor. Maka, salah satu metode yang dapat
digunakan untuk menaksir matriks varian-kovarian adalah Minimum Volume
Ellipsoid (MVE).
1.3 Batasan Masalah
Adapun yang menjadi batasan masalah dalam penulisan skripsi ini yaitu metode yang
digunakan pada Analisis Faktor adalah metode Analisis Komponen Utama dengan
estimator Minimum Volume Ellipsoid (MVE).
1.4 Tujuan Penelitian
pada analisis faktor dan memperlihatkan bahwa Minimum Volume Ellipsoid (MVE)
merupakan estimator robust yang berguna untuk pendeteksian outlier pada data
multivariat.
kovarian robust pada analisis faktor.
1.6 Metodologi Penelitian
1. Studi Pendahuluan
ataupun jurnal-jurnal yang berhubungan dengan analisis faktor dan estimasi
MVE.
Brownlee.
berikut:
b. Melakukan analisis faktor dengan menggunakan estimator robust.
c. Menghitung proporsi kumulatif varian yang dapat dijelaskan dari hasil
yang didapat dari analisis faktor robust.
4. Membuat kesimpulan.
UNIVERSITAS SUMATERA UTARA
BAB 2
TINJAUAN PUSTAKA
Pada bab ini akan diurai tinjauan pustaka yang digunakan di dalam penulisan skripsi
ini.
2004).
= [
2.1.2 Matriks Invers
Invers matriks A merupakan matriks kebalikan dari A. Hal tersebut dapat dinyatakan
dengan −1. Adapun formulasi invers dinyatakan sebagai berikut :
−1 = 1
() : adjoint A atau transpose dari matriks kofaktor A
Invers matriks A merupakan kebalikan dari matriks A, maka hasil dari perkalian
antara matriks A dengan inversnya akan menghasilkan identitas (I).
−1 = −1 =
UNIVERSITAS SUMATERA UTARA
2.1.3 Matriks Definit dan Semidefinit Positif
Sebuah matriks A berukuran × dikatakan bersifat definit positif jika untuk
sembarang vektor ≠ 0 , bentuk kuadratik − > 0. Sedangkan dikatakan
semidefinit jika − ≥ 0. Jika A adalah definit positif maka persamaan
− = c dengan c adalah konstanta. Jika A adalah matriks diagonal yang semua
unsur diagonalnya bernilai positif, maka A adalah matriks definit positif. Akan
tetapi, apabila ada sebuah unsur bernilai nol dan yang lain positif maka A akan
menjadi matriks semidefinit positif. Matriks diagonal yang unsurnya ragam peubah
akan bersifat demikian karena ragam tidak pernah bernilai negatif.
Matriks yang definit positif, akar-akar cirinya semua bernilai positif dan
determinan dari matriks definit positif juga bernilai positif karen berupa hasil
perkaliannya. Jadi determinannya tidak sama dengan nol, sehingga A bersifat non-
singular.
Matriks B berukuran × , maka dan bersifat semidefinit
positif. Jika < dan () = , maka definit positif, tetapi masih
semidefinit positif.
2.1.4 Matriks Ortogonal
Suatu matriks bujur sangkar A disebut ortogonal jika = = yaitu jika
= −1.
UNIVERSITAS SUMATERA UTARA
2.1.5 Matriks Simetrik
Sebuah matriks A berukuran n x n dikatakan simetrik jika A T
= A. Misalnya, jika
aij adalah unsur ke (i,j) dari matriks, maka untuk matriks simetrik adalah aij = aji ,
untuk semua i dan j.
2.1.6 Matriks Transpose A
Jika A adalah sebarang matriks × , maka transpose dari A dinyatakan oleh A T
dan didefinisikan dengan matriks × yang didapatkan dengan
mempertukarkan baris-baris dan kolom-kolom dari A, sehingga kolom pertama
dari A T
adalah baris pertama dari A, kolom kedua dari A T
adalah baris kedua dari
2.1.7 Matriks Identitas
Jika R adalah bentuk eselon baris tereduksi dari matriks × , maka terdapat dua
kemungkinan yaitu R memiliki satu baris bilangan nol atau R merupakan matriks
identitas (Anton & Rorres, 2004).
2.1.8 Determinan Matriks
Menurut Mattjik dan Sumertajaya (2011), determinan matriks × adalah
perkalian dari semua akar ciri A, 1, 2, , dapat dinotasikan ||, sehingga
|| = × × .
Jadi || = 0 jika dan hanya jika paling tidak ada satu akar yang nol, yaitu
terjadi jika dan hanya jika A singular.
UNIVERSITAS SUMATERA UTARA
2.2 Analisis Faktor
Analisis faktor adalah nama umum yang diberikan kepada kelas metode statistik
multivariat yang tujuan utamanya adalah menentukan struktur yang mendasari dalam
matriks data. Secara umum, analisis faktor membahas masalah menganalisis struktur
hubungan timbal balik (korelasi) di antara sejumlah besar variabel (misalnya, nilai
tes, item tes, tanggapan kuesioner) dengan mendefinisikan satu set dimensi umum
yang mendasari, yang dikenal sebagai faktor. Dengan analisis faktor, peneliti dapat
mengidentifikasi dimensi terpisah dari struktur dan kemudian menentukan sejauh
mana setiap variabel dijelaskan oleh masing-masing dimensi. Setelah dimensi ini dan
penjelasan masing-masing variabel ditentukan, dua penggunaan utama untuk analisis
faktor—peringkasan dan reduksi data—dapat dicapai (Hair, 2010).
Menurut Johnson dan Wichern (1982), analisis faktor merupakan teknik
analisis multivariat yang bertujuan untuk meringkas sejumlah p variabel yang
diamati menjadi sejumlah m faktor penting, dengan < . Misal X adalah vektor
random teramati dengan yang memiliki p komponen pada pengamatan ke-i, dengan
vektor rata-rata () dan matriks kovariansi (). Vektor X bergantung secara linier
dengan variabel 1, 2, … , yang disebut faktor bersama dan sejumlah sumber
variansi dari 1, 2, ... , yang disebut faktor spesifik. Model analisis faktor
menurut Johnson dan Wichern adalah:
1 − 1 = 111 + 122 + + 1 + 1
2 − 2 = 211 + 222 + + 2 + 2

Dengan:
: Faktor bersama (common factor) ke-m
p : Faktor spesifik ke-p
Faktor spesifik berkorelasi dengan yang lain dan dengan common factor.
Common factor dapat dinyatakan sebagai kombinasi linier dari variabel yang diteliti.
Dengan persamaan:
Dimana:
W : Bobot atau koefisien skor faktor
: Banyaknya variabel X pada faktor ke-p
p = 1, 2, ..., n ; j = 1, 2, ... , n
Struktur kovarian untuk model faktor ortogonal adalah:
1. () = ′ + Ψ
Atau
2 + Ψ
Atau
Struktur Eigen pada matriks kovarian ditentukan dengan misalkan X adalah
vektor random p-komponen dimana p adalah jumlah variabel. Matriks kovarian, ,
diberikan oleh E(XX’). Misalkan ′ = (1 2 ) adalah sebuah vektor bobot
untuk membentuk kombinasi linier dari variabel-variabel asli, dan = ′ adalah
variabel baru, yang adalah kombinasi linier dari variabel-variabel asli. Varian dari
variabel baru tersebut diberikan oleh E(′) dan sama dengan E(′′) atau ′ Σ.
Masalahnya sekarang mengurangi untuk mendapatkan vektor bobot, ′, sedemikian
hingga variannya, ′ Σ , dari variabel baru tersebut maksimal pada kelas kombinasi
linier yang bisa dibentuk subjek pada kendala ′ = .
UNIVERSITAS SUMATERA UTARA
Misalkan
= Σ2 − (2 − 1)
= Σ2 − 2 +
dimana adalah pengali Lagrange. Vektor p-komponen dari turunan parsialnya
diberikan dengan
= 2Σ − 2
membentuk vektor turunan parsial di atas menjadi nol pada solusi akhir. Yakni,
(Σ − ) = 0
agar sistem persamaan homogen di atas memiliki sebuah solusi nontrivial,
determinan (Σ − ) harus nol. Yakni,
|Σ − | = 0
Persamaan di atas adalah polinomial dalam derajat p, dan karena itu memiliki p
akar. Misalkan 1 ≥, 2 ≥,… , adalah p akar. Persamaan di atas menghasilkan
nilai p untuk , dan masing-masing nilai disebut eigenvalue atau akar dari matriks Σ.
Masing-masing nilai menghasilkan bobot yang diperoleh dari vektor p-
komponen dengan menyelesaikan persamaan berikut:
(Σ − ) = 0
′ =
Maka, eigenvektor pertama, 1 , sesuai dengan eigenvalue pertama, 1, diperoleh
dengan menyelesaikan persamaan
(Σ − 1)1 = 0
UNIVERSITAS SUMATERA UTARA
′1(Σ − 1)1 = 0
′1Σ1 = ′11
′1Σ1 = 1
karena ′11 = 1. ′1Σ1 adalah varian dari variabel baru, , dan sama dengan
eigenvalue, 1. Principal component yang pertama diberikan oleh eigenvektor, 1,
sesuai dengan eigenvalue terbesar, 1.
Misalkan 2adalah vektor bobot p-komponen kedua yang membentuk
kombinasi linier lainnya. Kombinasi linier selanjutnya dapat ditemukan sedemikian
hingga varian dari ′2 adalah subjek maksimum pada kendala ′12 = 0 dan
′22 = 1. Dapat ditunjukkan bahwa principal component yang tersisa,
′3, ′4, … , ′, adalah eigenvektor yang sesuai dengan eigenvalue, 3, 4, … , ,
pada matriks kovarian, . Maka, masalah dalam menemukan bobot merupakan
menemukan struktur eigen dari matriks kovarian. Eigenvektor memberikan vektor
bobot dan eigenvalue mewakili varian dari variabel-variabel baru atau nilai principal
components.
2.3 Metode Estimasi
Pada pengamatan yang diberikan 1, 2, … , dengan variabel sejumlah p yang
secara umum berkorelasi, analisis faktor akan mencari jawaban dari pertanyaan:
“Apakah model faktor, dengan faktor berjumlah sedikit, dapat merepresentasikan
data dengan tepat?” Pembuatan model statistik ini dilakukan dengan memverifikasi
hubungan kovarian.
Matriks kovarian sampel S adalah sebuah estimator matriks kovarian
populasi yang belum diketahui. Jika elemen-elemen off-diagonal dari S kecil atau
elemen-elemen dari matriks korelasi sampel R pada dasarnya nol, variabel-variabel
UNIVERSITAS SUMATERA UTARA
tersebut tidak berhubungan, dan analisis faktor tidak akan terbukti berguna. Dalam
keadaan ini, faktor-faktor spesifik memainkan peran dominan, dimana tujuan utama
analisis faktor adalah untuk menentukan beberapa faktor umum yang penting.
Jika muncul menyimpang secara signifikan dari matriks diagonal, maka
model faktor dapat dibentuk, dan masalah awalnya adalah memperkirakan faktor
loading dan varian tertentu Ψ. Penulis menggunakan metode estimasi Komponen
Utama (dan Faktor Utama) untuk menyederhanakan interpretasi faktor.
2.3.1 Analisis Komponen Utama (Principal Component Analysis)
Misalkan mempunyai pasangan eigenvalue-eigenvektor (, ) dengan 1 ≥ 2 ≥
≥ ≥ 0. Maka,
= [√1 √2 √ ]
[ √1 ′
√2 ′
√ ′]
(2.1)
Ini sesuai dengan struktur kovarian yang ditentukan untuk model analisis faktor yang
memiliki banyak faktor sebagai variabel (m = p) dan varian tertentu Ψi = 0 untuk
semua i. Matriks loading mempunyai j kolom yang diberikan oleh √ . Dapat
ditulis
( ×) = ( ×)′( ×) + ( ×) = ′ (2.2)
Terlepas dari faktor skala √, faktor loading pada faktor ke-j adalah koefisien untuk
komponen utama ke-j dari populasi.
Meskipun representasi analisis faktor dari di (2.1) tepat, dia tidak terlalu
berguna: dia menggunakan banyak faktor umum karena ada variabel-variabel dan
tidak memungkinkan variasi dalam faktor-faktor spesifik. Penulis lebih memilih
model yang menjelaskan struktur kovarian hanya dari beberapa faktor umum. Satu
pendekatan, ketika eigenvalue terakhir p−m kecil, adalah dengan mengabaikan
kontribusi dari +1+ ′ + + + ′ terhadap di (2.1). Dengan
mengabaikan kontribusi ini, dapat diperoleh pendekatan
UNIVERSITAS SUMATERA UTARA
[ √1 ′
√2 ′
√ ′]
Representasi pendekatan di (2.3) mengganggap bahwa faktor-faktor spesifik di
model faktor ortogonal dengan m faktor (×1) = (×1) + (×) (×) + (×)
adalah kepentingan minor dan bisa juga diabaikan dalam pemfaktoran . Jika faktor-
faktor spesifik dimasukkan di dalam model, variannya bisa diambil untuk elemen
diagonal dari − ′ , dimana ′ didefinisikan pada (2.3).
Memungkinkan untuk faktor-faktor tertentu, diperoleh pendekatan menjadi
= ′ + Ψ
[ √1 ′
√2 ′
√ ′]
= untuk i = 1, 2, ..., p.
Untuk menggunakan pendekatan ini pada data 1, 2, … , , yang pertama
dilakukan adalah memusatkan pengamatan dengan mengurangi mean sampel .
Pengamatan terpusat
mempunyai matriks kovarian sampel S yang sama dengan pengamatan asli.
Dalam kasus ini dimana unit variabel tidak sepadan, biasanya dapat berhasil
dengan variabel yang sudah distandardisasi
=
14
yang matriks kovarian sampelnya adalah matriks korelasi sampel R dari pengamatan
1, 2, … , . Standardisasi mencegah memiliki satu variabel dengan varian besar
yang terlalu mempengaruhi penentuan faktor loading.
Representasi dalam (2.4), ketika digunakan pada matriks kovarian sampel S
atau matriks korelasi sampel R, dikenal sebagai solusi komponen utama (principal
component solution). Nama tersebut diambil dari fakta bahwa faktor loading-nya
adalah koefisien skala dari beberapa komponen utama sampel pertama.
2.3.2 Faktor Model Solusi Komponen Utama
Analisis faktor komponen utama dari matriks kovarians sampel S ditentukan dalam
hal pasangan eigenvalue-eigenvektornya (1, 1), (2, 2), ..., (, ), dimana 1 ≥
2 ≥ ≥ . Misalkan < adalah jumlah faktor-faktor umum. Maka matriks
faktor loading yang diperkirakan {} diberikan oleh
= [√1 √2 √] (2.6)
perkiraan varians tertentu disediakan oleh elemen diagonal dari matriks S−′, maka
Ψ =
= (2.7)
Komunalitas diperkirakan sebagai
2 = 1
Analisis faktor komponen utama dari matriks korelasi sampel diperoleh dengan
memulai dengan R di tempat S (Wichern, 2007).
2.4 Analisis Komponen Utama Yang Robust
Untuk mendapatkan analisis komponen utama yang robust dapat dilakukan dengan
menggantikan matriks varian-kovarian yang klasik dengan suatu estimator yang
UNIVERSITAS SUMATERA UTARA
robust) yang tinggi.
Estimator Minimum Volume Ellipsoid (MVE) didasarkan pada ellipsoid volume
terkecil yang mencakup h dari n pengamatan. MVE adalah estimator multivariat
yang kuat dan penyebaran multivariasi yang affine equivariant dengan breakdown
tinggi. MVE dapat dihitung dengan algoritma resampling. Biasnya yang rendah
membuat MVE sangat berguna untuk pendeteksian outlier dalam data multivariat,
sering kali melalui penggunaan jarak robust berbasis MVE.
Minimum Volume Ellipsoid (MVE), pertama kali diperkenalkan oleh
Rousseeuw, adalah estimator robust pertama dengan breakdown tinggi yang umum
digunakan. MVE menjadi populer karena ketahanannya yang tinggi terhadap outlier,
yang membuat MVE menjadi alat yang diandalkan untuk pendeteksian outlier.
2.5.1 Algoritma MVE
Misalkan diberikan data hasil n pengamatan dengan p variabel acak sebagai berikut:
Pengamatan: X1 X2 Xp
1 X11 X12 X1p
2 X21 X22 X2p
3 X31 X32 X3p
4 X41 X42 X4p
n Xn1 Xn2 Xnp
Dari data dengan n pengamatan ini, akan terdapat subsampel sebanyak (
+ 1) yang
langkah sebagai berikut:
1. Dipilih himpunan bagian yang memuat ( + 1) pengamatan. Selanjutnya untuk
setiap himpunan bagian berukuran ( + 1) tersebut, sebutlah himpunan indeks
= {1, … , +1} ⊂ {1,… , } .
2. Menentukan rata-rata (mean) sampel dengan rumus = 1
+1 ∑
diperoleh pusat ellips = (1, 2, 3) dimana:
1 = 11 + 21 + 31 + + (+1)1
+ 1
+ 1
+ 1
= 1
∑(
+1
=1
= =
Matriks kovarian ini pada umumnya nonsingular, dan memang harus
nonsingular. Bila tidak, banyaknya pengamatan harus ditambah sampai
pemilihan ( + 1) himpunan bagian dari sampel ini mengakibatkan
nonsingular.
2 = [( − )
17
dimana h : n menunjukkan jarak kuadrat terkecil ke-h di antara jarak kuadrat dari
n pengamatan dalam . Dengan menggunakan jarak kuadrat tersebut, dibuat
faktor skala
⁄ ini merupakan jari-jari ellips ke arah sumbu XJ.
4. Sebagai penentu yang sangat penting dalam MVE adalah volume ellipsoid yang
proporsional dengan nilai
Setelah selesai langkah ke-4 dengan memperoleh nilai volume ellips untuk
subsampel pertama, selanjutnya ulangi langkah 1 sampai 4 di atas untuk subsampel
ke-2 berukuran…

Search related