Text of APLIKASI MATRIKS VARIAN-KOVARIAN ROBUST PADA ANALISIS
ANALISIS FAKTOR UNIVERSITAS SUMATERA UTARA ANALISIS FAKTOR SKRIPSI Ditulis Sebagai Syarat untuk Mencapai Gelar Sarjana Sains di Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Sumatera Utara. AYU ANDINI UNIVERSITAS SUMATERA UTARA FAKTOR SKRIPSI Saya mengakui bahwa skripsi ini adalah hasil kerja saya sendiri,kecuali beberapa kutipan dan ringkasan yang masing-masing disebutkan sumbernya. Medan, September 2018 Analisis Faktor Kategori : Skripsi Departemen : Matematika Universitas Sumatera Utara NIP.196005201985032002 NIP.195908131986011002 FAKTOR ABSTRAK Salah satu metode estimasi pada analisis faktor adalah metode analisis komponen utama. Analisis Faktor dengan metode Analisis Komponen Utama menjelaskan struktur matriks varian-kovarian data melalui sejumlah kecil komponen yang tidak saling berkorelasi, dimana komponen tersebut merupakan kombinasi linier dari variabel-variabel asal sedemikian hingga mempunyai variansi yang maksimal. Matriks varian-kovarian robust dapat diestimasikan dengan Minimum Volume Ellipsoid (MVE). Pada penelitian ini, faktor loading yang dihasilkan dari setiap variabel dengan estimasi robust dan estimasi klasik memiliki perbedaan, yaitu dengan estimasi robust faktor loading-faktor loading yang dihasilkan memiliki nilai yang tidak jauh berbeda. Seperti pada variabel X1 faktor loading-nya adalah 2,6069; -3,2191; dan -0,0762. Sedangkan dengan estimasi biasa (klasik) faktor loading-faktor loading yang dihasilkan memiliki perbedaan nilai yang cukup jauh. Seperti pada variabel X1 faktor loading-nya adalah 1,6546; 13,4489; dan -0,5143. Kata Kunci: Analisis faktor, analisis komponen utama, multivariat, MVE, robust UNIVERSITAS SUMATERA UTARA FACTOR ANALYSIS ABSTRACT One of the estimation methods in factor analysis is the principal component analysis method. Factor Analysis with the Principal Component Analysis method describes the structure of the variance-covariance matrix of data through a small number of components that are not correlated with each other, where the component is a linear combination of the origin variables so that they have maximum variance. The robust covariance-variant matrix can be estimated by the Minimum Ellipsoid Volume (MVE). In this study, the robust estimated factor loading and the classic estimated factor loading have different results such in variable X1 , the factor loadings are 2,6069; -3,2191; and -0,0762. However, the classic estimated factor loadings are 1,6546; 13,4489; and -0,5143. Keyword: Factor Analysis, Multivariate, MVE, Principal Component Analysis, Robust v PENGHARGAAN Puji dan syukur penulis panjatkan kepada Allah SWT, atas limpahan karunia-Nya penulis dapat menyelesaikan penyusunan skripsi dengan judulAplikasi Matriks Varian-KovarianRobust Pada Analisis Faktordengan baik,guna melengkapi syarat memperoleh gelar S1Matematika pada Fakultas Matematika dan Ilmu Pengetahuan Alam diUniversitas Sumatera Utara. Dalam kesempatan ini, penulis ingin mengucapkan terima kasih yangsebesar-besarnya kepada semua pihak yang telah membantu dan membimbingpenulis dalam penyusunan skripsi ini, ucapan terima kasih penulis sampaikankepada Bapak Alm. Drs. Pengarapen Bangun, M.Si dan IbuDr. Elly Rosmaini, M.Si selaku Dosen Pembimbing.Bapak Dr. Sutarman, M.Scdan IbuDra. Laurentina Pangaribuan, MSselaku DosenPembanding atas segala saran dan masukan yang diberikan dalam penyelesaian skripsi ini.Bapak Dr. Suyanto, M.Kom dan Bapak Drs. Rosman Siregar, M.Siselaku Ketua dan Sekretaris Departemen Matematika FMIPA USU.Bapak Dr. Kerista Sebayang, MS selaku Dekan FMIPA USU serta semuaWakil Dekan FMIPA USU.Semua Dosen Departemen Matematika FMIPA-USU dan pegawai diFMIPA-USU.Ayahanda Helmi Wahyudi, Ibunda Suriyani, M.Pd,Saudara penulis, Ari Andrian, S.T dan Dimas Anhari, serta keluarga yang memberikan doa dan dukungan bagi penulis.Seluruh teman-teman. penulisanskripsi ini. Maka, diperlukan kritik dan saran dari pembaca untukpenyempurnaan skripsi ini. Medan, September 2018 2.1.4 Matriks Ortogonal 6 2.1.5 Matriks Simetrik 7 2.1.7 Matriks Identitas 7 2.1.8 Determinan Matriks 7 2.2 Analisis Faktor 8 2.3 Metode Estimasi 11 2.3.2 Faktor Model Solusi Komponen Utama 14 2.4 Analisis Komponen Utama Yang Robust 14 2.5 Minimum Volume Ellipsoid (MVE) 15 2.5.1 Algoritma MVE 15 3.1 Pengumpulan Data 18 3.3 Analisis Faktor Klasik 4.1 Kesimpulan 25 4.2 Saran 25 UNIVERSITAS SUMATERA UTARA memahami hubungan kompleks yang tidak bisa dipahami dengan metode univariat atau bivariat. Semakin banyak variabel, semakin besar kemungkinan bahwa variabel- variabel tersebut berhubungan (berkorelasi) dan tidak mewakili konsep yang berbeda atau variabel-variabel ini mewakili konsep yang lebih umum. Analisis faktor membantu pemilihan variabel-variabel yang lebih representatif atau membuat variabel baru sebagai pengganti variabel asli tapi masih mengandung karakteristik dari variabel asli tersebut. Ada beberapa metode estimasi pada analisis faktor, salah satunya adalah metode analisis komponen utama. Analisis Faktor dengan metode Analisis Komponen Utama (Principal Component Analysis) menjelaskan struktur matriks varian-kovarian data melalui sejumlah kecil komponen yang tidak saling berkorelasi, dimana komponen tersebut merupakan kombinasi linier dari variabel-variabel asal sedemikian hingga mempunyai variansi yang maksimal. Seringkali Analisis Komponen Utama digunakan sebagai langkah pertama dalam analisis data, seperti dalam regresi komponen utama, analisis diskriminan, analisis cluster dan berbagai metode analisis multivariat lainnya. Matriks varian-kovarian sangat sensitif terhadap pengamatan outlier. Pada kenyataannya, data lapangan seringkali mengandung beberapa pengamatan outlier dan biasanya tidak mudah untuk dipisahkan dari data. Oleh karena itu, penyusutan dimensi data berdasarkan Analisis Komponen Utama yang klasik menjadi tidak dapat diandalkan lagi apabila pengamatan outlier muncul dalam data (Sujatmiko et al., 2005). pengamatan lainnya. Pendeteksian outlier pada pengamatan univariat telah dilakukan UNIVERSITAS SUMATERA UTARA 2 oleh Hawkins (1980) yang melihat suatu outlier tunggal pada sampel dengan melihat pengamatan yang menyimpang dari pengamatan lain. Barnet dan Lewis (1994) melihat pengaruh pengamatan yang tidak konsisten dengan pengamatan lain pada proses multivariat, Pena dan Prieto (2001) menyajikan prosedur pendeteksian outlier didasarkan pada analisis proyeksi dari titik-titik sampel, dan Filzmoser (2005) mengidentifikasi outlier didasarkan pada jarak Mahalanobis. Keberadaan outlier akan mengganggu dalam proses analisis data dan harus dihindari dalam banyak hal. Dalam kaitannya dengan analisis, outlier dapat menyebabkan residual yang besar dari model yang terbentuk, varians pada data tersebut menjadi lebih besar, taksiran interval memiliki rentang yang lebar. Pengamatan outlier dapat diatasi dengan Analisis Komponen Utama yang robust. Pendekatan pertama dilakukan dengan menggantikan matriks varian-kovarian yang klasik dengan suatu estimator yang robust. Berbagai metode untuk mendapatkan estimator yang robust telah banyak ditawarkan. Namun, breakdown point (tingkat robust) yang dimiliki tidak lebih dari 1 (+1) , dimana p merupakan dimensi data. Hal ini berarti bahwa untuk dimensi yang besar, suatu kelompok pencemar yang sangat kecil dapat menghasilkan estimasi yang masih dipengaruhi oleh pengamatan outlier. Matriks varian-kovarian robust dapat diestimasikan dengan fast Minimum Covariance Determinant (fast-MCD) atau Minimum Volume Ellipsoid (MVE). Pada penelitian ini penulis menggunakan metode MVE sebagai estimator robust pada matriks varian-kovarian. Biasnya yang rendah membuat MVE sangat berguna untuk deteksi outlier dalam data multivariat, sering kali melalui penggunaan jarak robust berbasis MVE. MVE. 1.2 Rumusan Masalah Berdasarkan latar belakang di atas, didapati bahwa outlier akan mengganggu hasil dari analisis faktor. Gangguan ini disebabkan oleh matriks varian-kovarian yang UNIVERSITAS SUMATERA UTARA 3 tidak konsisten di dalam analisis faktor. Maka, salah satu metode yang dapat digunakan untuk menaksir matriks varian-kovarian adalah Minimum Volume Ellipsoid (MVE). 1.3 Batasan Masalah Adapun yang menjadi batasan masalah dalam penulisan skripsi ini yaitu metode yang digunakan pada Analisis Faktor adalah metode Analisis Komponen Utama dengan estimator Minimum Volume Ellipsoid (MVE). 1.4 Tujuan Penelitian pada analisis faktor dan memperlihatkan bahwa Minimum Volume Ellipsoid (MVE) merupakan estimator robust yang berguna untuk pendeteksian outlier pada data multivariat. kovarian robust pada analisis faktor. 1.6 Metodologi Penelitian 1. Studi Pendahuluan ataupun jurnal-jurnal yang berhubungan dengan analisis faktor dan estimasi MVE. Brownlee. berikut: b. Melakukan analisis faktor dengan menggunakan estimator robust. c. Menghitung proporsi kumulatif varian yang dapat dijelaskan dari hasil yang didapat dari analisis faktor robust. 4. Membuat kesimpulan. UNIVERSITAS SUMATERA UTARA BAB 2 TINJAUAN PUSTAKA Pada bab ini akan diurai tinjauan pustaka yang digunakan di dalam penulisan skripsi ini. 2004). = [ 2.1.2 Matriks Invers Invers matriks A merupakan matriks kebalikan dari A. Hal tersebut dapat dinyatakan dengan −1. Adapun formulasi invers dinyatakan sebagai berikut : −1 = 1 () : adjoint A atau transpose dari matriks kofaktor A Invers matriks A merupakan kebalikan dari matriks A, maka hasil dari perkalian antara matriks A dengan inversnya akan menghasilkan identitas (I). −1 = −1 = UNIVERSITAS SUMATERA UTARA 2.1.3 Matriks Definit dan Semidefinit Positif Sebuah matriks A berukuran × dikatakan bersifat definit positif jika untuk sembarang vektor ≠ 0 , bentuk kuadratik − > 0. Sedangkan dikatakan semidefinit jika − ≥ 0. Jika A adalah definit positif maka persamaan − = c dengan c adalah konstanta. Jika A adalah matriks diagonal yang semua unsur diagonalnya bernilai positif, maka A adalah matriks definit positif. Akan tetapi, apabila ada sebuah unsur bernilai nol dan yang lain positif maka A akan menjadi matriks semidefinit positif. Matriks diagonal yang unsurnya ragam peubah akan bersifat demikian karena ragam tidak pernah bernilai negatif. Matriks yang definit positif, akar-akar cirinya semua bernilai positif dan determinan dari matriks definit positif juga bernilai positif karen berupa hasil perkaliannya. Jadi determinannya tidak sama dengan nol, sehingga A bersifat non- singular. Matriks B berukuran × , maka dan bersifat semidefinit positif. Jika < dan () = , maka definit positif, tetapi masih semidefinit positif. 2.1.4 Matriks Ortogonal Suatu matriks bujur sangkar A disebut ortogonal jika = = yaitu jika = −1. UNIVERSITAS SUMATERA UTARA 2.1.5 Matriks Simetrik Sebuah matriks A berukuran n x n dikatakan simetrik jika A T = A. Misalnya, jika aij adalah unsur ke (i,j) dari matriks, maka untuk matriks simetrik adalah aij = aji , untuk semua i dan j. 2.1.6 Matriks Transpose A Jika A adalah sebarang matriks × , maka transpose dari A dinyatakan oleh A T dan didefinisikan dengan matriks × yang didapatkan dengan mempertukarkan baris-baris dan kolom-kolom dari A, sehingga kolom pertama dari A T adalah baris pertama dari A, kolom kedua dari A T adalah baris kedua dari 2.1.7 Matriks Identitas Jika R adalah bentuk eselon baris tereduksi dari matriks × , maka terdapat dua kemungkinan yaitu R memiliki satu baris bilangan nol atau R merupakan matriks identitas (Anton & Rorres, 2004). 2.1.8 Determinan Matriks Menurut Mattjik dan Sumertajaya (2011), determinan matriks × adalah perkalian dari semua akar ciri A, 1, 2, , dapat dinotasikan ||, sehingga || = × × . Jadi || = 0 jika dan hanya jika paling tidak ada satu akar yang nol, yaitu terjadi jika dan hanya jika A singular. UNIVERSITAS SUMATERA UTARA 2.2 Analisis Faktor Analisis faktor adalah nama umum yang diberikan kepada kelas metode statistik multivariat yang tujuan utamanya adalah menentukan struktur yang mendasari dalam matriks data. Secara umum, analisis faktor membahas masalah menganalisis struktur hubungan timbal balik (korelasi) di antara sejumlah besar variabel (misalnya, nilai tes, item tes, tanggapan kuesioner) dengan mendefinisikan satu set dimensi umum yang mendasari, yang dikenal sebagai faktor. Dengan analisis faktor, peneliti dapat mengidentifikasi dimensi terpisah dari struktur dan kemudian menentukan sejauh mana setiap variabel dijelaskan oleh masing-masing dimensi. Setelah dimensi ini dan penjelasan masing-masing variabel ditentukan, dua penggunaan utama untuk analisis faktor—peringkasan dan reduksi data—dapat dicapai (Hair, 2010). Menurut Johnson dan Wichern (1982), analisis faktor merupakan teknik analisis multivariat yang bertujuan untuk meringkas sejumlah p variabel yang diamati menjadi sejumlah m faktor penting, dengan < . Misal X adalah vektor random teramati dengan yang memiliki p komponen pada pengamatan ke-i, dengan vektor rata-rata () dan matriks kovariansi (). Vektor X bergantung secara linier dengan variabel 1, 2, … , yang disebut faktor bersama dan sejumlah sumber variansi dari 1, 2, ... , yang disebut faktor spesifik. Model analisis faktor menurut Johnson dan Wichern adalah: 1 − 1 = 111 + 122 + + 1 + 1 2 − 2 = 211 + 222 + + 2 + 2
Dengan: : Faktor bersama (common factor) ke-m p : Faktor spesifik ke-p Faktor spesifik berkorelasi dengan yang lain dan dengan common factor. Common factor dapat dinyatakan sebagai kombinasi linier dari variabel yang diteliti. Dengan persamaan: Dimana: W : Bobot atau koefisien skor faktor : Banyaknya variabel X pada faktor ke-p p = 1, 2, ..., n ; j = 1, 2, ... , n Struktur kovarian untuk model faktor ortogonal adalah: 1. () = ′ + Ψ Atau 2 + Ψ Atau Struktur Eigen pada matriks kovarian ditentukan dengan misalkan X adalah vektor random p-komponen dimana p adalah jumlah variabel. Matriks kovarian, , diberikan oleh E(XX’). Misalkan ′ = (1 2 ) adalah sebuah vektor bobot untuk membentuk kombinasi linier dari variabel-variabel asli, dan = ′ adalah variabel baru, yang adalah kombinasi linier dari variabel-variabel asli. Varian dari variabel baru tersebut diberikan oleh E(′) dan sama dengan E(′′) atau ′ Σ. Masalahnya sekarang mengurangi untuk mendapatkan vektor bobot, ′, sedemikian hingga variannya, ′ Σ , dari variabel baru tersebut maksimal pada kelas kombinasi linier yang bisa dibentuk subjek pada kendala ′ = . UNIVERSITAS SUMATERA UTARA Misalkan = Σ2 − (2 − 1) = Σ2 − 2 + dimana adalah pengali Lagrange. Vektor p-komponen dari turunan parsialnya diberikan dengan = 2Σ − 2 membentuk vektor turunan parsial di atas menjadi nol pada solusi akhir. Yakni, (Σ − ) = 0 agar sistem persamaan homogen di atas memiliki sebuah solusi nontrivial, determinan (Σ − ) harus nol. Yakni, |Σ − | = 0 Persamaan di atas adalah polinomial dalam derajat p, dan karena itu memiliki p akar. Misalkan 1 ≥, 2 ≥,… , adalah p akar. Persamaan di atas menghasilkan nilai p untuk , dan masing-masing nilai disebut eigenvalue atau akar dari matriks Σ. Masing-masing nilai menghasilkan bobot yang diperoleh dari vektor p- komponen dengan menyelesaikan persamaan berikut: (Σ − ) = 0 ′ = Maka, eigenvektor pertama, 1 , sesuai dengan eigenvalue pertama, 1, diperoleh dengan menyelesaikan persamaan (Σ − 1)1 = 0 UNIVERSITAS SUMATERA UTARA ′1(Σ − 1)1 = 0 ′1Σ1 = ′11 ′1Σ1 = 1 karena ′11 = 1. ′1Σ1 adalah varian dari variabel baru, , dan sama dengan eigenvalue, 1. Principal component yang pertama diberikan oleh eigenvektor, 1, sesuai dengan eigenvalue terbesar, 1. Misalkan 2adalah vektor bobot p-komponen kedua yang membentuk kombinasi linier lainnya. Kombinasi linier selanjutnya dapat ditemukan sedemikian hingga varian dari ′2 adalah subjek maksimum pada kendala ′12 = 0 dan ′22 = 1. Dapat ditunjukkan bahwa principal component yang tersisa, ′3, ′4, … , ′, adalah eigenvektor yang sesuai dengan eigenvalue, 3, 4, … , , pada matriks kovarian, . Maka, masalah dalam menemukan bobot merupakan menemukan struktur eigen dari matriks kovarian. Eigenvektor memberikan vektor bobot dan eigenvalue mewakili varian dari variabel-variabel baru atau nilai principal components. 2.3 Metode Estimasi Pada pengamatan yang diberikan 1, 2, … , dengan variabel sejumlah p yang secara umum berkorelasi, analisis faktor akan mencari jawaban dari pertanyaan: “Apakah model faktor, dengan faktor berjumlah sedikit, dapat merepresentasikan data dengan tepat?” Pembuatan model statistik ini dilakukan dengan memverifikasi hubungan kovarian. Matriks kovarian sampel S adalah sebuah estimator matriks kovarian populasi yang belum diketahui. Jika elemen-elemen off-diagonal dari S kecil atau elemen-elemen dari matriks korelasi sampel R pada dasarnya nol, variabel-variabel UNIVERSITAS SUMATERA UTARA tersebut tidak berhubungan, dan analisis faktor tidak akan terbukti berguna. Dalam keadaan ini, faktor-faktor spesifik memainkan peran dominan, dimana tujuan utama analisis faktor adalah untuk menentukan beberapa faktor umum yang penting. Jika muncul menyimpang secara signifikan dari matriks diagonal, maka model faktor dapat dibentuk, dan masalah awalnya adalah memperkirakan faktor loading dan varian tertentu Ψ. Penulis menggunakan metode estimasi Komponen Utama (dan Faktor Utama) untuk menyederhanakan interpretasi faktor. 2.3.1 Analisis Komponen Utama (Principal Component Analysis) Misalkan mempunyai pasangan eigenvalue-eigenvektor (, ) dengan 1 ≥ 2 ≥ ≥ ≥ 0. Maka, = [√1 √2 √ ] [ √1 ′ √2 ′ √ ′] (2.1) Ini sesuai dengan struktur kovarian yang ditentukan untuk model analisis faktor yang memiliki banyak faktor sebagai variabel (m = p) dan varian tertentu Ψi = 0 untuk semua i. Matriks loading mempunyai j kolom yang diberikan oleh √ . Dapat ditulis ( ×) = ( ×)′( ×) + ( ×) = ′ (2.2) Terlepas dari faktor skala √, faktor loading pada faktor ke-j adalah koefisien untuk komponen utama ke-j dari populasi. Meskipun representasi analisis faktor dari di (2.1) tepat, dia tidak terlalu berguna: dia menggunakan banyak faktor umum karena ada variabel-variabel dan tidak memungkinkan variasi dalam faktor-faktor spesifik. Penulis lebih memilih model yang menjelaskan struktur kovarian hanya dari beberapa faktor umum. Satu pendekatan, ketika eigenvalue terakhir p−m kecil, adalah dengan mengabaikan kontribusi dari +1+ ′ + + + ′ terhadap di (2.1). Dengan mengabaikan kontribusi ini, dapat diperoleh pendekatan UNIVERSITAS SUMATERA UTARA [ √1 ′ √2 ′ √ ′] Representasi pendekatan di (2.3) mengganggap bahwa faktor-faktor spesifik di model faktor ortogonal dengan m faktor (×1) = (×1) + (×) (×) + (×) adalah kepentingan minor dan bisa juga diabaikan dalam pemfaktoran . Jika faktor- faktor spesifik dimasukkan di dalam model, variannya bisa diambil untuk elemen diagonal dari − ′ , dimana ′ didefinisikan pada (2.3). Memungkinkan untuk faktor-faktor tertentu, diperoleh pendekatan menjadi = ′ + Ψ [ √1 ′ √2 ′ √ ′] = untuk i = 1, 2, ..., p. Untuk menggunakan pendekatan ini pada data 1, 2, … , , yang pertama dilakukan adalah memusatkan pengamatan dengan mengurangi mean sampel . Pengamatan terpusat mempunyai matriks kovarian sampel S yang sama dengan pengamatan asli. Dalam kasus ini dimana unit variabel tidak sepadan, biasanya dapat berhasil dengan variabel yang sudah distandardisasi = 14 yang matriks kovarian sampelnya adalah matriks korelasi sampel R dari pengamatan 1, 2, … , . Standardisasi mencegah memiliki satu variabel dengan varian besar yang terlalu mempengaruhi penentuan faktor loading. Representasi dalam (2.4), ketika digunakan pada matriks kovarian sampel S atau matriks korelasi sampel R, dikenal sebagai solusi komponen utama (principal component solution). Nama tersebut diambil dari fakta bahwa faktor loading-nya adalah koefisien skala dari beberapa komponen utama sampel pertama. 2.3.2 Faktor Model Solusi Komponen Utama Analisis faktor komponen utama dari matriks kovarians sampel S ditentukan dalam hal pasangan eigenvalue-eigenvektornya (1, 1), (2, 2), ..., (, ), dimana 1 ≥ 2 ≥ ≥ . Misalkan < adalah jumlah faktor-faktor umum. Maka matriks faktor loading yang diperkirakan {} diberikan oleh = [√1 √2 √] (2.6) perkiraan varians tertentu disediakan oleh elemen diagonal dari matriks S−′, maka Ψ = = (2.7) Komunalitas diperkirakan sebagai 2 = 1 Analisis faktor komponen utama dari matriks korelasi sampel diperoleh dengan memulai dengan R di tempat S (Wichern, 2007). 2.4 Analisis Komponen Utama Yang Robust Untuk mendapatkan analisis komponen utama yang robust dapat dilakukan dengan menggantikan matriks varian-kovarian yang klasik dengan suatu estimator yang UNIVERSITAS SUMATERA UTARA robust) yang tinggi. Estimator Minimum Volume Ellipsoid (MVE) didasarkan pada ellipsoid volume terkecil yang mencakup h dari n pengamatan. MVE adalah estimator multivariat yang kuat dan penyebaran multivariasi yang affine equivariant dengan breakdown tinggi. MVE dapat dihitung dengan algoritma resampling. Biasnya yang rendah membuat MVE sangat berguna untuk pendeteksian outlier dalam data multivariat, sering kali melalui penggunaan jarak robust berbasis MVE. Minimum Volume Ellipsoid (MVE), pertama kali diperkenalkan oleh Rousseeuw, adalah estimator robust pertama dengan breakdown tinggi yang umum digunakan. MVE menjadi populer karena ketahanannya yang tinggi terhadap outlier, yang membuat MVE menjadi alat yang diandalkan untuk pendeteksian outlier. 2.5.1 Algoritma MVE Misalkan diberikan data hasil n pengamatan dengan p variabel acak sebagai berikut: Pengamatan: X1 X2 Xp 1 X11 X12 X1p 2 X21 X22 X2p 3 X31 X32 X3p 4 X41 X42 X4p n Xn1 Xn2 Xnp Dari data dengan n pengamatan ini, akan terdapat subsampel sebanyak ( + 1) yang langkah sebagai berikut: 1. Dipilih himpunan bagian yang memuat ( + 1) pengamatan. Selanjutnya untuk setiap himpunan bagian berukuran ( + 1) tersebut, sebutlah himpunan indeks = {1, … , +1} ⊂ {1,… , } . 2. Menentukan rata-rata (mean) sampel dengan rumus = 1 +1 ∑ diperoleh pusat ellips = (1, 2, 3) dimana: 1 = 11 + 21 + 31 + + (+1)1 + 1 + 1 + 1 = 1 ∑( +1 =1 = = Matriks kovarian ini pada umumnya nonsingular, dan memang harus nonsingular. Bila tidak, banyaknya pengamatan harus ditambah sampai pemilihan ( + 1) himpunan bagian dari sampel ini mengakibatkan nonsingular. 2 = [( − ) 17 dimana h : n menunjukkan jarak kuadrat terkecil ke-h di antara jarak kuadrat dari n pengamatan dalam . Dengan menggunakan jarak kuadrat tersebut, dibuat faktor skala ⁄ ini merupakan jari-jari ellips ke arah sumbu XJ. 4. Sebagai penentu yang sangat penting dalam MVE adalah volume ellipsoid yang proporsional dengan nilai Setelah selesai langkah ke-4 dengan memperoleh nilai volume ellips untuk subsampel pertama, selanjutnya ulangi langkah 1 sampai 4 di atas untuk subsampel ke-2 berukuran…