25

Click here to load reader

Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

Embed Size (px)

DESCRIPTION

markov

Citation preview

Page 1: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

TUGAS

PENELITIAN OPERASIONAL TAMBANG

(RANTAI MAKROV)

KELOMPOK VI

JONI PRADINATA 1203135

CALVIN MAHARZA 1202089

RIZQIA ZAHARA PUTRI 1203136

JURUSAN TEKNIK PERTAMBANGAN

FAKULTAS TEKNIK

UNIVERSITAS NEGERI PADANG

PADANG

2015

Page 2: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

KATA PENGANTAR

Puji syukur kehadirat Tuhan Yang Maha Kuasa atas segala limpahan Rahmat-Nya,

sehingga saya dapat menyelesaikan penyusunan makalah ini dalam bentuk maupun isinya yang

sangat sederhana. Semoga makalah ini dapat dipergunakan sebagai salah satu acuan, petunjuk

maupun pedoman bagi pembaca dalam pemahaman mahasiswa tentang“RANTAI

MARKOV(Markov Chains) “dan pembuatan makalah ini bertujuan untuk menyelesaikan tugas

Penelitian Operasional Tambang.

Harapan saya semoga makalah ini membantu menambah pengetahuan dan pengalaman

bagi para pembaca, sehingga saya dapat memperbaiki bentuk maupun isi makalah ini sehingga

kedepannya dapat lebih baik.

Makalah ini saya akui masih banyak kekurangan karena pengalaman yang saya miliki

sangat kurang.Oleh kerena itu saya harapkan kepada para pembaca untuk memberikan masukan-

masukan yang bersifat membangun untuk kesempurnaan makalah ini.

Padang, 25 Mei 2015

Penyusun

Page 3: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

PENDAHULUAN

Model Proses Markov dikembangkan oleh seorang ahli Rusia bernama A.A. Markov, pada

tahun 1906. Rantai Markov (Markov Chains) adalah suatu teknik matematika yang biasa

digunakan untuk melakukan pembuatan model (modelling) bermacam – macam sistem dan

proses bisnis. Teknik ini dapat digunakan untuk memperkirakan perubahan – perubahan diwaktu

yang akan datang dalam variabel – variabel dinamis atas dasar perubahan – perubahan dari

variabel – variabel dinamis tersebut di waktu yang lalu. Teknik ini dapat juga digunakan untuk

menganalisa kejadian – kejadian di waktu – waktu mendatang secara sistematis.

Penerapan Proses Markov mula – mula adalah pada ilmu – ilmu pengetahuan fisik dan

meteorologi. Teknik ini mula – mula digunakan untuk menganalisa dan memperkirakan perilaku

partikel – pertikel gas dalam suatu wadah (container) tertutup serta meramal keadaan cuaca.

Sebagai suatu peralatan riset operasi dalam pengambilam keputusan manajerial. Proses Markov

telah banyak diterapkan untuk menganalisa tentang perpindahan merek (brands witching) dalam

pemasaran, perhitungan rekening – rekening, jasa – jasa persewaan mobil, perencanaan

penjualan, masalah – masalah persediaan, pemeliharaan mesin, antrian, perubahan harga pasar

saham, dan administrasi rumah sakit. Semuanya ini hanya beberapa contoh aplikasi yang banyak

dijumpai sekarang.

Proses stokastik X(t) adalah aturan untuk menentukan fungsi X(t, x) untuk setiap . Jadi

proses stokastik adalah keluarga fungsi waktu yang tergantung pada parameter ξ atau secara

ekivalen fungsi t dan ξ. X(t) adalah proses keadaan diskret bila harga-harganya bulat. Bila tidak

demikian X(t) adalah proses kontinu. Pada tahun 1906, A.A. Markov seorang ahli matematika

dari Rusia yang merupakan murid Chebysev mengemukakan teori ketergantungan variabel acak

proses acak yang dikenal dengan proses Markov. Proses Markov adalah proses stokastik masa

lalu tidak mempunyai pengaruh pada masa yang akan datang bila masa sekarang diketahui.

Untuk dapat menerapkan analisa rantai Markov kedalam suatu kasus, ada beberapa syarat

yang harus dipenuhi :

1. Jumlah probabilitas transisi untuk suatu keadaan awal dari system sama dengan 1.

2. Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam system.

3. Probabilitas transisi konstan sepanjang waktu.

4. Kondisi merupakan kondisi yang independent sepanjang waktu.

Page 4: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

Dalam realita, penerapan analisa Markov bias dibilang cukup terbatas karena sulit

menemukan masalah yang memenuhi semua sifat yang diperlukan untuk analisa Markov,

terutama persyaratan bahwa probabilitas transisi harus konstan sepanjang waktu ( probabilitas

transisi adalah probabilitas yang terjadi dalam pergerakan perpindahan kondisi dalam system ).

Penerapan Proses Markov mula – mula adalah pada ilmu – ilmu pengetahuan fisik dan

meteorologi. Teknik ini mula – mula digunakan untuk menganalisa dan memperkirakan perilaku

partikel – pertikel gas dalam suatu wadah (container) tertutup serta meramal keadaan cuaca.

Sebagai suatu peralatan riset operasi dalam pengambilam keputusan manajerial. Proses Markov

telah banyak diterapkan untuk menganalisa tentang perpindahan merek (brands witching) dalam

pemasaran, perhitungan rekening – rekening, jasa – jasa persewaan mobil, perencanaan

penjualan, masalah – masalah persediaan, pemeliharaan mesin, antrian, perubahan harga pasar

saham, dan administrasi rumah sakit. Semuanya ini hanya beberapa contoh aplikasi yang banyak

dijumpai sekarang.Proses stokastik X(t) adalah aturan untuk menentukan fungsi X(t, x) untuk

setiap . Jadi proses stokastik adalah keluarga fungsi waktu yang tergantung pada parameter ξ

atau secara ekivalen fungsi t dan ξ. X(t) adalah proses keadaan diskret bila harga-harganya bulat.

Bila tidak demikian X(t) adalah proses kontinu. Pada tahun 1906, A.A. Markov seorang ahli

matematika dari Rusia yang merupakan murid Chebysev mengemukakan teori ketergantungan

variabel acak proses acak yang dikenal dengan proses Markov.

Page 5: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

DEFINISI

Model Rantai Markov

Ada beberapa prosedur dalam model rantai markov, antara lain :

1. Menyusun Matriks Probabilitas Transisi.

Untuk menggambarkan proses markov, akan disajikan suatu contoh masalah tentang

kegiatan – kegiatan pemilihan merek dan peramalan probabilitas transisi yang kemungkinan

dilakukan para konsumen, yaitu pergantian dari satu merek ke merek lain. Anggapan bahwa

sampel konsumen terdiri dari kombinasi 1000 responden yang tersebar pada 4 merek : A, B, C,

D. Anggapan selanjutnya adalah bahwa sampel tersebut telah mewakili keseluruhan kelompok

dalam kesetiaannya terhadap suatu merek dan pola pergantian dari satu merek ke merek lain.

Konsumen berpindah dari satu merek ke merek lain dapat karena pengiklanan, promosi khusus,

harga, ketidakpuasan, dan lain sebagainya.

Tabel 2.1 Pertukaran – pertukaran pelanggan untuk satu tahun

MerekPeriode pertama

jumlah pelanggan

Perubahan selama periode Periode kedua

jumlah pelangganMendapatkan Kehilangan

A 220 50 45 225

B 300 60 70 290

C 230 25 25 230

D 250 40 35 255

1000 175 175 1000

Sebelum membicarakan “komponen yang tidak berpindah“ (switching component),

perhatian dipusatkan pada “hard core component“ atau kelompok yang tidak berpindah merek.

Ini memerlukan perhitungan Probabilitas Transisi untuk keempat merek. Probabilitas Transisi

didifinisikan sebagai probabilitas suatu merek tertentu (penjual) akan tetap menguasai para

pelanggannya.

Dari tabel diatas diuraikan pula, selain informasi tentang jumlah “kehilangan“ ke merek

para pesaing juga informasi jumlah “mendapatkan“ langganan dari merek – merek saingan.

Meskipun kita memiliki informasi pola perpindahan merek langganan dalam tabel, tetapi tidak

ada perubahan dalam jumlah merek dan langganan total. Hal ini merupakan karakteristik dasar

proses – proses Markov, yaitu serangkaian perubahan progresif dan saling ketergantungan.

Page 6: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

First-Order dan Higher-Order Analisa Markov

Bagian sebelumnya membahas " hard core component " dan " switching component " para

pelanggan dalam hubungannya dengan suatu merek versus merek – merek lain. Anggapan dasar

adalah bahwa para pelanggan tidak mengubah dari satu merek ke merek lain secara acak,

disamping itu mereka membeli merek – merek pada waktu yang akan datang yang

mencerminkan pilihan – pilihan mereka yang dibuat diwaktu yang lalu.

Proses Markov dapat berbeda order. First-order hanya mempertimbangkan pilihan – pilihan

merek yang dibuat selama suatu periode untuk penentuan probabilitas pilihan dalam periode

berikutnya. Second-order analisa Markov menganggap pilihan – pilihan untuk suatu merek

tertentu dalam periode berikutnya tergantung pada pilihan – pilihan merek yang dibuat oleh para

pelanggan selama dua periode terakhir. Begitu juga untuk third-order, proses Markov yang

digunakan untuk meramal perilaku periode berikutnya terhadap merek – merek tertentu

berdasarkan pola pemilihan merek para pelanggan selama tiga periode terakhir.

Banyak riset pemasaran telah membuktikan bahwa penggunaaan anggapan first-order untuk

maksud – maksud peramalan adalah valid.

Menghitung Kemungkinan Market Share di waktu yang akan datang

Manajemen akan memperoleh manfaat bila mereka mengetahui berapa market share-nya di

periode waktu yang akan datang. Perhitungan market share yang mungkin untuk merek A, B, C,

dan D dalam periode kedua dapat diperoleh dengan mengalikan matriks probabilitas transisi

dengan market share pada periode pertama.

Setelah pemecahan untuk periode kedua, periode ketiga dapat ditentukan dengan dua cara.

Metode pertama adalah kelanjutan pendekatan perhitungan terdahulu, mengalihkan matriks

probabilitas transisi mula – mula dengan market share periode kedua yang akan menghasilkan

market share untuk periode ketiga. Metode kedua adalah mengkuadratkan matriks probabilitas

transisi untuk jumlah periode yang diinginkan dan kemudian mengalikan matriks yang

dihasilkan dengan market share awal. Market share baru untuk periode ketiga dengan

mempergunakan metode – metode tersebut ditunjukkan berikut ini.

a. Perhitungan Metode Pertama

Perkalian matriks digunakan lagi untuk mencari market share setiap merek. Kelebihan dari

metode ini adalah perubahan yang terjadi dari periode ke periode dapat diamati. Bagaimanapun

juga, manajemen mungkin memerlukan informasi market share merek tertentu di waktu yang

Page 7: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

akan datang. Bila hal ini hanya merupakan kasus, metode kedua akan lebih disukai. Metode ini

pada dasarnya menaikkan manfaat matriks probabilitas transisi sebagai cara untuk langsung

menunjukkan suatu jumlah periode di waktu yang akan datang.

b. Perhitungan Metode Kedua

Perkalian matriks digunakan lagi. Pengkuadratan matriks probabilitas transisi berarti

bahwa probabilitas baru pada "retention", “mendapatkan“, dan “kehilangan“ harus

diperhitungkan. Matriks probabilitas transisi yang telah dikuadratkan kemudian dikalikan dengan

market share awal.

Menentukan Kondisi-Kondisi Ekuilibrium

Kondisi ekuilibrium tercapai hanya bila tidak ada pesaing yang mengubah matriks

probabilitas transisi. Dalam keadaan ekuilibrium pertukaran para pelanggan berkenaan dengan

“retention“, “mendapatkan“, dan “kehilangan“ akan statik. Masalahnya, berapa besarnya market

share ekuilibrium ?

Beberapa matriks probabilitas transisi dapat digunakan untuk menggmbarkan kondisi –

kondisi ekuilibrium. Gambaran yang lebih umum terjadi adalah bila tidak ada satu perusahaan

pun yang mendapatkan terus seluruh pelanggannya, yang berarti kondisi ekulibrium akhir

tercapai berdasarkan matriks probabilitas transisi yang tetap.

Penyelesaian Persamaan-Persamaan Secara Simultan

Sebuah perusahaan mempunyai dua pesaing dalam suatu segmen pasar dunia bisnisnya.

Suatu cara yang efektif untuk membuktikan bahwa telah tercapai kondisi ekuilibrium adalah

dengan mengalikan matriks probabilitas transisi dengan market share ekuilibrium.

Penyelesaian dengan Determinan

Penyelesaian diatas kadang-kadang lebih mudah dengan menggunakan determinan-

determinan. Dengan menggunakan aturan Cramer untuk menggembangkan suatu determinan,

langkah pertama adalah mengembangkan determinan pembilang dengan kolom pertamanya.

Ingat bahwa dalam determinan 4 x 4 bila suatu baris dan kolaom dihilangkan, akan tetap ada

determinan 3 x 3 dalam setiap masalah.

Analisa model Proses Markov telah berkembang penggunaannya sebagai peralatan

pengambilan keputusan manajemen dalam banyak bidang bisnis. Beberapa aplikasi model Proses

Markov yang banyak dijumpai sekarang ini mencakup model – model kebijaksanaan

pengendalian kredit optimal, perilaku harga pasar saham, model keputusan persedian,

Page 8: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

penggantian mesin – mesin, scheduling penerimaan di rumah sakit dan program dinamis yang

diterapkan pada beberapa perusahaan manufacturing.

o Proses Markov

Sebuah proses Markov terdiri dari suatu himpunan obyek dan suatu himpunan keadaan

yang sedemikian rupa sehingga :

1. Pada sebarang waktu yang diketahui, tiap – tiap obyek harus berada dalam satu keadaan

tertentu (obyek – obyek yang berbeda tidak perlu berada dalam keadaan yang berbeda).

2. Probabilitas untuk sebuah obyek berpindah atau transisi dari satu keadaan ke keadaan

lainnya (yang mungkin sama seperti keadaan pertama) dalam satu selang waktu tertentu

hanyalah bergantung pada kedua keadaan itu.

Bilangan – bilangan bulat positif dari selang waktu setelah saat ketika proses perpindahan

dimulai menyatakan tahap – tahap proses, yang jumlahnya dapat berhingga atau tak berhingga.

Jika jumlah keadaannya berhingga atau tak berhingga dapat dibilang (countably infinite), maka

proses markov yang bersangkutan suatu rantai Markov (Markov chain). Suatu rantai Markov

berhingga adalah suatu rantai markov yang memiliki jumlah keadaan yang berhingga.

Probabilitas untuk berpindah dari keadaan i ke keadaan j dalam satu selang waktu

dinyatakan dengan pij. Untuk suatu rantai Markov dengan N – keadaan (Di mana N adalah suatu

bilangan bulat positif), maka matriks P = [pij] yang berukuran N N adalah matriks stokastik

atau matriks transisi yang berkaitan dengan proses itu. Jumlah nilai dari elemen – elemen dalam

tiap – tiap baris matriks P ini haruslah satu (syarat perlu). Setiap matriks stokastik memiliki satu

nilai eigen (eigen value) yang nilainya 1 (dapat pula berganda) dan nilai mutlak dari nilai eigen

yang lainnya tidak ada yang lebih besar daripada 1.

o Pangkat Dari Matriks Stokastik

Pangkat ke-n dari sebuah matriks P dengan Pn [Pij(n)]. Jika P adalah matriks stokastik,

maka Pij(n)menyatakan probabilitas bahwa sebuah obyek bertransisi dari keadaan i ke keadaan j

dalam n-buah selang waktu. Dari sini kita peroleh bahwa Pn adalah juga suatu matriks stokastik.

proporsi dari obyek – obyek dalam keadaan i pada akhir selang waktu ke-n dengan xi(n) dan

dinamakan

Page 9: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

X(n) [x1(n), x2

(n), . . . ., xN(n)]

Sebagai vektor distribusi untuk akhir dari selang waktu ke-n, maka

X(0) = [x1(0), x2

(0), . . . ., xN(0)]

Nyatakan proporsi dari obyek – obyek dalam masing – masing keadaan pada awal proses.

Hubungan antara X(n) dan X(0) diberikan oleh persamaan

X(n) = X(0) Pn

Dalam menuliskan persamaan diatas secara implisit kita mengidentifikasikan probabilitas pij

dengan proporsi dari obyek – obyek dalam keadaan i yang berpindah (bertransisi) keadaan j

dalam selang waktu.

o Matriks Ergodik

Sebuah matriks stokastik P adalah ergodik jika limn→∞

Pn

ada yaitu, jika tiap – tiap pij (n)

menuju sebuah limit jika n . Matriks ini diberi nama L, yang adalah juga suatu matriks

stokastik. Komponen – komponen dari X(), yang didefinisikan oleh persamaan adalah distribusi

– distribusi keadaan limit. Mereka menyatakan proporsi – proporsi aproksimasi dari obyek –

obyek dalam berbagai keadaan suatu rantai Markov setelah suatu jumlah selang waktu yang

besar.

Sebuah matriks stokastik adalah ergodik jika dan hanya jika satu – satunya nilai diri yang

besarnya 1 adalah 1 sendiri, dan jika = 1 memiliki gandaan (multiplicity) k, maka terdapat k

buah vektor eigen (kiri) bebas linearyang berkaitan dengan nilai eigen ini. Jika setiap nilai eigen

dari suatu matriks P menghasilkan sejumlah vektor eigen (kiri) bebas linear yang jumlahnya

sama dengan gandaannya, maka terdapat suatu matriks tak singular (nonsingular) M, yang baris

– barisnya adalah vektor eigen dari P, sedemikian rupa sehingga D MPM-1 adalah suatu

matriks diagonal. Elemen – elemen diagonal dari D adalah niali eigen dari P, yang berulang

sesuai dengan gandaannya.

Page 10: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

Kita mengikuti perjanjian bahwa semua vektor diri yang berhubungan dengan = 1

ditempatkan di atas semua vektor eigen lainnya di dalam M. Maka untuk suatu matriks ergodik P

berukuran N N yang dapat diagonalkan yang memiliki gandaan = 1 sebanyak k, matriks

limit L dapat dihitung sebagai berikut :

L = M-1 ( limn→∞

Dn)M = M-1

[1

1.

..

10

..

.0

]Matriks diagonal di sebelah kanan memiliki nilai 1 sebanyak k dan 0 sebanyak (N – k) dalam

diagonal utamanya.

o Matriks Reguler

Sebuah matriks stokastik adalah reguler jika salah satu pangkatnya hanya mengandung

elemen – elemen positif. Jika suatu matriks stokastik adalah reguler, maka nilai dirinya yang

bernilai 1 mempunyai gandaan paling banyak satu, dan semua nilai eigennya yang lain

memenuhi ketidaksamaan i < 1. Dan sebuah matriks reguler adalah ergodik. Jika P reguler

dengan matriks limit L, maka baris yang satu dan yang lainnya dari matriks L ini identik, dan

masing – masingnya merupakan vektor diri kiri unik dari P yang berkaitan dengan = 1 dan

hasil jumlah dari semua komponennya sama dengan satu. Namakan vektor eigen ini dengan E1.

Maka dari persamaan langsung kita peroleh bahwa jika P reguler, maka :

X() = E1

Tanpa memperhatikan distribusi awal X(0).

Page 11: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

Proses Markov

Rantai Markov, merupakan state diskrit proses Markov, adalah proses stochastic X(t)

dengan state S0, S1, ... dan lagi probabilitas pada waktu, tk+1 pada state Si hanya

tergantung pada waktu state tk untuk setiap rangkaian waktu instan t1, t2, ... , tk+1 dimana t1

< t2 < ... < tk+1.

Kita nyatakan proses dalam state Shi pada waktu t1 jika X(t1) = hi, hi menjadi

integer yang tidak negatif. Kemudian definisi di atas dapat ditulis :

Hubungan ini dikenal dengan nama waktu kontinyu properti Markov dan menetapkan

waktu-kontinyu rantai Markov. Istilah waktu kontinyu mengacu pada fakta transisi state

yang diperbolehkan untuk mengambil tempat pada setiap poin waktu. Jika kita membatasi

transisi untuk terjadi hanya pada waktu diskrit instan, akan menunjukkan oleh tanda waktu 1, 2,

... k, ... kemudian kita dapat mendefinisikan waktu kontinyu properti Markov untuk proses

stochastic Xk sebagai :

Rangkaian stochastic yang akan memenuhi properti waktu dikrit. Untuk semua integer

positif k dan semua kemungkinan state-nya disebut waktu diskrit rantai Markov. Pada

rantai tersebut probabilitas dari transisi dari state Si ke state Sj pada waktu k dapat ditulis

sebagai :

Page 12: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

Properti Markov membuat hal tersebut menjadi mungkin untuk dapat membuat

spesifikasi hubungan statistik antar state dalam matriks P(k), yaitu matriks transisi probabilitas.

Jika probabilitas transisi tidak tergantung waktu, kita dapat mengindikasikannya dengan pij, dan

rantai tersebut dikatakan rantai homogen.

State network didefinisikan sebagai jumlah transaksi yang sedang berada di dalam jaringan

dan didesain sebagai Sn untuk state jaringan dengan populasi n. urutan perubahan state

jaringan ini disebut rantai Markovian, misalnya state (S1, S2, S3, ... , Sn) rantai Markovian.

CONTOH SOAL RANTAI MARKOV PENELITIAN OPERASIONAL TAMBANG

Suatu survei dilakukan di sebuah wilayah di kota Jakarta. Diketahui bahwa wilayah tersebut

terdiri dari 1000 keluarga. Dari survei tersebut, diperoleh data bahwa 600 keluarga merupakan

pelanggan toserba ‘Serba’ dan 400 keluarga merupakan pelanggan toserba ‘Ada’. Pada bulan itu,

diketahui bahwa :

Dari 600 keluarga pelanggan toserba ‘Serba’ diperoleh data bahwa 400 keluarga tetap

berbelanja di toserba ‘Serba’ dan 200 lainnya berbelanja di toserba ‘Ada’.

Dari 400 keluarga pelanggan toserba ‘Ada’ dinyatakan bahwa 150 keluarga tetap

berbelanja di toserba ‘Ada’. Sedang 250 lainnya berbelanja di toserba ‘Serba’.

Hitunglah :

1. Matriks probabilitas transisi untuk permasalahan di atas!

2. Probabilitas untuk toko “Serba” dan “Ada” pada bulan ketiga apabila pada bulan pertama

keluarga tersebut memilih untuk berbelanja di toko “Serba”

3. Probabilitas untuk toko “Serba” dan “Ada” pada bulan ketiga apabila pada bulan pertama

keluarga tersebut memilih untuk berbelanja di toko “Ada”

4. Nilai probabilitas pelanggan dalam keadaan tetap!

5. Jumlah perkiraan pelanggan dalam jangka panjang untuk masing-masing toserba

tersebut!

Page 13: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

Jawab:

a. Langkah pertama yang perlu dilakukan untuk menyelesaikan seluruh pertanyaan di atas adalah

dengan menentukan matriks transisi untuk menghitung nilai probabilitas

Probabilitas bulan pertama “Serba” dan bulan kedua “Serba” = 400/600 = 0.667

Probabilitas bulan pertama “Serba” dan bulan kedua “Ada” = 200/600 = 0.333

Probabilitas bulan pertama “Ada” dan bulan kedua “Serba” = 250/400 = 0.625

Probabilitas bulan pertama “Ada” dan bulan kedua “Ada” = 150/400 = 0.375

Sehingga matriks transisi yang diperoleh adalah:

 Keterangan:

Baris pertama kolom pertama :  Bulan pertama “Serba”, bulan kedua “Serba”

Baris pertama kolom kedua   :  Bulan pertama “Serba”, bulan kedua “Ada”

Baris kedua kolom pertama   :  Bulan pertama “Ada”, bulan kedua “Serba”

Baris kedua kolom kedua     :  Bulan pertama “Ada”, bulan kedua “Ada”

b. Apabila pada bulan pertama, keluarga tersebut memilih untuk berbelanja di toko “Serba”

artinya keluarga tersebut pasti memilih untuk berbelanja di toko “Serba”, jadi probabilitas

keluarga tersebut datang ke toserba “Serba” adalah 1, dan probabilitas keluarga tersebut datang

ke toserba “Ada” adalah 0.

Sehingga matriks probabilitas untuk bulan pertama adalah [ 1   0]

Apabila dilakukan perkalian antara matriks probabilitas pada bulan pertama dengan matriks

transisi pada kasus ini maka akan diperoleh data:

Page 14: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

 Probabilitas pada bulan kedua yang diperoleh memiliki nilai yang sama dengan matriks transisi

pada baris pertama. Tentu saja demikian, karena perhitungan yang dilakukan adalah matriks pada

bulan pertama dengan matriks transisi yang dibentuk dari data probabilitas pada bulan kedua.

Kemudian, untuk menghitung probabilitas pada bulan ketiga adalah dengan mengoperasikan

perkalian matriks antara matriks probabilitas bulan kedua dengan matriks transisinya. Sehingga

diperoleh:

 Jadi diperoleh probabilitas bulan ketiga, apabila pada bulan pertama memilih di toko “Serba”,

untuk toserba “Serba” adalah 0.653, dan toserba “Ada” adalah 0.347.

NB: Ingat bahwa jumlah probabilitasnya harus selalu satu (1)

c. Apabila pada bulan pertama, keluarga tersebut memilih untuk berbelanja di toko “Ada” artinya

keluarga tersebut pasti memilih untuk berbelanja di toko “Ada”, jadi probabilitas keluarga

tersebut datang ke toserba “Ada” adalah 1, dan probabilitas keluarga tersebut datang ke toserba

“Serba” adalah 0.

Sehingga matriks probabilitas untuk bulan pertama adalah: [ 0 1]

Page 15: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

Apabila dilakukan perkalian antara matriks probabilitas pada bulan pertama dengan matriks

transisi pada kasus ini maka akan diperoleh data:

 Sedangkan untuk probabilitas bulan ketiga:

Jadi diperoleh probabilitas bulan ketiga, apabila pada bulan pertama memilih di toko “Ada”,

untuk toserba “Serba” adalah 0.651, dan toserba “Ada” adalah 0.349

d. Menghitung probabilitas keadaan tetap bisa dilakukan dengan melakukan operasi perhitungan

persamaan sebagai berikut:

 Persamaan 1:

Page 16: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

 Persamaan 2:

Karena jumlah probabilitas adalah satu maka Persamaan 3:

 Dari ketiga persamaan tersebut, kita substitusikan sehingga nilai probabilitas S dan A akan

diperoleh. Probabilitas yang kita peroleh itulah yang merupakan probabilitas keadaan tetap.

Dari persamaan 3, maka bisa dikonversikan menjadi

 Substitusikan ke persamaan 1:

Substitusikan hasil nilai S tersebut ke dalam persamaan 2:

Jadi probabilitas keadaan tetap (steady state) nya adalah:

Page 17: Kelompok 8 (Rantai Markov)_POT Hari Senin Jam 13.20

Toserba “Serba” = 0.652

Toserba “Ada” = 0.348

e. Jumlah perkiraan pelanggan dalam jangka panjang bisa dihitung dengan mengalikan

probabilitas keadaan tetap dengan jumlah total pelanggannya

Toserba “Serba” = 0.652 * 1000 = 652 pelanggan

Toserba “Ada” = 0.348 * 1000 = 348 pelanggan