15
By Arafaf, M.Kom

Jaringan perceptron

Embed Size (px)

Citation preview

Page 1: Jaringan perceptron

By Arafaf, M.Kom

Page 2: Jaringan perceptron

Metode pelatihan Perceptron lebih kuat dari metode Hebb terutama dalam iterasi yang dapat membuat output dari bobot menjadi konvergen.

Perbedaan tipe Perceptron pertama kali dikemukakan oleh Rosenblatt (1962) dan Minsky (1969) .dan Papert (1988).

Aktivasi yang digunakan dalam pereptron adalah aktivasi bipolar, yaitu -1, 0, 1.

inyif

inyif

inyif

inyf

_1

_0

_1

)_(

Page 3: Jaringan perceptron

Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan sebuah output.

Tujuan dari jaringan adalah untuk mengklasifikasikan masing-masing pola input dan pola output baik yang bernilai +1 atau yang bernilai -1.

X1

Xi

Xn

y

1

W1

W i

Wn

W0...

.

.

.

Page 4: Jaringan perceptron

Algoritma berlaku untuk input bipolar atau input biner dengan nilai target bipolar dan nilai threshold yang tetap serta nilai bias yang dapat diatur.

Langkah 1 :Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias dengan angka 0).Set learning rate α (0 < α ≤ 1) (untuk sederhananya, set α dengan angka 1)

Page 5: Jaringan perceptron

Langkah 2:Selama kondisi berhenti bernilai salah, lakukan langkah berikut :Untuk masing-masing pasangan s dan t, kerjakan :

a : set aktivasi dari unit input : xi = si

b : hitung respon untuk unit output :

n

iiiwxbiny

1

_

inyif

inyif

inyif

inyf

_1

_0

_1

)_(

Page 6: Jaringan perceptron

c. perbaiki bobot dan bias, jika terjadi kesalahan pada pola ini :

jika y ≠ t, maka∆w=α*t*xi

wi (baru) = wi (lama) + w dengan w = * xi * t b(baru) =b(lama) + b dengan b = * t

jika tidak, maka wi (baru) = wi (lama)

b(baru) = b(lama) jika masih ada bobot yang berubah maka kondisi

dilanjutkan, jika tidak maka proses berhenti.

Page 7: Jaringan perceptron

Contoh Soal 2.1Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran bipolar. Pilih = 1 dan = 0,2

Jawab :

x1 x2 t

0 0 -1

0 1 -1

1 0 -1

1 1 1

f

w1

w2

x1

x2

n a

1

b

Pola hubungan masukan-target :

Page 8: Jaringan perceptron

Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 1 0 0 0

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 2

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1

Page 9: Jaringan perceptron

Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 3

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 4

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1

Page 10: Jaringan perceptron

Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 5

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 6

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1

Page 11: Jaringan perceptron

Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 7

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 8

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1

Page 12: Jaringan perceptron

Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 9

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1Masukan Target

Output

Perubahan bobot

w = xi t b = t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 1 t n a=f(n) w1 w2 b w1 w2 b

Epoch ke - 10

0 0 1 -1

0 1 1 -1

1 0 1 -1

1 1 1 1

Page 13: Jaringan perceptron
Page 14: Jaringan perceptron

Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama dengan target nya

Page 15: Jaringan perceptron

Latihan Soal 2.2Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka = 1 dan = 0,1.

Jawab :

x1 x2 x3 t

0 1 1 -1

1 0 1 -1

1 1 0 -1

1 1 1 1

Masukan Target

Output

Perubahan bobotw = xi t b =

t

Bobot baruwbaru = wlama +

wbbaru = blama +

b

x1 x2 x3 1 t a w1 w2 w3 b w1 w2 w3 b

Inisialisasi 0 0 0 0

0 1 1 1 -1

1 0 1 1 -1

1 1 0 1 -1

1 1 1 1 1