22
Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan

  • Upload
    zared

  • View
    61

  • Download
    1

Embed Size (px)

DESCRIPTION

Jaringan Syaraf Tiruan. X1. Y1. W1. X2. Y2. W2. Fungsi aktivasi. X3. Y3. W3. Masukkan. Keluaran. Model Neuron JST. Bobot. Y1 = X1.W1 + X2.W2 + X3.W3; dst…. Model Neuron. Pada JST, neuron-neuron akan dikumpulkan dalam lapisan lapisan yang disebut dengan layers - PowerPoint PPT Presentation

Citation preview

Page 1: Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan

Page 2: Jaringan Syaraf Tiruan

Model Neuron JST

)(;1

zHyxwzn

iii

X1

X2

X3

Y1

Y2

Y3

W1

W2

W3

Fungsi aktivasi

Masukkan Keluaran

Bobot

Y1 = X1.W1 + X2.W2 + X3.W3; dst…

Page 3: Jaringan Syaraf Tiruan

Model Neuron Pada JST, neuron-neuron akan dikumpulkan

dalam lapisan lapisan yang disebut dengan layers

Neuron dalam satu lapisan akan dihubungkan dengan neuron pada lapisan lainnya

Kadang muncul juga layer tersembunyi (hidden layer) untuk menambah keakuratan pelatihan

Informasi tersebut bisa dirambatkan secara forward ataupun backward

Page 4: Jaringan Syaraf Tiruan

Istilah dalam JST Neuron: sel syaraf tiruan yang merupakan elemen pengolah

JST Jaringan: bentuk arsitektur JST, kumpulan neuron yang

saling berhubungan dan membentuk lapisan Input: sebuah nilai input yang akan diproses menjadi nilai

output Output: solusi dari nilai input Hidden layer: lapisan yang tidak terkoneksi secara langsung

dengan lapisan input atau output, memperluas kemampuan JST

Bobot: nilai matematis dari sebuah koneksi antar neuron Fungsi aktivasi: fungsi yang digunakan untuk mengupdate

nilai-nilai bobot per-iterasi dari semua nilai input. Fungsi aktivasi sederhana adalah mengakalikan input dengan

bobotnya dan kemudian menjumlahkannya (disebut penjumlahan sigma)

Berbentuk linier atau tidak linier, dan sigmoid Paradigma pembelajaran: bentuk pembelajaran, supervised

learning, atau unsupervised learning

Page 5: Jaringan Syaraf Tiruan

JST dengan 3 layer

Page 6: Jaringan Syaraf Tiruan

Arsitektur Jaringan Single Layer

Hanya memiliki satu lapisan dengan bobot-bobot terhubung.

Langsung menerima input dan mengolahnya menjadi output tanpa menggunakan hidden layer

Multi Layer Memiliki satu atau lebih lapisan input, satu atau lebih

lapisan output, dan lapisan tersembunyi Dapat menyelesaikan masalah yang lebih kompleks

karena lebih akurat Fungsi pembelajarannya lebih rumit

Kompetitive Model / Recurrent Model Hubungan antar neuron tidak diperlihatkan secara

langsung pada arsitektur Hubungan antar neuron dapat digambarkan sebagai

jaring yang rumit

Page 7: Jaringan Syaraf Tiruan

Model JST

Single Layer • Multi Layer

• Competitive Layer / Recurrent

Page 8: Jaringan Syaraf Tiruan

Pengelompokkan JST JST Feed Forward

Tidak mempunyai loop Contoh: single layer perceptron, mutilayer

perceptron, radial basis function JST Feed Backward (Recurrent)

Memiliki loop, lapisan output akan memberi input lagi bagi lapisan input

Contoh: competitive networks, kohonen, hopfield, ART

Page 9: Jaringan Syaraf Tiruan

Paradigma pembelajaran Supervised Learning

Kumpulan input berusaha membentuk target output yang sudah diketahui sebelumnya

Perbedaan antara output yang masih salah dengan output yang diharapkan harus sekecil mungkin

Biasanya lebih baik daripada unsupervised Kelemahan: pertumbuhan waktu komputasi eksponensial,

data bnyk berarti semakin lambat Unsupervised Learning

JST mengorganisasikan dirinya untuk membentuk vektor-vektor input yang serupa tanpa menggunakan data atau contoh-contoh pelatihan, biasanya ke dalam suatu kategori/kelompok2 tertentu

Hibrida Learning Gabungan antara unsupervised dan supervised

Page 10: Jaringan Syaraf Tiruan

Algoritma Pembelajaran Umum Dimasukkan n data pelatihan Inisialisasi bobot-bobot jaringan, set i = 1 Masukkan contoh ke-i ke dalam input Cari tingkat aktivasi unit output

menggunakan algoritma yang ditetapkan If memenuhi kriteria output then exit

else: Update bobot2 menggunakan fungsi galat

error, Bobot baru = bobot lama + delta If i=n then reset i=1, else i=i+1

Page 11: Jaringan Syaraf Tiruan

JST dan Aplikasi Klasifikasi: ADALINE, Backpropagation Pengenalan Pola: ART, Backpropagation Peramalan: ADALINE, MADALINE,

Backpropagation Optimasi: ADALINE, Hopfield, Boltzman,

Backpropagation

Page 12: Jaringan Syaraf Tiruan

Fungsi Aktivasi Fungsi undak biner (hard limit)

Fungsi undak biner (threshold)

Page 13: Jaringan Syaraf Tiruan

Fungsi Aktivasi Fungsi bipolar

Fungsi bipolar dengan threshold

Page 14: Jaringan Syaraf Tiruan

Fungsi Aktivasi Fungsi Linier (identitas)

Fungsi Sigmoid biner

Page 15: Jaringan Syaraf Tiruan

McCulloch Pitts Fungsi aktivasi biner Besar bobotnya sama Memiliki threshold yang sama

Contoh buat fungsi logika “and”, input X1 dan X2, dan Y =

1 jika dan hanya jika inputan 1

X1 X2 Y1 1 11 0 00 1 00 0 0

Page 16: Jaringan Syaraf Tiruan

JawabX1 X2 net Y, 1 jika net >=2, 0 jika

net < 2

1 1 1.1+1.1=211 0 1.1+0.1=100 1 0.1+1.1=100 0 0.1+0.1=00

Ternyata BERHASIL mengenali pola

X1

X2

Y

2

1

1

Page 17: Jaringan Syaraf Tiruan

Problem “OR”X1 X2 net Y, 1 jika net >=1, 0 jika

net < 1

1 1 1.1+1.1=211 0 1.1+0.1=110 1 0.1+1.1=110 0 0.1+0.1=00

Ternyata BERHASIL mengenali pola

X1

X2

Y

1

1

1

Page 18: Jaringan Syaraf Tiruan

Problem “X1 and not(X2)”X1 X2 net Y, 1 jika net >=2, 0 jika

net < 2

1 1 1.2+1.-1=1 01 0 1.2+0.-1=2 10 1 0.2+1.-1=-1 00 0 0.2+0.-1=0 0

Ternyata BERHASIL mengenali pola

X1

X2

Y

2

2

-1

Page 19: Jaringan Syaraf Tiruan

Problem “XOR”X1 X2 Y

1 1 01 0 10 1 10 0 0

GAGAL!

F(1,1) = 0

F(1,0) = 1F(0,0) = 0

F(0,1) = 1

Page 20: Jaringan Syaraf Tiruan

Solusi XOR = (x1 ^ ~x2) V (~x1 ^ x2) Ternyata dibutuhkan sebuah layer

tersembunyi

X1

X2

Z1

Z2

Y

2

2

-1

-1

1

1

2

2

1

Page 21: Jaringan Syaraf Tiruan

Tabel

Page 22: Jaringan Syaraf Tiruan

Jaringan HEBB Menggunakan iterasi untuk menghitung bobot dan

bias Dalam setiap iterasi, bobot dan bias diubah

berdasarkan rumus tertentu W = bobot Wbaru = Wlama + X1Y1 Algoritma:

Init, semua bobot wi = 0 Untuk semua input:

Set fungsi aktivasi xi = si Set output y=t Perbaiki bobot: w(baru) = w(lama) + delta w, dengan delta w

= xi*y Perbaiki bias, b(baru) = b(lama) + y