Yapay Sinir Ağları - 2 - Back Propogation - Geri Yayılım Algoritması - Türkçe Not

Embed Size (px)

Citation preview

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    1/9

    4.4.3 Hata tolerans

    Klasik hesaplama sistemleri ok az bir zarardan bile etkilenir. YSA iin durum farkldr. Bu

    farkllk YSA'nn hata toleransl olmasdr. lem elemanlarnn az da olsa zarar grmesi

    sistemin btnn etkiler. YSA paralel dalm parametreli bir sistem olduundan her bir

    ilem eleman izole edilmibir ada olarak dnlebilir. ekil 4.9 'da ok katmanl perseptron

    (MLP) iin bu durum gsterilmitir.

    ekil 4.9 MLP'nin izole edilmihali

    Daha ok ilem elemann zarar grmesi ile sistemin davran biraz daha deiir. Performans

    der ama sistem hi bir zaman durma noktasna gelmez. YSA sistemlerinin hata toleransl

    olmasnn nedeni bilginin tek bir yerde saklanmayp, sisteme datlmasdr. Bu zellik

    sistemin durmasnn nemli bir zarara neden olaca uygulamalarda nem kazanr.

    4.4.4 YSA kullanmnn sebepleri

    1- YSAlar verilerden haraketle, bilinmeyen ilikileri akllca hemen ortaya karabilmektedir.

    Bu zellikleri, uygulama asndan son derece nemlidir. Ayrca veri toplama iin bir n

    sorgulama ya da aklama gerekmemektedir.

    2- YSAlar zm olarak genelletirilebilir. Bir rnekten hareketle, dier rneklerdeki

    benzerlikleri doru olarak anlayabilirler. Genelletirme yaplabilmesi bu bakmdan ok iyi bir

    zelliidir, nk gerek dnya verilerinde srekli olarak grlt ve bozucu etkiler mevcuttur.3- YSAlar lineer olmayan yapdadr. Bu zellikleri nedeni ile daha karmak problemleri

    lineer tekniklerden daha doru zerler. Non-lineer davranlar hissedilir, alglanr, bilinebilir,

    ancak bu davranlar ya da problemleri matematiksel olarak zmek zordur.

    4- YSAlar son derece paralellie sahiptir. Bamsz ilemleri ayn anda ok hzl

    yrtebilirler. Paralel donanmlar yaplar gerei YSAlara uygun olduundan kendisine

    alternatif zm metodlarndan daha elverilidir.

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    2/9

    4.4.5 YSAnn klasik yazlmlar ile karlatrlmas

    YSAlar, srarla belirtildii gibi nceden tahmin, rnek deerlendirme ve gruplama

    ilemlerinde etkilidir. Ayn ilemleri klasik bir bilgisayar program ile yapmak da

    mmkndr. YSAlar, aka kurallar bulunmayan veya annda optimizasyon kstlamalar

    koyan uygulamalar iin idealdir. YSA iin endstriyel kontrol ilemleri olduka yaygn

    uygulama alanlardr. Burada kurallar ok sk deimez ve stelik iyi bir taraf da teki

    alma koullarna ait verilerin bol oluudur.

    Klasik programlar da belirli bir grev iin yazlm bir yazlm yllarca ayn tip ii yapar.

    rnein, bir mhendislik program olan Autocad ve benzerleri ile srekli ayn hizmetler

    yaplabilir.

    YSAlarn uygulamadaki dezavantajlarn sralayacak olursak,

    1- Bir problemin zmnde ok uygun bir zm bulamayabilirler ve zmde hata

    yapabilirler. Buna sebep ise eitelecek bir fonksiyonun bulunamamasdr. Fonksiyon bulunsa

    bile yeterli veri salanamayabilir.

    2- Sonu almak yzlerce girirneinin hesaplanmasna bal olabilir. Ayrca hangi arln

    sonucu nasl etkileyeceini tahmin etmek zordur.

    3- YSAlarla bir dizi ilem yapmak, bunlar eitmek yavave pahal olabilir. Maliyeti arttran

    sebeplerden ilki eitme verilerinin toplanmas ve deerlendirilmesidir. Doru deerleri

    bulmak iin deneyler yapmak gerekebilir.

    4- Bir YSAnn kalitesi ve kapasitesi uygulamadaki hz ile orantldr. yleki dm

    saysndaki az bir artbile yrtme zamannda ok daha fazla arta sebep olur. rnein 100dmde 10 000 balant var ise, standart bir mikroilemci bunu 10 000 000 arpma-

    saklama ilemi yaparak hesaplanr. Bylece adan saniyede 1000 geiolur. Eer 300 dm

    var ise ayn ilemci ancak 100 kere geiyapmay salayabilir. Ksacas dm says 3 kat

    arttnda cevap sresi 10 kat azalr.

    Yinede YSAlarn dier zmlerden daha doru zmler rettikleri de bir gerektir. nk

    bu sakncal durumlar teorik olarak sz konusudur.

    4.5 ok Katmanl Perceptron (Multi-Layer Perceptron)

    ok katmanl perceptron girive kkatmanlar arasnda birden fazla katmann kullanld

    YSA sistemleridir. Gizli katman (hidden layer) olarak isimlendirilen bu katmanlarda ,

    dmleri aracsz giri olmayan ve aracsz k veremeyen niteler vardr. ekil 4.10 'de

    ok katmanl perceptronun genel yaps verilmitir. ekil 4.11'de ise ok katmanl

    perceptronda gizli katmann etkisi gsterilmitir.

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    3/9

    ekil 4.10 ok katmanl perceptron yaps

    ekil 4.11 ok katmanl perceptronda gizli katmann rol

    ki katmanl alarda veriler girikatman tarafndan kabul edilirler. Aiinde yaplan ilemler

    sonucunda k katmannda oluan sonu deer ilenen cevap ile karlatrlr. Bulunan

    cevap ile istenen cevap arasndaki herhangi bir ayrlk varsa arlklar bu fark azaltacak

    ekilde yeniden dzenlenir. Giriteki deer, arlklar uygun noktaya ulaana kadar deimez.

    Hesaplanan klar istenilen cevaplarla karlatrlarak sonuta gerekirse hata iaret belirtilir.

    Hata iareti gizli birimlerden kbirimine olan arlklar deitirmekte kullanlr. Ama bunu

    yaparken girikatmanndan gizli katmana gelenin deitirilip deitirelemediini dnmek

    gerekir. Gizli birimlerden ne tr bir k istendii bilinemeyecei iin gizli birimlerin

    knda hata iareti verilmesi kolay bir ey deildir. Bunun yerine her bir birimin, k

    biriminin hatalarna olan etkisi bilinmelidir. Bu hatal birim iin gizli birime bal olan k

    birimlerinin hata iaretlerinin arlklar toplam alnarak yaplr. ok gizli katmana sahip

    sistemlerde her sistemin hata iaretleri, bir nceki katmann dzeltilmi iaretlerinden

    kartlarak ilem tekrarlanr. Sonu olarak arlk dzeltme ilemi k seviyesine bal

    arlklardan balar ve ilem ters ynde, giri seviyesine varana kadar devam eder. Sonuta

    sistem hatalar yapar, ama bu hatalardan bireyler renip isteneni bulana kadar ileme devam

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    4/9

    eder. Bu ynteme "hatann geriye yaylmas algoritmas" (Error back-propagation algorithms)

    denir. Yaplan alma da byk deerli saysal verilerle ilem gerekletirildiinden-baz

    ufak dezavantajlarda dikkate alnarak- sonuca daha hzl yaklaan "hzl hatann geriye

    yaylm algoritmas" kullanlmtr. Ksaca klasik hatann gerye-yaylm algoritmas

    hakknda bilgi verildikten sonra dier alt blmler de hzl hatann geriye-yaylm algoritmas

    incelenecektir.

    4.6 Klasik Hatann Geriye Yaylmas Algoritmas ve GenelletirilmiDelta Kural

    Hatann geriye yaylmas algoritmas, karesi alnmhata fonksiyonunu minimize eden

    kodlu bir algoritma olup ve genelletirilmi delta kuraln eitme iin kullanlr. ekil

    4.12'de mimarisi gsterilen algoritma, ana hatlaryla yledir:Her bir j biriminin k oju ekilde tanmlanr;

    +===i

    j

    jijijjj ownetisexfnetfo )()( (4.1)

    Burada oi; i. biriminin k wji; i biriminden j birimine balantnn arl, j; j biriminin

    kutbu (bias) {i; k j birimine akan her i biriminin toplamdr. f(x) bir monoton artan ve

    trevi alnabilen fonksiyondur. Pratikte bir lojistik aktivasyon fonksiyonu olarak f(x)=1/ 1 +

    e-x(sigmoid) daha ok kullanlr.

    ekil 4.12 Hatann geriye yaylmas algoritmasnn blok diyagram

    m-boyutlu giri rntleri set edildiinde { ip= (ip1,ip2....ipn) ; p E P}'dir. Benzer ekilde

    istenilen n- boyutlu k rntleri { tp= (tp1,tp2......tpn) p E P} belirtir. Burada; P:YSA

    uygulanan iaret ekilsel v.b. rntleri verir.Bir grnt iin karesel hata (MSE) fonksiyonu Epu ekilde tanmlanr.

    =.

    2)(21

    kj

    pjpjp otE (4.2)

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    5/9

    Ama uygun wjive qjseimiyle, E = p Eptoplam hatay yeterince kk yapmaktr. Buamac gerekletirmek iin, bir p P rnts ard arda ve rasgele biimde seilir. Daha sonra

    wjive qjyle deitirilir;

    ipi: Giriiaretinin i bileeni;

    tpj: kvektrnn j bileeni;

    opj: YSA uygulanan P rnt setinin rettii kise;

    )(

    )(

    )(

    j

    p

    jp

    ji

    p

    jip

    pjpjpj

    E

    w

    Ew

    ot

    =

    =

    =

    (4.3)

    Burada : renme oran ad verilen kk bir pozitif sabit saylr. ayet gizli katman yok ise;

    (4.3)nin son iki denkleminin sataraf hesaplanr, o zaman;

    pjpjpj

    pji

    p

    ji

    pj

    pj

    p

    ji

    p

    oto

    E

    w

    o

    o

    E

    w

    E

    ==

    =

    )(

    (4.4)

    pi

    ji

    pj

    i

    pijip iw

    oiseiwo =

    = ; (4.5)

    elde edilir. (4.4)n ikinci denklemi ve (4.5) ifadelerini (4.4)'n birinci denkleminde yerine

    koyarsak;

    pipj

    ji

    pi

    w

    E=

    (4.6)

    olur.

    Gizli katman olduu zaman; Hata dzeyi sadece bir minimumdan olumaz, ayn zamanda

    eitli minimumlar ierir. renmede en kk minimuma ulalmak istenir.

    Bu durumda j. dmn lineer olmayan k;

    ==i

    pjjijjjpj ownetpnetpfo )( (4.7)

    eklindedir. Bu durumda;

    pi

    k

    pkjk

    jiji

    j

    ji

    j

    j

    p

    ji

    poow

    ww

    netp

    w

    netp

    netp

    E

    w

    E=

    =

    =

    (4.8)

    )(' jjj

    pj

    pj

    p

    j

    p

    pj netpfnetp

    o

    o

    E

    netp

    E

    =

    = (4.9)

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    6/9

    ki durum var:1- opj YSA'nn k ise;

    (4.4)n ikinci denklemini (4.9)'de yerine koyarsak,

    )()( ' jjpjpjpj netpfot = (4.10)

    bulunur.

    2- Eer gizli katmanlarn kiaretinden bahsediliyorsa yani eleman keleman deilse;

    k j

    k

    k

    p

    p

    netp

    netp

    E (4.11)

    eklinde ise,

    =

    k

    kjpk

    i

    pjki

    k pjk

    pwow

    onetp

    E (4.12)

    olur. Bulduumuz son ilemi (4.9)'de yerine koyarsak;

    =k

    kjpkjpj wnetpf )(' (4.13)

    elde edilir. (4.12) denklemindeki (-) iareti, arlklarn ters ynde deitiini belirtir. Btn

    yaptmz ilemleri ksaca zetleyecek olursak;

    1. Genelletirilmi(delta) kural: p ji pj piiw = 2. kkatman elemanlar iin;pj pj pj j jt netp= ( ) ( )o f

    3. Gizli katman elemanlar iin; pj j j pk kjk

    netp w= f ( )

    olur. lem elemannda, transfer (eik) fonksiyonu olarak "sigmoid" fonksiyonu kullanlrsa;

    +

    +=

    i

    owpj jpijieo

    1

    1 (4.14)

    (netp wj ji pi ji

    )= + o ifadesinin trevi alnr ve gerekli ksaltmalar yaplrsa;

    )1( pjpjj

    pjoo

    netp

    o=

    (4.15)

    bulunur. Bunu (4.14) de yerine koyarsak, keleman iin;)1()( pjpjpjpjpj ooot = (4.16)

    elde edilir. (4.15)'i (4.13) de yerine koyarsak, gizli katman eleman iin;

    =k

    kjpkpjpjpj woo )1( (4.17)

    bulunur. Yukarda toplam ierisinde gsterilen k'nn, j k birimine akan herbirim k

    olduuna dikkat edilmelidir. Hesaplamay hzlandrmak iin momentum terimleri ( )

    eklenirse, en genel halde kve gizli katman ifadeleri u ekilde olur:

    )()1()()1(

    tt

    twotw

    jppjjp

    jippipjjip

    +=+

    +=+ (4.18)

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    7/9

    Burada; t: renme saykllarnn saysn gsterir. () kk pozitif bir saydr.

    4.7 Hzl Hatann Geriye Yaylm Algoritmas (Fast Backpropagation Algorithm) ve

    Hzl Delta Kural (Fast Delta Rule)

    ekil 4.12'de mimarisi gsterilen algoritma, tanh'e dayal hata fonksiyonunu minimize eden

    bir algoritma olup, hzl delta kuraln eitme iin kullanlr. ekil 4.13'de ise fonksiyonun

    kendisi verilmektedir.

    ekil 4.13 Algoritmada kullanlan tanh(x) eik fonksiyonu

    4.7.1 Hzl Delta Kural

    Tek katmanl sinir alarnn eitimi genellikle aadaki denklemde tanmlanan nesnel

    fonksiyon G()'nn, =

    =m

    k

    kGG1

    )()( eklinde ifade edilmesine baldr.

    = ===

    +=+=0 0

    1 1,1

    1,2

    1

    ' )()1()()1()(n

    i

    n

    i

    ki

    m

    k

    ki

    m

    k

    eeEEG (4.19)

    burada 222

    1)( xx = ve 1(.) pozitif tanml, konveks ve heryerde diferansiyeli alnabilir

    (trevi tanml) fonksiyon ve [0,1]. Gk() ise,

    = =

    =+=0 0

    1 1,1,2 ,......,2,1)()1()()(

    n

    i

    n

    i

    kikik mkeeG (4.20)

    eklinde tanmldr. Bylece, denklem 4.19, denklem 4.20 (k=1,2,....,m) de yerine konup,

    dzenli olarak kltlerek minimize edilir. Gradyen inimetodu genibir ekilde denklem

    4.20'nin minimizasyonunu gerekletirmek iin kullanlr. An k analog ise, gradyen

    -1

    1

    x

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    8/9

    iniin adaki snaptik arlklar iin gncelletirilmi denklemi olan 4.21'deki ekli Ek1 de

    aklanmtr.

    kkpkpkp xww )(0

    ,1,, += (4.21)

    +=

    )(tanh)1()()( ,,,,0

    , kpkpkpkpkp yyyy (4.22)

    Yine Ek1'de belirtildii gibi, an k binary (ikili) snaptik arlklar ise, bu da denklem

    4.21'deki gibi gncelletirilmitir.

    ))(1()( ,,

    2

    ,

    0

    , kpkpkpkp yyy

    = (4.23)

    Hzl Delta Kural algoritmas izelge 4.2'de sunulan akdiyagramyla zetlenebilir.

    Denklem 4.24'n minimizasyonunun alternatif bir formlasyonu binary ka sahip ileri-

    besleme sinir alar iin ikinci-mertebeden algoritmalarn geliimine temel salad

    (Karayiannnis, 1991; Karayiannis ve Venetsanopoulas, 1991). Bu formlasyon da G()'nn

    )()( ,1

    0

    mi

    n

    i

    GG =

    = eklinde gzlemlenmesine dayanr.

    =

    ==

    =

    +=00

    1

    2,

    2

    ,11

    ,,1

    )(2

    1)()(

    n

    i

    kiki

    m

    k

    n

    i

    kiki

    m

    k

    yyyyyG (4.24)

    = =

    =+=m

    k

    m

    k

    kikikikikimi niyyyyyG

    1 10

    2,

    2

    ,,,,, ,........,2,1)(2

    1)()( (4.25)

    Denklem 4.24, her bir eleman yi,k, k=1,2,.....,m olmak zere sadece snaptik arlklarmatrisinin i'nci srasna bal olduundan, her bir i=1,2,.....,n0 iin 4.25'de belirtilen nesnel

    fonksiyonu minimize ederek minimize edilebilir. Bu sonu snaptik arlklar matrisinin her

    bir srasnn wi* , i=1,2,.....,n0olmak zere nesnel fonksiyon 4.25'i minimize ederek tahmin

    edilebilmesini salar. Ak bir ekilde, Gi,m-1 () sadece (yk,xk), k=1,2,.....,m-1 eklinde

    birlemelere baldr. Bu yzden, a, Gi,m-1 ()'yi minimize ederek (yk,xk), k=1,2,.....,m-1

    eklinde birlemelere bal olarak eitilebilir. An snaptik arlklar Gi,m () 'y minimize

    ederek yeni tanml indis (ym,xm) ile gncelletirilebilir. wi'nin Gi,m-1()'yi minimize edilerek(yk,xk), k=1,2,.....,m-1 armlarna bal olarak gncelletirilmi olduu varsaylarak wi

  • 7/26/2019 Yapay Sinir Alar - 2 - Back Propogation - Geri Yaylm Algoritmas - Trke Not

    9/9

    =wi,m-1 eklinde sonulanr. Snaptik arlklar matrisinin (w'nn) i'nci sras denklem 4.26'y

    kullanarak, Gi,m-1()'yi minimize ederek (ym,xm) armyla gncelletirilir.

    1,,

    1,1

    ,1,,

    )()(

    =

    == mii

    i

    mi

    miimimimi ww

    w

    GwwHww

    (4.26)

    burada imi wG /)(, Gi,m()'nn wi'ye bal gradyeni, Hi,m() Hessian matrisi, renme

    oran, pozitif bir gerek saydr.

    izelge 4.2 Hzl Delta Kural'nn akdiyagramStartInitialize w with random values

    Select =1

    1 k=0 (arm says)E=0

    2 kk+1x=xky=yk

    =

    =in

    j

    jiji xwy1

    )(

    iii

    yye

    =

    [ ]iii ee tanh)1()(0 += (analog k)

    )()1()(2

    0iiii yyy

    = (binary k)

    xww iii )(0 +

    =

    =1

    )(j

    jiji xwy

    =

    +0

    1

    2)(2

    1 n

    i

    ii yyEE

    if: kEo; then: go to 1

    Stop

    4.7.2 Hzl Geriye Yaylm Algoritmas

    Bu algoritma k=1,2,....,m iin 4.20'de belirlenen Gk() nesnel fonksiyonunu sral olarak

    minimize etmesi Ek2 de ayrntl bir ekilde gsterilir. wpq snaptik arlklar iin gncel

    denklem aadaki gibi elde edilir.