UI 14 Umjetne Neuronske Mreze

Embed Size (px)

DESCRIPTION

UI 14 Umjetne Neuronske Mreze

Citation preview

  • Zavod za elektroniku, mikroelektroniku, raunalne i inteligentne sustave

    v4.6, 08. lipnja 2010.

    Bojana Dalbelo Bai Marko upi Jan najder

    Umjetne neuronske mree

  • 2MotivacijaMotivacija

    Automatiziranu obradu podataka danas uglavnom rade digitalna raunala.

    Ipak, jo je uvijek daleko vie podataka ija obrada nije automatizirana. Te podatke obrauju

    ivani sustavi ivih organizama!

    Razvoj jedne grane raunarstva motiviran je razmatranjem prevladavajueg naina obrade podataka u svijetu u kojem ivimo.

    Traimo drugaiji koncept obrade podataka koji bi bio sliniji funkcioniranju biolokog mozga.

    A.I. - sustav koji uspjeno oponaa rad mozga bio bi inteligentan.

    1.1.

  • SadrajSadraj

    1. Uvod u neuro-raunarstvo Povijesni pregled Pravci AI Definicija i vrste Primjena Uenje ivani sustav i bioloki neuron Model neurona i vrste Arhitektura mrea

    2. Procesni elementiPerceptron Pravilo perceptrona Primjer Uenje booleovih funkcija Linearna odvojivost XOR problem Linearna regresija Srednja kvadratna pogreka Gradijentni spust LMS algoritam

    3. Backpropagation algoritamBACKPROPAGATION algoritam i interpretacija skrivenog sloja Primjeri uporabe neuronskih mrea Primjer sustava za raspoznavanje

  • 4Motivacija razvoja neuro-raunarstvaMotivacija razvoja neuro-raunarstva

    Istraivanja u neurofiziologiji i kognitivnoj znanosti upuuju: mozak se sastoji od velikog broja neurona koji rade paralelno.

    Najsliniji model: raunalni sustav u kojem brojni procesni elementi podatke obrauju paralelno.

    Paradigma: umjetna neuronska mrea - UNM[artificial neural network ANN]

    Podruje koje se bavi tim aspektom obrade: neuro-raunarstvo

    Grane raunarstva iz skupine tzv. mekog raunarstva (engl. softcomputing).

    1.1.

  • 5Usporedba ljudskog mozga i raunalaUsporedba ljudskog mozga i raunala

    Arhitektura i organizacija mozga gotovo je potpuno razliita od arhitekture konvencionalnih raunala koja su danas u irokoj uporabi (von Neumannova raunala):

    atribut mozak raunalo

    gradbeni element neuron (>100 vrsta) logika vrata

    brzina prijenosa 2 ms ciklus ns ciklus

    broj procesora oko 1011

  • 6...mozga i super-raunala?...mozga i super-raunala?

    Danas najbre raunalo: Jaguar (11/2009, 06/2010) AMD x86_64 Opteron Six Core 2600 MHz (10.4 GFlops) 224 162 jezgri 2 331 000 GFlopsa = 2,3 1015 Flopsa Cray Inc. Linux OS

    http://www.top500.org (koristi se LINPACK benchmark test)

    1.1.

  • 7Pravci razvoja umjetne inteligencijePravci razvoja umjetne inteligencije

    Od prvih dana razvoja umjetne inteligencije (rane 50) postoje dva pristupa razvoju inteligentnih sustava: Simboliki pristup: znanje iz neke domene nastoji se obuhvatiti

    skupom atomikih semantikih objekata (simbola) i zatim initi manipulacija tih simbola pomou algoritamskih pravila

    Konektivistiki pristup: temelji se na izgradnji sustava arhitekture sline arhitekturi mozga koji, umjesto da ga se programira, ui samostalno na temelju iskustva

    Razliita podruja zahtijevaju razliite pristupe. Simboliki pristup je dobar u mnogim podrujima (osobito isplativ

    postao je razvojem ekspertnih sustava), ali nije ispunio rana ekstravagantna obeanja.

    Neuspjeh lei u pogrenoj pretpostavci da je svako znanje mogue formalizirati i da je mozak stroj koji podatke obrauje formalnim pravilima.

    1.1.

  • 8Konektivistiki pristupKonektivistiki pristup

    Mnogi su svakodnevni zadaci previe sloeni za simboliko predoavanje, npr. raspoznavanje uzoraka

    Majku moemo prepoznati u 0.1 s Neuroni u mozgu pale svake ms U seriji, dakle, pali samo 100 neurona Oigledno paralelna obrada!

    1.1.

  • 9Umjetne neuronske mree vs. von NeumannUmjetne neuronske mree vs. von Neumann

    Von Neumannova raunala odlina su za simboliki pristup jer se problemi rjeavaju algoritamski na sekvencijalnom stroju.

    Umjetne neuronske mree su distribuirani i paralelni sustavi. Bitne karakteristine razlike dviju paradigmi/arhitektura:

    von Neumann ANN

    Unaprijed detaljno opisujemoalgoritam kroz korake Ui samostalno ili s uiteljem

    Samo se precizni podaci adekvatno obrauju

    Podaci mogu biti nejasni (um) ili neizraziti

    Funkcionalnost ovisi o svakom elementu

    Obrada i rezultat ne ovisi mnogo o jednom elementu

    Eksplicitna veza: sematiki objekt - sklopovi raunala

    Implicitno znanje (teka interpretacija)

    1.1.

  • Umjetna neuronska mrea - definicijaUmjetna neuronska mrea - definicija

    U irem smislu: umjetna replika ljudskog mozga kojom se nastoji simulirati postupak uenja i obrade podataka.

    Zapravo dosta klimava analogija. Neuronska mrea skup meusobno povezanih jednostavnih

    procesnih elemenata (jedinica, vorova) ija se funkcionalnost temelji na biolokom neuronu i koji slue distribuiranoj paralelnojobradi podataka.

    1.1.

  • 11

    Primjena umjetnih neuronskih mreaPrimjena umjetnih neuronskih mrea

    Odlino rjeavaju probleme klasifikacije i predvianja sve probleme kod kojih postoji sloena (nelinearna) veza ulaza i izlaza.

    Neke osobitosti: Dobre u procjeni nelinearnosti. Mogu raditi s nejasnim ili

    manjkavim podacima (sensor data). Robusne na pogreke u podacima. Rade s velikim brojem varijabli i parametara. Prilagodljive okolini. Sposobne uiti. ...

    Najei zadaci: Raspoznavanje uzoraka. Obrada slike i govora. Problemi

    optimizacije. Nelinearno upravljanje. Obrada nepreciznih i nepotpunih podataka. Simulacije. Prognoza vremenskih serija. ...

    1.1.

  • 12

    Uenje umjetne neuronske mreeUenje umjetne neuronske mree

    Dvije faze rada s ANN: Faza uenja (treniranja) i Faza obrade podataka (iskoritavanja, eksploatacije).

    Uenje iterativan postupak predoavanja ulaznih primjera (uzoraka, iskustva) i eventualno oekivana izlaza pri emu dolazi do postupnog prilagoavanja teina veza neurona

    Jedno predoavanje svih uzoraka naziva se epohom Razlikujemo:

    Pojedinano uenje (on-line) za svaki primjer podeavamo faktore Grupno uenje (batch) cijela epoha u jednoj iteraciji

    Znanje o izlazu kao funkciji ulaza pohranjeno je implicitno u teinama veza neurona

    1.1.

  • 13

    Uenje umjetne neuronske mreeUenje umjetne neuronske mree

    Dva naina uenja: Uenje s uiteljem (supervised learning) postoje primjeri oblika

    (ulaz, izlaz) Uenje bez uitelja (unsupervised learning) izlaz je a priori

    nepoznat

    1.1.

  • 14

    Uenje umjetne neuronske mreeUenje umjetne neuronske mree

    Skup primjera za uenje esto dijelimo na: Skup za uenje slui za iterativno podeavanje teina Skup za testiranje provjeravamo rad mree Skup za provjeru konana provjera

    Uenje se provodi dok mrea ne daje odgovarajuu tonost obrade podataka (uvodi se mjera pogreke)

    PretreniranostANN gubi poeljno svojstvo generalizacije i postaje strunjak za podatke iz skupa za uenje (treber)

    1.1.

  • 15

    Na ivani sustavNa ivani sustav

    1011 neurona, 100 razliitih vrsta, rasporeeni po definiranom rasporedu, svaki povezan s 104 drugih

    Dijelovi: soma, dendriti, akson, zavrni lanci

    1.1.

  • 16

    Umjetni neuronUmjetni neuron

    McCulloch-Pitts model (1943.): Threshold Logic Unit (TLU) Analogija: signali su numerike vrijednosti, jakost sinapse opisuje

    teinski faktor w, tijelo stanice je zbrajalo, akson je prijenosna (aktivacijska) funkcija f

    1.1.

  • 17

    Umjetni neuronUmjetni neuron

    X0=1, w0=-theta )()(0

    netfxfon

    iii ==

    =

    =

    =++++=n

    iiinn xxxxxnet

    0221100 ...

    +++= nnxxxnet ...2211

    1.1.

  • 18

    Umjetni neuron Umjetni neuron

    Razliite funkcije dolaze u obzir kao prijenosne funkcije:

    ADALINE

    TLU

    Sigmoidalna jedinica

    1.1.

  • 19

    Arhitektura mreaArhitektura mrea

    Mogue arhitekture:

    Aciklika (feedforward) Mrea s povratnom vezom (recurrent net) Lateralno povezana mrea (reetkasta)

    1.1.

  • SadrajSadraj

    1. Uvod u neuro-raunarstvo Povijesni pregled Pravci AI Definicija i vrste Primjena Uenje ivani sustav i bioloki neuron Model neurona i vrste Arhitektura mrea

    2. Procesni elementiPerceptron Pravilo perceptrona Primjer Uenje booleovih funkcija Linearna odvojivost XOR problem Vieslojna mrea perceptrona Linearna regresija Srednja kvadratna pogreka Gradijentni spust LMS algoritam

    3. Backpropagation algoritamBACKPROPAGATION algoritam i interpretacija skrivenog sloja Primjeri uporabe neuronskih mrea Primjer sustava za raspoznavanje

  • 21

    KlasifikacijaKlasifikacija

    ovjek svakodnevno i neprestano obavlja klasifikaciju! Postoji skup objekata/uzoraka koji imaju odreen skup znaajki. Klasifikacija pridjeljivanje naziva/oznaka svakom uzorku iz prostora

    uzoraka.

    Uzorci Prostor uzoraka

    2.2.

  • 22

    KlasifikacijaKlasifikacija

    Jedna mogua klasifikacija

    Dominantno uti likovi

    Dominantno plavi likovi

    2.2.

  • 23

    KlasifikacijaKlasifikacija

    Druga mogua klasifikacija

    Ne moe pisati

    Moe pisati

    2.2.

  • 24

    KlasifikacijaKlasifikacija

    Svaki uzorak posjeduje odreene znaajke (boja, oblik, dimenzije, ).

    Klasifikaciju inimo na temelju nekih od znaajki.

    Uzoraka moe biti beskonano ne moemo unaprijed generirati sve uzorke i pripadne klasifikacije ovjek ipak dobro generalizira

    elimo postupak kojim bismo na temelju malog broja poznatih uzoraka mogli nauiti pravilno klasificirati neviene primjere.

    2.2.

  • 25

    KlasifikacijaKlasifikacija

    Primjer koncepta Dobra tajnica svaki objekt ima dvije znaajke: Znaajka Komunikativnost Znaajka Snalaljivost

    Za potrebe raunala znaajke treba kvantizirati raunalo radi s brojevima.

    Ocjenjujemo znaajke na skali od 1 do 5. 1 je najloija vrijednost. 5 je najbolja vrijednost.

    Oznake Dobra tajnica i ne-Dobra tajnica kodiramo: Dobra tajnica 1 Ne-Dobra tajnica -1

    2.2.

  • 26

    KlasifikacijaKlasifikacija

    Primjer Dobra tajnica

    Kada su ulazi i izlazi brojevi, za klasifikaciju moemo koristiti TLU perceptron.

    Komunikativnost Snalaljivost Oznaka Kodirano

    2 5 "Dobra tajnica" 1

    5 2 "Dobra tajnica" 1

    1 5 ne-"Dobra tajnica" -1

    5 1 ne-"Dobra tajnica" -1

    2.2.

  • 27

    TLU perceptronTLU perceptron

    1943. McCulloch i Pitts TLU Perceptron.

    2.2.

  • 28

    Step(x) = 1, x 0

    1943. McCulloch i Pitts TLU Perceptron.

    Dvije definicije prijenosne funkcije:

    Oba oblika koriste se podjednako. U primjerima emo koristiti TLU:-1,1.

    Step(x) = 0, x < 0

    Step(x) = -1, x < 0

    TLU perceptronTLU perceptron2.2.

  • 29

    TLU perceptronTLU perceptron

    Izlaz raunamo u opem sluaju prema formuli:

    Eksplicitno se uvodi:

    [ ]

    )(

    1

    )()(

    011

    10

    wxwxwStep

    x

    x

    wwStepxwStepnetStepo

    nn

    n

    nT

    +++=

    ===

    K

    MLrr

    10

    2.2.

    =x

  • 30

    TLU perceptronTLU perceptron

    Kada dolazi do promjene klasifikacije?

    Toke koje zadovoljavaju ovu jednadbu ine granicu! (decizijska funkcija)

    Kada imamo dvije znaajke granica je pravac. Vie znaajki rezultira hiperravninom.

    Bitno je uoiti granica je linearna.

    2.2.

    00 011 =+++= wxwxwnet nn K

  • 31

    TLU perceptronTLU perceptron

    U naem primjeru perceptron ima dva ulaza:

    Snalaljivost x1 Komunikativnost x2

    Pretpostavimo:

    2.2.

    [ ] [ ]85.53.11012 =www

  • 32

    TLU perceptronTLU perceptron

    U naem primjeru izlaz raunamo prema formuli:

    2.2.

    [ ] )(1

    011221

    2

    012 wxwxwStepxx

    wwwStepo ++=

    =

    Teinski faktori Komun. Snal. Suma Izlaz Toan Ispravno

    w2 w1 w0 x2 x1 net o=S(net) t

    1 1.3 -5.85 2 5 2,65 1 1 DA

    1 1.3 -5.85 5 2 1,75 1 1 DA

    1 1.3 -5.85 1 5 1,65 1 -1 NE

    1 1.3 -5.85 5 1 0,45 1 -1 NE

  • 33

    TLU perceptronTLU perceptron

    1949. Hebb uiti znai mijenjati jakosti veza! Potrebno je mijenjati teinske faktore. 1958. Rosenblatt: spoj Hebbove ideje i McCulloch-Pitts modela

    Pravilo Perceptrona Ukoliko se uzorak klasificira ispravno ne radi korekciju Ukoliko se uzorak klasificira neispravno primjeni korekciju Cikliki uzimaj sve uzorke redom, a postupak zaustavi kada su

    svi uzorci za redom klasificirani ispravno

    Korekcija:

    2.2.

    )()()()1( kxotkwkw ii +=+

  • 34

    TLU perceptronTLU perceptron

    Uenje perceptrona uz:

    Postupak zavrava s:

    [ ] [ ]93.594.092.0012 =www

    02.0=

    2.2.

    [ ] [ ]85.53.11012 =www

    http://www.zemris.fer.hr/predmeti/nenr/simulacije/fsit/fsitprg.html

  • 35

    TLU perceptronTLU perceptron

    Kako se klasificira novi uzorak [5 5]?

    Kako se klasificira novi uzorak [1 1]?

    Vidimo da je perceptron NAUIO klasificirati uzorke koje prethodno nije vidio!

    1)37.3()93.5594.0592.0( ==+ StepStep

    1)07.4()93.5194.0192.0(

    2.2.

    ==+ StepStep

  • 36

    TLU perceptronTLU perceptron

    TLU moe nauiti neke logike funkcije I, ILI, NE, ...

    2.2.

    1-1

    1

    -1

    x1

    x2 Logiko I

    Istinu kodiramo s 1 La kodiramo s -1

    11

    0

    21

    ===

    www

    Logiko I s M ulaza:

    }1{1

    0

    1

    +====

    Mwww ML

  • 37

    XOR problemXOR problem

    to je s logikom funkcijom XOR? Nije linearno razdvojivo!

    2.2.

    1969. Minsky i Papert Perceptrons Perceptron nije dobar kada ne moe

    rjeiti tako jednostavan problem poput XOR elementarne logike funkcije!

    1-1

    1

    -1

    x1

    x2

    ???

  • 38

    XOR problemXOR problem

    to je s logikom funkcijom XOR? Treba konstruirati mreu!

    2.2.

    212121 xxxxxx +=

    1-1

    1

    -1

    x1

    x2

    TLU

    TLU

    TLU

    x1

    x2

    -1

    -1

    1

    -1

    1

    -1

    1

    1

    1

    21 xx

    21 xx

    2121 xxxx +

    21 xx

  • 39

    TLU perceptronTLU perceptron

    Problem s mreama TLU perceptrona jest nemogunost uenja konvencionalnim postupcima!

    Rjeenje traimo na drugom mjestu...

    2.2.

  • 40

    Nelinearna prijenosna funkcija?Nelinearna prijenosna funkcija?2.2.

    Linearna kombinacija linearnih kombinacija opet je linearna kombinacija...

    Trebamo nelinearne prijenosne funkcije!

    esto se koristi sigmoidalna (logistika) prijenosna funkcija.

    Ovakve mree su univerzalni aproksimatori mogu aproksimirati proizvoljnu funkciju s proizvoljnom preciznou.

  • SadrajSadraj

    1. Uvod u neuro-raunarstvo Povijesni pregled Pravci AI Definicija i vrste Primjena Uenje ivani sustav i bioloki neuron Model neurona i vrste Arhitektura mrea

    2. Procesni elementiPerceptron Pravilo perceptrona Primjer Uenje booleovih funkcija Linearna odvojivost XOR problem Vieslojna mrea perceptrona Linearna regresija Srednja kvadratna pogreka Gradijentni spust LMS algoritam

    3. Backpropagation algoritamBACKPROPAGATION algoritam Primjeri uporabe neuronskih mrea Primjer sustava za raspoznavanje

  • 42

    BACKPROPAGATION algoritamBACKPROPAGATION algoritam

    Kako bi mrea mogla predstaviti visoko nelinearne funkcije, prijenosna funkcija procesnih elemenata mora i sama biti nelinearna funkcija

    elimo li koristiti gradijentne metode, prijenosna funkcija mora biti i derivabilna

    Rjeenje sigmoidalna funkcija

    koja ima prvu derivaciju df(x)/dx = f(x) [1-f(x)]

    3.3.

  • 43

    BACKPROPAGATION algoritamBACKPROPAGATION algoritam

    Koristimo neuron sa sigmoidalnom funkcijom

    Algoritam koristi metodu gradijentnog spusta kako bi minimiziraonastalu pogreku E(w) na izlazu mree nad skupom primjera za uenje D

    Kod vieslojne mree izlazni sloj moe sainjavati vie neurona, pa definiramo pogreku kao

    3.3.

  • 44

    BACKPROPAGATION algoritamBACKPROPAGATION algoritam

    Uenje se svodi na pretraivanje u n-dimenzijskom prostoru hipoteza (n = ukupan broj teina)

    Povrina pogreke E(w) nije parabolika kao kod jednog procesnog elementa, ve sadrava brojne lokalne minimume

    Unato tome algoritam daje dobre rezultate (osobito stohastika varijanta)

    3.3.

  • 45

    BACKPROPAGATION algoritamBACKPROPAGATION algoritam

    Notacija:

    3.3.

    ioj

    jo

  • 46

    BACKPROPAGATION algoritamBACKPROPAGATION algoritam

    Inicijaliziraj teinske faktore na sluajne vrijednostiDok nije ispunjen uvjet zaustavljanja ini

    Za svaki (x,t) iz D iniIzraunaj izlaz ou za svaku jedinicu uZa svaku izlaznu jedinicu k izraunaj pogreku

    Za svaku skrivenu jedinicu izraunaj pogreku

    Ugodi svaki teinski faktor wij

    gdje jeKraj

    Kraj

    ))(1( kkkkk otoo

    )(

    )1(hDownstreams

    shshhh oo

    ijijij +

    3.3.

    k

    ijij o =

  • 47

    BACKPROPAGATION algoritamBACKPROPAGATION algoritam

    h

    Downstream(h) = {s1, s2}

    s1, s1whs1

    whs2s2, s2

    izlazni slojulazni sloj

    s1 = os1 (1 - os1) (ts1 - os1) s2 = os2 (1 - os2) (ts2 os2)

    h = oh (1 - oh) (whs1 s1 + whs2 s2) h e sluiti za ugaanje ulaza u h

    skriveni slojskriveni sloj

    3.3.

  • 48

    Primjer: Raspoznavanje novanica Primjer: Raspoznavanje novanica

    Zadatak klasificiranje etiri vrste papirnatih novanica neovisno o orijentaciji

    Skup primjera za uenje sainjava 16 razliitih uzoraka uzorkovanih s 45x22 slikovna elementa:

    3.3.

  • 49

    Primjer: Raspoznavanje novanica Primjer: Raspoznavanje novanica

    Uzorci se prije dovoenja na ulaze ANN predprocesiraju:

    3.3.

  • 50

    Primjer: Raspoznavanje novanicaPrimjer: Raspoznavanje novanica

    Uzorci su u stvari digitalizirane slike, pa e se meusobno razlikovati u intenzitetu odgovarajuih slikovnih elemenata (posljedica razlike u stupnju istroenosti novanice, izguvanosti papira, oteenosti).

    U primjeru je koriten generator umjetnih uzoraka koji generira uzorke razliitog stupnja oteenja u svrhu provjere rada mree i ugaanja njezinih parametara.

    Prednosti: dostupnost velikog broja uzoraka za provjeru, mogunost promatranja odziva mree u ovisnosti o promjeni

    samo jednog parametra uzorka, mogunost definiranja praga tolerancije oteenih uzoraka.

    Nedostaci: generirani uzorci nisu u potpunosti stohastike prirode, generatorom se rijetko mogu obuhvatiti sva obiljeja pravih

    uzoraka.

    3.3.

  • 51

    Primjer: Raspoznavanje novanica Primjer: Raspoznavanje novanica

    Parametri mree aciklika potpuno spojena uniformno-slojevita mrea strukture 990x3x4, stopa uenja=0.02, moment=0.02, provjera nad skupom za testiranje svakih 2500 epoha

    Rezultat klasifikacije odgovara neuronu iji je izlaz najvei Mrea nije uena s anti-primjerima, no meusoban odnos izlaznih

    vrijednosti moe posluiti kao mjera pouzdanosti klasifikacije Mogue je utvrditi neki prag tolerancije oteenja uzorka

    3.3.

  • 52

    ZakljuakZakljuak

    Neuroraunarstvo: vrlo ivo i aktivno podruje zanimljivo inenjerima, biolozima, neurolozima, psiholozima, medicini,

    Puno razliitih vrsta neuronskih mrea: unaprijedne, samoorganizirajue, rekurentne,

    Omoguavaju uenje iz samih podataka, s uiteljem ili bez njega Rjeavaju zadatke koje mi ne znamo algoritamski opisati i rijeiti Izuzetno robusne Primjena: modeliranje sloenih procesa, regresija, predikcija

    trendova, raspoznavanje uzoraka, klasifikacijski problemi,

    3.3.

  • LiteraturaLiteratura

    T. M. Mitchell, Machine Learning. The McGraw-Hill Companies, Inc., 1997. R. S. Michalski, I. Bratko, M. Kubat, Machine Learning And Data Mining,

    John Wiley & Sons Ltd., 1998 P. Picton, Neural Networks. PALGRAVE, 1994. B. Dalbelo Bai, Biljeke s predavanja. Fakultet elektrotehnike i

    raunarstva, Zagreb, 2001. K. Gurney, "Computers and Symbols versus Nets and Neurons". Dept.

    Human Sciences, Brunel University, Uxbridge, 2001. K. Gurney, "Drawing things together some perspectives". Dept. Human

    Sciences, Brunel University, Uxbridge, 2001. D. Miljenevi, I. Mari, Umjetna inteligencija. kolska knjiga, Zagreb,

    1991. AutomataTheory. Encyclopaedia Britannica Inc., 2001 CD-ROM Edition.

    MotivacijaSadrajMotivacija razvoja neuro-raunarstvaUsporedba ljudskog mozga i raunala...mozga i super-raunala?Pravci razvoja umjetne inteligencijeKonektivistiki pristupUmjetne neuronske mree vs. von NeumannUmjetna neuronska mrea - definicijaPrimjena umjetnih neuronskih mreaUenje umjetne neuronske mreeUenje umjetne neuronske mreeUenje umjetne neuronske mreeNa ivani sustavUmjetni neuronUmjetni neuronUmjetni neuron Arhitektura mreaSadrajKlasifikacijaKlasifikacijaKlasifikacijaKlasifikacijaKlasifikacijaKlasifikacijaTLU perceptronTLU perceptronTLU perceptronTLU perceptronTLU perceptronTLU perceptronTLU perceptronTLU perceptronTLU perceptronTLU perceptronXOR problemXOR problemTLU perceptronNelinearna prijenosna funkcija?SadrajBACKPROPAGATION algoritamBACKPROPAGATION algoritamBACKPROPAGATION algoritamBACKPROPAGATION algoritamBACKPROPAGATION algoritamBACKPROPAGATION algoritamPrimjer: Raspoznavanje novanica Primjer: Raspoznavanje novanica Primjer: Raspoznavanje novanicaPrimjer: Raspoznavanje novanica ZakljuakLiteratura