Author
deborah-velazquez
View
127
Download
3
Embed Size (px)
DESCRIPTION
Invatare automata. Universitatea Politehnica Bucuresti Anul universitar 2008-2009 Adina Magda Florea http://turing.cs.pub.ro/inva_09 si curs.cs.pub.ro. Curs Nr. 6. Re ţ ele neurale Re ţ ele neurale - introducere Re ţ ele neurale artificiale Re ţ ele neurale Hopfield. 2. - PowerPoint PPT Presentation
Invatare automataUniversitatea Politehnica Bucuresti Anul universitar 2008-2009
Adina Magda Floreahttp://turing.cs.pub.ro/inva_09 si curs.cs.pub.ro
Curs Nr. 6Reele neuraleReele neurale - introducereReele neurale artificialeReele neurale Hopfield
*
1. Reele neurale - Introducere(Artificial Neural Networks)RN (ANN) - multime de elemente de prelucrare neliniara care opereaza in paralel si care sunt legate intre ele in structuri ce seamana cu retelele neuronale biologice.Model inspirat din retelele neuronale din creierul uman.retele neurale, modele conexioniste (nume dat mai ales structurilor aparute recent), sisteme neuromorfice, modele de calcul distribuit.*
1.1 CaracteristiciSunt formate dintr-un numar mare de elemente de prelucrare simple, identice; din punct de vedere functional aceste elemente sunt asemanatoare neuronilor din creierul umanElementele de prelucrare sunt conectate prin legaturi; fiecare legatura are asociata o pondere ce codifica cunostintele retelei neuronaleControlul functionarii este paralel si distribuit Sunt capabile sa invete prin modificarea automata a ponderilor; pot realiza deci achizitia automata a cunostintelor.*
1.2 De ce ANN?Capacitate de invatare si adaptare din exempleAuto-organizare: o RN poate sa-si creeze propria organizare sau reprezentare a informatiei primita pe parcursul invatariiOperare in timp real: odata invatata functioneaza repede + prelucrari in paralelGrad mare de robustete si toleranta la defecte: defectarea unui anumit numar de noduri sau legaturi nu afecteaza, in general, comportarea si performanta retelei.
*
1.3 Scurt istoric1943 - McCulloch, Pitts - model simplu (binary devices with fixed thresholds)1960 - Rosenblatt- perceptron - (feed-forward ANN)- enunta si demonstreaza teorema de convergenta a perceptronului1960 - Widrow, Hoff - ADALINE (ADAptive LInear Element)- dispozitiv electronic analogic- folosea ca regula de invatare Least-Mean-Squares (LMS)1969 - Minsky, Papert - au demonstrat limitarile perceptronului1970 - Retele neurale ca memorii adresabile prin continut*
Scurt istoric (cont.)1970 - RN s-au cam abandonat1980 - Cercetari reluate1982 - Hopfield - functia de energie - a pus in evidenta notiunea de memorie ca o multime de atractori dinamici stabili1986 - Rumelhart - perceptroni multinivel, retele backpropagation (recurrent networks) 1988 - Grossberg si Carpenter in 1988 - algoritmi de rezonanta - retele ART (Adaptive Resonance Theory)1988 - Anderson si Kohonen (independent) - tehnici asociative*
1.4 Modelul neuronului uman*
Poza de la PENN School of Medicine http://mail.med.upenn.edu/~hessd/Lesson2.html
Neuronul Purkinje.Structurile ramificate ce pornesc din corpul sferic al celulei sunt dendrite. Culorile reprezinta potentialul membranei (sus)si concentratia ionlor de calciu (jos) in timpul propagarii semnalului prin dendrite.*
Modelul neuronului uman (cont.)Creierul are 1010 neuroni. 1 neuron primeste intrari de la 105 sinapse 1016 sinapse *Componentele unui neuronSinapse
1.5 Modelul neuronului artificialMcCulloch, Pitts (1943) au propus un model simplu al neuronului, cu intrari binare*
Modelul neuronului artificial (cont.)y = f (i=1,nwixi - )y = f (i=0,nwixi)wi reprezinta intensitatea legaturii (conexiunii) de la neuronul cu iesirea xiDaca fi > 0 excitareDaca fi < 0 inhibareDaca fi = 0 nu exista sinapsa intre neuroni - valoarea de prag peste care neuronul se activeaza X0= -1f(x) = 1 - daca x 0 0 - in caz contrar*
2. Reele neurale artificialeModelul unei ANN este caracterizat de:Topologia reteleiCaracteristicile elementelor de prelucrare (noduri / neuroni)Regulile de actualizare / modificare (invatare) a ponderilorSensul de propagare a semnalelor de activare prin retea
*
2.1 Caracteristici ANNTipul de invatare: supervizat, nesupervizat, fara invatareSensul de propagare a semnalelorFeed-forward networks - un singur sensFeedback networks - in ambele sensuri (dinamice, numite si recurente)Regulile de actualizare a ponderilor (invatare)Mapare asociativa: reteaua invata sa produca anumite valori ale intrarilor pentru sabloane particulare aplicate la intrare (regasire sabloane distorsionate, memorie adresabila prin continut)Detectarea regularitatilor: reteaua invata sa raspunda anumitor propietati particulare ale sabloanelor de intrare; fiecare iesire are o anumita semnificatie
*
Caracteristici ANN (cont.)Numarul de straturi sau niveluriTipul intrarilor si al iesirilor: intreg, realTipul functiei de transfer (activare)limitator logica nivel sigmoid
*t = i=1,nwixi -
f(t) = 1 / (1 + e-t)f(t) = (et - e-t) / (et + e-t)fffttt111
Caracteristici ANN (cont.)Functia activare - sigmoid
T temperatur absolut (grade Kelvin).KB = 1,38 * 10-16 erg/K, constanta lui Boltzmann.
*
2.2 Exemple*
Exemple (cont.)*
Exemple (cont.) - Recunoasterea sabloanelor*Retea antrenata sa recunoasca literele T si H
Exemple (cont.) - Recunoasterea sabloanelor*AntrenareFunctionare
Exemple (cont.)*O retea poate arata si asa!
2.3 RN de clasificare cu sabloane fixe - taxonomie*
3. Reele neurale Hopfield1986 Hopfield a propus un model de RN ca o teorie a memorieiCaracteristici: Reprezentare distribuita. O data este stocata ca un sablon de activare a unui set de elemente de prelucrare. In plus, diverse date pot fi stocate sub forma de sabloane diferite, utilizind aceeasi multime de elemente de prelucrare. Control asincron, distribuit. Fiecare element de prelucrare (nod/neuron) ia decizii numai pe baza informatiilor locale. Aceste informatii locale converg spre sinteza solutiei globale.*
Reele neurale HopfieldCaracteristici: Memorie adresabila prin continut. In retea pot fi stocate un anumit numar de sabloane. Pentru regasirea unui sablon, este suficient sa se specifice numai o parte a acestuia, iar reteaua gaseste automat intreg sablonul. Toleranta la defecte. Daca o parte din elementele de prelucrare lucreaza incorect sau se defecteaza, reteaua continua sa functioneze corect.*
3.1 Caracteristici reele HopfieldProblema: Sa se memoreze un set de M sabloane xis (x1xN), s=1,M, astfel incat daca se da un sablon li reteaua sa raspunda producand sablonul care este cel mai apropiat de li , deci cel mai apropiat xisPosibilitate: calcul serial(conventional) - memorarea sabloanelor xis si scrierea unui program care sa calculeze distanta Hamming
si alegem xis pentru care aceasta distanta este minima*s = 1,M
Caracteristici reele Hopfield (cont.)Cum se poate face acelasi lucru cu o RN?Prezentand la intrare sablonul li ce structura si ce ponderi va face iesirile egale cu xis minim?Antrenare retea Hopfield - scaderea energiei starilor pe care trebuie sa le memoreze - stari memorate - minime localeReteaua converge la o stare memorata pe baza unei descrieri partiale a stariiatractoribazine de atractie
Ex: antrenam o retea cu 5 unitati si starea (1, 0, 1, 0, 1) este minim de energie. (1, 0, 0, 0, 1) converge la (1, 0, 1, 0, 1)..Memorie adresabila prin continut si nu foarte sensibila la erori
*
3.2 Structura reelei Hopfieldwij = wji, intrari binare, functia de transfer limitatorIntrari +1 si 1f(xi) = 1 daca jwijxj > i , -1 in caz contrarIntrari +1 si 0f(xi) = 1 daca jwijxj > i, 0 in caz contrar
*
Structura reelei Hopfield (cont)*Intrari la momentul tIntrari la mom. t+1
Structura reelei Hopfield (cont.)Relaxare paralelaExista doua moduri de actualizare a iesirilor:sincron si asincronAbordarea sincrona necesita un ceas central si este potential sezitiva la erori de timing.In modul asincron se poate proceda in doua feluri:-la fiecare interval de timp se selecteaza aleator un neuron si se actualizeza-fiecare neuron isi actualizeaza independent iesirea cu o anumita probabilitate la fiecare unitate de timp.Cele doua posibilitati sunt echivalente (cu exceptia distributiei intervalelor de actualizare). Prima este potrivita pentru simularea cu un control centralizat iar cea de a doua este potrivita pentru unitati hardware independente. *
Algoritmul de relaxare paralela a retelei HopfieldCalculul ponderilor initiale
2. Initializeaza reteaua cu sablonul necunoscut
3. repeta pana la convergenta (xj(tk+1) =xj(tk))
4. xj xj este sablonul cautatsfarsit*0
3.3 AvantajeUtilizare:memorat asociativ ieirea reprezint coninutul cutatclasificator ieirea comparat cu unul dintre cele M exempleProcedura de relaxare paralel: cutare n spaiul strilor. O configuratie de intrare va folosi reeaua ca s ajung ntr-un minim local, starea cea mai apropiat.
*
3.4 LimitariDou limitri majore:(1) numrul de abloane ce pot fi stocate i regsite este limitat:memoria adresat poate conine elemente incorect regsiteclasificate neidentificriHopfield a artat c acest comportament apare destul de rar dac numrul de clase M 0.138*N(2) - un ablon poate fi instabil dac are multe valori identice cu un alt ablon n exemple.ablon instabil reeaua converge spre o stare diferit de cea asociat ablonului*
Demohttp://www.heatonresearch.com/articles/61/page1.htmlhttp://to-campos.planetaclix.pt/neural/hope.html
*
3.5 Motivarea alegerii ponderilorCaz simplu: un singur ablon xi (M=1) pe care vrem s-l memorm.Condiia ca reteaua s fie stabil:
Acest lucru este adevrat dac wij proporional cu xixj deoarece xi2 =1.
Se observ c dac un numr de intrri din ablonul de intrare ( 1/2) sunt greite, ele vor fi depite n suma intrrilor i f(...) va genera corect xj (exista 2 atractori).O configuratie initiala apropiata (in termeni de distanta Hamming) de xj se va relaxa la xj.
*
Motivarea alegerii ponderilor (cont.)Caz cu mai multe sabloane (M)
Regula lui Hebb
Stabilitatea unui sablon particular xpjConditia de stabilitate esteunde hpj al neuronului j pentru sablonul p este:*
3.6 Functia de energieO funcie a configuraiei ni a sistemului. Putem s ne imaginm aceast funcie ca descriind nite suprafee. Proprietatea fundamental a funciei de energie este aceea c descrete ntotdeauna, pe msur ce sistemul evolueaz aa cum s-a specificat.Atractorii (abloanele memorate) sunt minime locale pe suprafeele de energie.
wii = 0
F. de energie care minimizeaza o masura in starile stabile permite un mod alternativ de calcul al ponderilor, valorile obtinute fiind cele date de regula lui Hebb. *
Functia de energie (cont.)Cazul unui singur sablon: dorim ca functia de energie sa fie minima daca suprapunerea de valori intre configuratia retelei si valoarea unui sablon memorat xi este maxima. Astfel alegem:
unde factorul 1/(2*N) este luat pentru a obtine 1/N in formula, altfel se poate lua 1/2.Cazul cu mai multe sabloane: xis - minime locale pentru H prin insumarea peste toate sabloanele:
*
Functia de energie (cont.)Inmultind se obtine:
ceea ce reprezinta aceeasi formula ca cea initiala a energiei considerind wij dupa regula lui Hebb.Aceasta abordare este utila in cazul in care se doreste utilizarea retelei ca un dispozitiv de aflare a solutiei optime (solutie de cost minim).Daca putem scrie o functie de energie o carui minim satisface conditia de solutie optima a problemei, atunci se poate dezvolta acesta functie si identifica ponderile wij drept coeficientii factorilor de forma ninj.Se pot intalni si alti termeni. Constantele nu sunt o problema (se ignora), coeficientii termenilor de forma ni (liniari) se considera valorile de prag ale neuronilor sau legaturi de la un neuron x0. Termenii de forma ninjnk - nu discutam.*
3.7 Aplicatii de optimizareIdentificarea ponderata a grafurilor (bipartite)Fie o multime de N puncte (N par) si distantele dij intre fiecare pereche de puncte. Sa se lege punctele in perechi a.i. un punct sa fie legat cu un singur alt punct si sa se minimizeze lungimea totala a legaturilor.Problema nu este NPSe modeleaza problema cu o retea HopfieldVom folosi 0/1 in loc de +1/-1Se asociaza un neuron nij , i N(N-1)/2 neuroni.Fiecare solutie candidat corespunde unei stari a retelei cu nij=1 daca exista legatura intre i si j si 0 in caz contrar (in solutie).Problema revine la a gasi un mod de specificare a ponderilor wij,kl intre unitati.
*
Identificarea ponderata a grafurilorIntr-o retea simetrica (Hopfield) cu N(N-1)/2 neuroni exista N(N-1)[N(N-1)-2]/8 conexiuni. Dorim sa minimizam lungimea totala a legaturilor
respectand restrictia, pt. orice i =1,N
Aceasta restrictie spune ca fiecare nod din graf trebuie sa fie conectat cu exact un singur alt nod.Definim nij=nji pt. j
Identificarea ponderata a grafurilor (cont.)Functia totala de cost este:
termeni constanti - se ignoracoeficienti ai termenilor liniari (nij) valoarea de prag a unui neuroncoeficienti ai termenilor patratici (nij * nkl) valorile wij,nk
Comparand cu relatia initiala, se observa caeste pentru neuronul nij si restul de termeni din relatie indica faptul ca nij primeste intrari cu activarea - de la celelalte unitati care au legatura cu i sau j.
In general, wij,kl = - ori de cate ori ij are un index in comun cu kl; altfel wij,kl = 0 .
*
Identificarea ponderata a grafurilor (cont.)Interpretarea valorilor Contributia dij la a lui nij reflecta faptul ca, fara restrictia impusa, lungimea minima totala ar fi minimizata la 0 (nici o legatura). Cealalta contributie la , care este -, contracareaza acest lucru astfel incat un numar pozitiv de legaturi sa fie admise. Inhibitia mutuala - reprezentata de wij,kl descurajeaza configuratii cu mai mult de o legatura de la sau spre un neuron.Cum se alege ? Cam de aceeasi marime cu dij tipice aceeasi prioritate de satisfacere a restrictiei cat si de a avea legaturi scurte. mica solutii cu putine legaturi (violeaza restrictia de toate leg) mare nu cele mai scurte legaturi dar satisface restrictia se modifica pe msur ce se relaxeaz reeaua: intai mic (relaxez restr.) apoi gradual mai mare (fortez restrictia).Grafuri bipartite: legaturi numai dij cu iS1 si j S2*
RestrictiiVector cu o singura valoare 1 restul 0Problema celor 8 turnuriProblema celor 8 regine poduce stari stabile si cu mai putine regine ! *
Problema comis-voiajoruluiHopfield i Tank [1985, 1986]Se modeleaza problema cu o retea HopfieldOraele, cu distanele dij ntre eleDac sunt N orae, se aleg N x N neuroninia = 1 dac i numai dac oraul i este parcurs n pasul a*
Problema comis-voiajorului (cont.)Lungimea total a unui traseu este (de fapt este lungimea tuturor traseelor posibile, dac toi neuronii ar fi activi):
2 restrictii:1) i = 1, N 2) a = 1, NFuncia de cost se adauga la L doi termeni de penalizare care sunt minimizai dac restriciile sunt satisfcute *
Problema comis-voiajorului (cont.)ponderi pentru conexiunile intre perechi de neuroni de pe o coloana si intre perechi de neuroni de pe o linie (pt. a satisface restrictiile) si threshold - /2ponderi dij intre ceilalti neuronii (de ex dintr-o coloana si neuronii de pe coloana dinainte si de dupa)
*dijdij
EMBED Equation.3
EMBED Equation.3
-(
-(
-(
-(
-(
_1049068059.unknown
_1049068097.unknown
_1142249676.unknown
_1142249690.unknown
_1049068096.unknown
_1049067963.unknown
_1049068048.unknown
_1049067646.unknown