Upload
others
View
5
Download
0
Embed Size (px)
Citation preview
Az idegrendszeri memória modelljei
A memória típusai
● Rövidtávú● Working memory - az aktuális
feladat● Vizuális, auditórikus,...● Prefrontális cortex,
szenzorikus területek● Kapacitás: 7 +-2 minta
● Hosszútávú● Epizodikus, szemantikus● Technikailag: asszociatív● Temporális lebeny, hippokampusz
● Interakció a rendszerek között
H. M.
● Súlyos epilepsziája volt, amit a hippokampusz egy részének eltávolításával orvosoltak1953-ban.
● Ettől kezdve elvesztette az epizodikus memóriaformáció képességét – a korábbi emlékei megmaradtak.
● A rövidtávú memóriája ép maradt, valamint a motoros tanulási képessége is. Megtanult pl. tükörben rajzolni.
● A térbeli memóriája erősen sérült.
● Bizonyítékot szolgáltatott a különböző memóriarendszerek létezésére.
Munkamemória modelljei
● Rekurrens hálózati modellek, serkentő-gátló populációkkal
● Perzisztens aktivitásA kódoló populáció a jel beírása után magasabb rátával tüzel
● Előfeszített állapotA sejtek a beíráskor facilitált állapotba kerülnek, a kiolvasáskor szinkron tüzelés valósul meg
● Oszcillációs modell (később)
● Disztrakció: kis zavaró jelet ignorálni szeretnénk, nagyra viszont elromlik a memória
Perzisztens aktivitás
A majom prefrontális kérgében egyes sejtek megnövekedett aktivitást mutatnak bizonos stimulusok után a késleltetési szakaszban, ami meghatározza az adott választ is.
Szinaptikus modell● Szinaptikus facilitáció és depresszió dinamikája integrate and fire neuronokban
● Fixpont vagy oszcillációs dinamika
● Több elem tárolása
u j t =U−u jt
FU [1−u j t ]∑
k
t−t k j
x j t =1−x j t
Du j t x jt ∑
k
t−t k j
mV i=−V i I irec
t I iext
t
I irec t =∑
j
J ij t ∑k
t−t k j −D ij
J ij t =J ij⋅u j t−D ij⋅x jt−D ij
Asszociatív memória
● Heteroasszociatív● pl. hely-objektum
● Autoasszociatív● Töredékes jelből az eredetit
● Különbség a számítógép memóriája és az AM között: címzés módja
● Kapacitás: hány mintát tudunk eltárolni úgy, hogy azok visszahívhatók legyenek (többféle definíció)
● Stabilitás: minden mintára a legközelebbi tárolt mintát szeretnénk visszakapni
Attraktorhálózatok
● Attraktorok típusai● Pont● Periodikus● Kaotikus
● Vonzási tartományok
● Realizáció: rekurrens neurális hálózatok
● Attraktorok tárolása: szinaptikus súlyokon● Offline tanulás● Online tanulás● One-shot learning
● Előhívás: konvergencia tetszőleges pontból egy fix pontba
Hopfield-hálózat
● Asszociatív memória
● Rátamodell, bináris állapotok
● Minták tárolása: bináris vektorok
● Szimmetrikus súlymátrix
● Dale's law: egy sejt nem lehet egyszerre serkentő és gátló – ezt most megsértjük
● Rekurrens (dominánsan) hálózatok az agyban: hippokampusz CA3 régió, ...
● One-shot learningtanulandó minták: Hebbi szabály
● Léptetési szabályok: szinkron és szekvenciális
x t1=sgn Wx t− x kt1
=sgn ∑i
KW ik x i
t−k
W ij=1N ∑n
Nsins jn
{s1 sN }
A HN dinamikája
● Nemlineáris rendszerek stabilitás-analízise: Lyapunov-függvény segítségével definiáljuk az állapotokhoz rendelhető energiát. Ha a függvény:● Korlátos● Belátható, hogy a léptetési dinamika mindig csökkenti (növeli)
Akkor a rendszer minden bemenetre stabil fix pontba konvergál.
● Hopfield-hálózat Lyapunov-függvénye:
● Attraktorok az eltárolt mintáknál, de más helyeken is
● A HN használható kvadratikus alakra hozható problémák optimalizációjára is
E=−12xTWx− x
A HN kapacitása
● Információelméleti kapacitás● A tárolandó mintákat tekintsük Bernoulli-eloszlású változók halmazának
● Követeljük meg az egy valószínűségű konvergenciát
● Ekkor (sok közelítő lépéssel) megmutatható, hogy
● Összehasonlítás a CA3-mal● Kb. 200000 sejt, kb. 6000 minta tárolható
● Más becslések● figyelembevéve a minták ritkaságát
P sin=1=P s i
n=0 =0.5
lim n∞ P sa=sgn Wsa=1 ∀ a=1M
M≈N
2 log 2N
M≈N1
log21P s i
n=1=
Boltzmann-gép
● Eloszlások reprezentációja – mennyiségek közti statisztikai összefüggések
● Sztochasztikus állapotátmenet
● A hálózat határeloszlása
Energia: Boltzmann-eloszlás:
I=WuMv P vat1
=1=1
1e− I a
E v =−vTWu
12vTMv P v =
e−E v
∑ve−E v
Tanulás Boltzmann-géppel● Felügyelt tanulás, csak W-re, M analóg
● Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től
a -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag:
● Gradient descent – egyetlen bemenetre
a Boltzmann-eloszlásból
● Delta-szabály – az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük
Két fázis: hebbi anti-hebbi
● Nem felügyelt
DKL [P v∣u , P v∣u ,W ]=∑vP v∣u ln
P v∣uP v∣u ,W
P v∣u
⟨DKL⟩=−1N s∑ ln P v
m∣um,W−K
∂ ln P vm∣um ,W
∂W ij
=v imu j
m−∑vP v∣um ,W v iu j
m
W ijW ijw v imu j
m−v i um u j
m
DKL[P u , P u ,W ]
Tanulás Boltzmann-géppel● Felügyelt tanulás, csak W-re, M analóg
● Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től
a -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag:
● Gradient descent – egyetlen bemenetre
a Boltzmann-eloszlásból
● Delta-szabály – az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük
Két fázis: hebbi anti-hebbi
● Nem felügyelt
DKL [P v∣u , P v∣u ,W ]=∑vP v∣u ln
P v∣uP v∣u ,W
P v∣u
⟨DKL⟩=−1N s∑ ln P v
m∣um,W−K
∂ ln P vm∣um ,W
∂W ij
=v imu j
m−∑vP v∣um ,W v iu j
m
W ijW ijw v imu j
m−v i um u j
m
DKL[P u , P u ,W ]
Tanulás Boltzmann-géppel● Felügyelt tanulás, csak W-re, M analóg
● Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től
a -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag:
● Gradient descent – egyetlen bemenetre
a Boltzmann-eloszlásból
● Delta-szabály – az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük
Két fázis: hebbi anti-hebbi
● Nem felügyelt
DKL [P v∣u , P v∣u ,W ]=∑vP v∣u ln
P v∣uP v∣u ,W
P v∣u
⟨DKL⟩=−1N s∑ ln P v
m∣um,W−K
∂ ln P vm∣um ,W
∂W ij
=v imu j
m−∑vP v∣um ,W v iu j
m
W ijW ijw v imu j
m−v i um u j
m
DKL[P u , P u ,W ]
Tanulás Boltzmann-géppel● Felügyelt tanulás, csak W-re, M analóg
● Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től
a -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag:
● Gradient descent – egyetlen bemenetre
a Boltzmann-eloszlásból
● Delta-szabály – az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük
Két fázis: hebbi anti-hebbi
DKL [P v∣u , P v∣u ,W ]=∑vP v∣u ln
P v∣uP v∣u ,W
P v∣u
⟨DKL⟩=−1N s∑ ln P v
m∣um,W−K
∂ ln P vm∣um ,W
∂W ij
=v imu j
m−∑vP v∣um ,W v iu j
m
W ijW ijw v imu j
m−v i um u j
m
Tanulás Boltzmann-géppel● Felügyelt tanulás, csak W-re, M analóg
● Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től
a -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag:
● Gradient descent – egyetlen bemenetre
a Boltzmann-eloszlásból
● Delta-szabály – az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük
Két fázis: hebbi anti-hebbi
● Nem felügyelt
DKL [P v∣u , P v∣u ,W ]=∑vP v∣u ln
P v∣uP v∣u ,W
P v∣u
⟨DKL⟩=−1N s∑ ln P v
m∣um,W−K
∂ ln P vm∣um ,W
∂W ij
=v imu j
m−∑vP v∣um ,W v iu j
m
W ijW ijw v imu j
m−v i um u j
m
DKL[P u , P u ,W ]
Házi feladat
● Hogyan befolyásolja a Hopfield hálózat kapacitását
● a hálózat összekötöttségének változtatása● ha a sejtek nem binárisak, hanem mondjuk 4, 8, …
lehetséges kimenetük van
és miért?