20
Metody Deep Learning Wykład 4 http://arxiv.org/pdf/ 1502.01852.pdf

Metody Deep Learning - Wykład 4

Embed Size (px)

Citation preview

Page 1: Metody Deep Learning - Wykład 4

Metody Deep LearningWykład 4

http://arxiv.org/pdf/1502.01852.pdf

Page 2: Metody Deep Learning - Wykład 4
Page 3: Metody Deep Learning - Wykład 4
Page 4: Metody Deep Learning - Wykład 4

Zaczynamy

Page 5: Metody Deep Learning - Wykład 4

● nieskierowany model probabilistyczny● dwie grupy binarnych zmiennych losowych

Restricted Boltzmann Machine

szmienne ukryte (hidden)

szmienne widoczne (visible)

Page 6: Metody Deep Learning - Wykład 4

RBM - joint probability● model z energią (model Boltzmanna)● zmienne o wartościach binarnych

Page 7: Metody Deep Learning - Wykład 4

Conditional independence - reminder

Page 8: Metody Deep Learning - Wykład 4

CI in RBM

Page 9: Metody Deep Learning - Wykład 4

inference

Page 10: Metody Deep Learning - Wykład 4

inference c.d

Page 11: Metody Deep Learning - Wykład 4

RBM learning- zaobserwowany zbiór

danych

szukamy parametrów modelu tak aby było jak największe:

Page 12: Metody Deep Learning - Wykład 4

RBM learning c.d

- zaobserowany zbiór danych

W RBM każdy zaobserwowany wektor odpowiada zmiennym widocznym

do obliczenia nie bardzo

Page 13: Metody Deep Learning - Wykład 4

Wpierw łatwiejsza część gradientu

Contrastive Divergence

Page 14: Metody Deep Learning - Wykład 4

-Teoretycznie możemy rozważyć każde możliwe v

-Ilość możliwości jest rzędu

Contrastive Divergence c.d

jak wyznaczyć

Page 15: Metody Deep Learning - Wykład 4

- Ponieważ gradient będziemy liczyć wielokrotnie zamiast za każdym razem obliczać wartość przeciętną możemy wylosować v zaszyte w RBM’ie

Samplowanie Gibbsa

- Postępując tak wielokrotnie będziemy przybliżać się do minimalizacji

- Obserwację losową RBM’a nazywamy fantazją sieci

Page 16: Metody Deep Learning - Wykład 4

Cel - wylosować próbkę z rozkładu wielowymiarowego P(x, y)Sposób - generujemy x z rozkładu P(x | y) i y z rozkładu P(y | x)Algorytm:

Samplowanie Gibbsa

Kontynuuj aż rozkłady prawdopodobieństw będą stacjonarne

Page 17: Metody Deep Learning - Wykład 4

Samplowanie Gibbsa w RBM’ie

Page 18: Metody Deep Learning - Wykład 4

- Zacznij próbkowanie od przykładu treningowego

- wykonaj jedynie kilkanaście kroków- pomimo poważnej korelacji pomiędzy tak

otrzymaną fantazją a przykładem uczącym otrzymujemy zaskakująco dobry gradient

- Czasami wystarcza 1 krok!

Propozycja Hintona

Page 19: Metody Deep Learning - Wykład 4

Model uczymy metodąstochastycznego spadku gradientu

Uczenie

Page 20: Metody Deep Learning - Wykład 4