22
Aprendizado de Máquina Aula 13 http://www.ic.uff.br/~bianca/aa /

Aprendizado de Máquina Aula 13 bianca/aa

Embed Size (px)

Citation preview

Page 1: Aprendizado de Máquina Aula 13 bianca/aa

Aprendizado de Máquina

Aula 13

http://www.ic.uff.br/~bianca/aa/

Page 2: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 2

Tópicos1. Introdução – Cap. 1 (16/03)2. Classificação Indutiva – Cap. 2 (23/03)3. Árvores de Decisão – Cap. 3 (30/03)4. Ensembles - Artigo (13/04)5. Avaliação Experimental – Cap. 5 (20/04)6. Aprendizado de Regras – Cap. 10 (27/04)7. Redes Neurais – Cap. 4 (04/05)8. Teoria do Aprendizado – Cap. 7 (11/05)9. Máquinas de Vetor de Suporte – Artigo (18/05)10. Aprendizado Bayesiano – Cap. 6 e novo cap. online (25/05)11. Aprendizado Baseado em Instâncias – Cap. 8 (01/05)12. Classificação de Textos – Artigo (08/06)13. Aprendizado por Reforço – Artigo (15/06)

Page 3: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 3

Introdução• Jogos: Aprender

sequência de jogadas para ganhar o jogo

• Robôs: Aprender sequência de ações para chegar a um objetivo

• Agente está em um estado em um ambiente, realiza uma ação, recebe uma recompensa e os estado muda.

• Objetivo: aprender uma política que maximize as recompensas.

Page 4: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 4

Processo de Decisão de Markov

• st : Estado do agente no instante t• at: Ação tomada no instante t• Em st, ação at é tomada. No instante seguinte a

recompensa rt+1 é recebida e o estado muda para st+1

• Probabilidade do próximo estado: P (st+1 | st , at )• Distribuição de recompensas: p (rt+1 | st , at )• Estado(s) inicial(is), estado(s) objetivos• Episódios de ações do estado inicial ao estado

final.• (Sutton and Barto, 1998; Kaelbling et al., 1996)

Page 5: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 5

Exemplo• Agente tem probabilidade

de 0.8 de se mover na direção desejada e 0.2 de se mover em ângulo reto.

• Os estados finais tem recompensa +1 e -1.

• Todos os outros estados tem recompensa -0.04.

• A medida de desempenho é a soma das recompensas.

Page 6: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 6

Política e Recompensas Cumulativas

• Política,• Valor de uma política,• Horizonte finito:

• Horizonte infinito:

tt sa: AS

tsV

T

iitTtttt rErrrEsV

121

rate discount the is 10

1

13

221

iit

itttt rErrrEsV

...

...

é a taxa de desconto

Page 7: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 7

Exemplo

• Política ótima quando os estados não-terminais tem recompensa R(s) = -0.04.

Page 8: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 8

Exemplo

Page 9: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 9

Bellman’s equation

1111

111

11

11

11

1

1

11

1

max|

in of Valuemax

|max

max

max

max

max

tt*

as

tttttt*

tttt*

at

*

t*

stttt

at

*

t*

ta

iit

it

a

iit

i

a

ttt*

a,sQa,ssPrEa,sQ

saa,sQsV

sVa,ssPrEsV

sVrE

rrE

rE

s,sVsV

tt

t

tt

t

t

t

Equação de Bellman

Page 10: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 10

• Comportamento do ambiente dado por P (st+1 | st , at ), p (rt+1 | st , at ), é conhecido do agente.

• Não há necessidade de exploração.• Podemos usar programação dinâmica.• Resolver

• Política ótima

Modelo conhecido

111

1

|max t*

stttt

at

* sVa,ssPrEsVt

t

111

1

||max arg t*

stttttt

at sVa,ssPa,srEs*

tt

Page 11: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 11

Iteração de Valor

• Calcular estimativas Vi*(s)– Retorno esperado de se começar no estado s

e agir de forma ótima por i passos.– Começamos com i = 0 e vamos aumentando

o valor de i até a convergência (isto é, valores não mudam de i para i + 1).• A convergência é garantida com horizonte finito ou

recompensas descontadas.

Page 12: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 12

Iteração de Valor

• Inicializar V0*(s) = 0 s.• Calcular Vi+1*(s) a partir de Vi*(s)• usando a equação:

chamada de atualização de Bellman.• Repetir o passo 2 até convergência isto é Vi+1*(s) ≈ Vi*(s) s

111

1

|max t*

stttt

at

* sVa,ssPrEsVt

ti+1 i

Page 13: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 13

Exemplo: Iteração de Valor

Erro:

Page 14: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 14

Exemplo: Iteração de Valor

• A informação se propaga pra fora a partir dos estados terminais.

Page 15: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 15

Modelo desconhecido

• O comportamento do ambiente dado por P (st+1 | st , at ), p (rt+1 | st , at ) não é conhecido.

• É necessário exploração.– Executar ações para conhecer o ambiente e

não tentando maximizar as recompensas.• Usar a recompensa recebida no próximo

passo para atualizar o valor do estado atual.

Page 16: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 16

Estratégias de Exploração

• ε-gulosa: Com prob ε,escolher uma ação aleatória; e com probabilidade 1-ε escolher a melhor ação.

• Probabilística:

• Ao longo do tempo diminuir a exploração:

A

1exp

exp|

bb,sQ

a,sQsaP

A

1exp

exp|

bT/b,sQ

T/a,sQsaP

Page 17: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 17

Ações e Recompensas Determinísticas

• Apenas uma recompensa e estado seguinte possíveis:

usar como regra de atualização:

Começando em zero, valores Q aumentam, nunca diminuem.

11111

1

max|

tt*

as

tttttt* a,sQa,ssPrEa,sQ

tt

1111

max

tta

ttt a,sQra,sQt

1111

max

tta

ttt a,sQ̂ra,sQ̂t

Page 18: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 18

Considere o valor da ação marcada por um ‘*’:Se o caminho A é visto primeiro, Q(*)=0.9*max(0,81)=73Depois B é visto, Q(*)=0.9*max(100,81)=90Ou,Se o caminho B é visto primeiro, Q(*)=0.9*max(100,0)=90Depois A é visto, Q(*)=0.9*max(100,81)=90Valores de Q só aumentam, nunca diminuem.

γ=0.9

Page 19: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 19

Recompensas e Ações Não-Determinísticas

• Quando estados e recompensas são não-determinísticas temos que manter valores esperados (médias).

• Q-learning (Watkins and Dayan, 1992):

• Off-policy vs on-policy (Sarsa)

tttt

attttt a,sQ̂a,sQ̂ra,sQ̂a,sQ̂

t111

1

max

backup

Page 20: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 20

Q-learning

Page 21: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 21

Sarsa

Page 22: Aprendizado de Máquina Aula 13 bianca/aa

Aula 13 - 15/06/10 22

Generalização

• Tabular: Q(s,a) ou V(s) guardados em uma tabela

• Funcional: Usar um método de regressão para representar Q(s,a) or V(s)