19
Departamento de Engenharia Elétrica OTIMIZAÇÃO DA FUNÇÃO DE VEROSSIMILHANÇA DE MODELOS GAS COM APLICAÇÕES EM SÉRIES DE VENTO Aluno: Thiago de Garcia Paula Sandes Milagres Orientador: Cristiano Fernandes Introdução A relevância de um estudo sobre velocidade de ventos está diretamente ligada ao contexto de valorização de energias alternativas. A energia eólica é de extrema importância no cenário energético atual, uma vez que, assim como outras fontes de energia renovável, é vista como uma das soluções para que haja um maior equilíbrio na matriz energética, reduzindo a dependência global por energias poluentes. O Brasil é um dos países com maior potencial eólico do mundo, mas apesar de ter o principal mercado eólico da América Latina, ainda não chega perto de explorar todo seu potencial. Entretanto, o futuro pode ser visto como promissor, à medida que os investimentos na área ganham força. Segundo a ABEEólica (Associação Brasileira de Energia Eólica), até meados de 2008 havia apenas uma empresa fabricante de aerogeradores no Brasil. Atualmente, já existem oito empresas nesse ramo, com mais duas em processo de construção. A energia dos ventos já representa 3.5% do potencial energético do país, o que ainda não é tão expressivo como poderia, mas já é um grande avanço em relação ao 1% registrado em 2011. Sabe-se que a potência gerada pelos aerogeradores é dada por: Em que representa a densidade do ar, V a velocidade do vento e A a área varrida pelas hélices do rotor. O que deve ser destacada é a importância da velocidade, elevada ao cubo na fórmula. Para se ter uma ideia, um vento de 10km/h, comparado a um de 9km/h, fornecerá 37% mais potência, mantendo-se todas as outras variáveis. Este fato ajuda a mostrar por que a previsão da velocidade dos ventos é o fator mais relevante em diversas etapas dos vários processos de decisão, como a localização dos parques eólicos e a possibilidade de calcular a potência esperada a ser gerada naquele local, e, por conseguinte, a rentabilidade do investimento em um parque eólico. Nesse contexto, define-se o FC (Fator de Capacidade) de uma usina como: Em que representa a geração de uma usina em e é a potência instalada da usina, em . Logo, o fator de capacidade de uma usina é, indiretamente, função da velocidade de ventos no local. A previsão da variável FC é feita a partir de modelos para séries temporais baseados em dados históricos de diversas regiões. Entretanto, sabe-se que modelos lineares gaussianos não são totalmente adequados para modelagem de séries de ventos, devido a intrínseca não gaussianidade dessas variáveis. Assim, neste trabalho adotou-se uma nova classe de modelos para séries temporais, denominados de GAS (Generalized Autoregressive Score). Estes

OTIMIZAÇÃO DA FUNÇÃO DE VEROSSIMILHANÇA DE … · A relevância de um estudo sobre velocidade de ventos está diretamente ligada ao contexto de valorização de energias alternativas

Embed Size (px)

Citation preview

Departamento de Engenharia Elétrica

OTIMIZAÇÃO DA FUNÇÃO DE VEROSSIMILHANÇA DE MODELOS

GAS COM APLICAÇÕES EM SÉRIES DE VENTO

Aluno: Thiago de Garcia Paula Sandes Milagres

Orientador: Cristiano Fernandes

Introdução

A relevância de um estudo sobre velocidade de ventos está diretamente ligada ao

contexto de valorização de energias alternativas. A energia eólica é de extrema importância

no cenário energético atual, uma vez que, assim como outras fontes de energia renovável, é

vista como uma das soluções para que haja um maior equilíbrio na matriz energética,

reduzindo a dependência global por energias poluentes. O Brasil é um dos países com maior

potencial eólico do mundo, mas apesar de ter o principal mercado eólico da América Latina,

ainda não chega perto de explorar todo seu potencial. Entretanto, o futuro pode ser visto como

promissor, à medida que os investimentos na área ganham força. Segundo a ABEEólica

(Associação Brasileira de Energia Eólica), até meados de 2008 havia apenas uma empresa

fabricante de aerogeradores no Brasil. Atualmente, já existem oito empresas nesse ramo, com

mais duas em processo de construção. A energia dos ventos já representa 3.5% do potencial

energético do país, o que ainda não é tão expressivo como poderia, mas já é um grande

avanço em relação ao 1% registrado em 2011.

Sabe-se que a potência gerada pelos aerogeradores é dada por:

Em que representa a densidade do ar, V a velocidade do vento e A a área varrida pelas

hélices do rotor. O que deve ser destacada é a importância da velocidade, elevada ao cubo na

fórmula. Para se ter uma ideia, um vento de 10km/h, comparado a um de 9km/h, fornecerá

37% mais potência, mantendo-se todas as outras variáveis. Este fato ajuda a mostrar por que

a previsão da velocidade dos ventos é o fator mais relevante em diversas etapas dos vários

processos de decisão, como a localização dos parques eólicos e a possibilidade de calcular a

potência esperada a ser gerada naquele local, e, por conseguinte, a rentabilidade do

investimento em um parque eólico. Nesse contexto, define-se o FC (Fator de Capacidade) de

uma usina como:

Em que representa a geração de uma usina em e é a potência instalada da

usina, em . Logo, o fator de capacidade de uma usina é, indiretamente, função da

velocidade de ventos no local.

A previsão da variável FC é feita a partir de modelos para séries temporais baseados em

dados históricos de diversas regiões. Entretanto, sabe-se que modelos lineares gaussianos não

são totalmente adequados para modelagem de séries de ventos, devido a intrínseca não

gaussianidade dessas variáveis. Assim, neste trabalho adotou-se uma nova classe de modelos

para séries temporais, denominados de GAS (Generalized Autoregressive Score). Estes

Departamento de Engenharia Elétrica

modelos, além da flexibilidade na escolha da distribuição para a série, apresentam parâmetros

variantes no tempo que seguem um mecanismo baseado na função score.

Na próxima seção são descritas com mais detalhes as séries que serão utilizadas neste

projeto.

Séries de Fator de Capacidade

Nas estimações deste trabalho, foram utilizadas séries mensais de FC’s de três usinas do

Nordeste brasileiro: Enacel (EN), Icaraizinho (IC) e Rio do Fogo (RF). Cada série possui 372

instâncias, cobrindo o período de Janeiro de 1981 até Dezembro de 2011. Foram feitos os

gráficos da FC ao longo do tempo e, para demonstrar a sazonalidade inerente às séries, um

gráfico de autocorrelação e um boxplot mensal.

Para Icaraizinho:

Departamento de Engenharia Elétrica

Para Enacel:

E para Rio do Fogo:

Departamento de Engenharia Elétrica

Pode-se ver que as séries possuem comportamento sazonal semelhante. Isto é esperado,

visto que todas as usinas se localizam na região Nordeste e estão relativamente próximas.

Como já dito, para modelá-las foi feito uso de uma família nova de modelos guiados por

observações, que serão apresentados a seguir.

Modelos GAS

Modelos GAS são modelos para séries temporais cujos parâmetros variam no tempo. São

relativamente novos, tendo sido divulgados em 2012 por Creal, Koopman e Lucas. A

avaliação da sua verossimilhança é direta, já que possui forma fechada, favorecendo o uso da

estimação por máxima verossimilhança. A avaliação dos momentos condicionais e previsão

um passo à frente também são diretos, tornando essa classe de modelos bastante competitiva.

A formulação dos modelos GAS(p,q) nesse trabalho não irá inclui variáveis exógenas, e

é feita da seguinte forma:

Seja a variável dependente de interesse, o parâmetro variante no tempo, e o

vetor de parâmetros estáticos. Define-se, primeiramente, { } e { }.

Num instante t, a informação disponível será dada por:

{ } Assumimos que é gerado pela densidade preditiva que deve ser escolhida pelo pesquisador:

O mecanismo de atualização de é dado por:

Departamento de Engenharia Elétrica

em que é um vetor de constantes, e possuem dimensões apropriadas para e

. Já é uma função dos dados passados, ou seja:

Os coeficientes desconhecidos do modelo são funções de , de modo que ,

e , para e .

O que diferencia os modelos GAS de outros é a forma com que se calcula , baseada na

densidade preditiva para um dado parâmetro . Após uma observação , o parâmetro variável

é atualizado a partir do cálculo de , feito da seguinte forma:

;

;

Em que é uma matriz, chamada de matriz de ponderação. Na literatura, possui duas

definições mais frequentes: ou

, onde a informação de Fisher será

obtida a partir da seguinte expressão:

*

+

Nesse projeto iremos adotar a primeira opção, ou seja, a matriz de ponderação é

simplesmente o inverso da matriz de informação de Fisher. Para a estimação dos parâmetros

destes modelos, foi utilizado o método da Máxima Verossimilhança.

Estimação pelo Método da Máxima Verossimilhança

Quando se tem acesso a dados de uma série histórica, não se tem conhecimento a priori

sobre qual o modelo da distribuição que a caracteriza e os valores numéricos de seus

parâmetros. O objetivo da estimação de parâmetros é substituir os valores desconhecidos dos

parâmetros do modelo por estimativas obtidas a partir da série histórica.

O método da máxima verossimilhança é o que possui as melhores propriedades

estatísticas, sob grandes amostras (consistência, não viés, eficiência e distribuição normal).

Entretanto, na prática a sua utilização requer a utilização de métodos numéricos, que partem

de uma solução inicial arbitrada pelo usuário cálculo numérico e um número possivelmente

grande de iterações. Por isso, como será detalhado futuramente, a inicialização destes métodos

é um dos aspectos mais importantes. A descrição do processo de estimação por máxima

verossimilhança será dada a seguir.

Considere a situação em que , é uma série temporal gerada pela

densidade preditiva onde θ é um vetor M x 1. A função densidade de

probabilidade conjunta da será dada por:

Departamento de Engenharia Elétrica

Assim sendo, a função verossimilhança será dada por:

O máximo de uma função não é alterado se tomamos uma transformação monotônica

dessa função, e por isso costuma-se trabalhar com o logaritmo de verossimilhança, o que

torna o problema de otimização mais fácil de ser resolvido já que os produtos entre funções

são substituídos por somas. Assim, define-se:

θ

Como se quer maximizar a função, estimando os parâmetros , deve-se resolver o

seguinte sistema de equações:

A partir da solução desse sistema de M equações à M incógnitas, obtêm-se os

estimadores de máxima verossimilhança. A condição anterior é apenas condição necessária

para máximo de uma função, pois também é satisfeita por pontos de mínimo e de sela. Assim

deve-se também checar a condição suficiente para máximo, que será definida posteriormente.

Este sistema não possui solução analítica fechada. Com isso, foi feito um estudo sobre

otimização não linear e seus principais algoritmos, que foram posteriormente utilizados neste

projeto para a maximização da função log da verossimilhança dos modelos GAS.

Algoritmos de Otimização

De uma forma geral, um problema de maximização de uma função l(θ) não linear tem a

seguinte forma:

para

Sendo e funções não lineares em .

Um ponto será maximizador global da função em se e somente se for verdade

que . Além disso, se , o ponto se trata de um

minimizador global estrito.

Quando a otimização é não linear, a principais dificuldades são:

i. a não obtenção de soluções analíticas para o máximo, tornando-se assim

necessário a utilização de algoritmos numéricos para a sua solução.

ii. a não garantia da concavidade da função, e assim o máximo obtido pode ser um

máximo local da função. Como será visto, para evitar a obtenção de uma solução

local, os algoritmos iterativos de maximização devem ser inicializados a partir de

diferentes pontos.

Em vista destes obstáculos, foram desenvolvidos métodos numéricos capazes de executar

a otimização. Os de maior interesse para o trabalho são apresentados a seguir.

Departamento de Engenharia Elétrica

A. Método de Newton

Apesar de não ter sido utilizado diretamente no trabalho, seu estudo é importante para

que os métodos de Quasi-Newton possam ser mais bem compreendidos.

O método de Newton (ou Método de Newton-Rhapson) é uma forma de procurar,

recursivamente, aproximações cada vez melhores para as raízes de uma equação. O processo

começa pela definição do gradiente da função, representado por

Sabe-se que ( ̂) é uma condição necessária para que ̂ seja ponto de máximo, e

que definido como , sendo a matriz Hessiana da função) ser positivo e

definido em ̂ é condição suficiente.

Expandindo ( ̂) em uma série de Taylor de primeira ordem, tem-se que:

( ̂)

Que pode ser reescrito, em forma iterativa, como:

, i = 1,2,..., I

Ou seja, o objetivo é resolver

e a atualização se dará da seguinte forma:

, i = 1,2,..., I

O gradiente, , determina a direção do passo tomado, e modifica o tamanho

do passo. , por sua vez, representa a direção, e o tamanho do passo, entre 0 e 1. O

tamanho em cada iteração será escolhido de forma que ) . Se fosse

substituído pela identidade , estaria representado o Método do Gradiente, já que o passo é na

direção de . É computacionalmente bem mais simples, mas perde consideravelmente em

precisão.

B. Métodos Quasi-Newton

A classe dos métodos Quasi-Newton, também chamados de “métrica variável”, é de suma

importância. Eles aproximam por uma matriz simétrica positiva definida chamada de

, que é atualizada a cada iteração, e converge para Para fazer essa atualização, o

algoritmo mais usado é o BFGS (Broyden–Fletcher–Goldfarb–Shanno). Este foi o escolhido

nesse trabalho, em conjunto com o algoritmo Nelder-Mead.

A vantagem da família de métodos Quasi-Newton sobre o Método de Newton é a de que

é garantidamente positiva definida, e só as primeiras derivadas são necessárias. Isso não é

verdade para , que pode não ser positiva definida, pois a Hessiana não é

necessáriamente negativa definida. Com isso, são preferíveis quando a matriz Jacobiana ou a

matriz Hessiana são inacessíveis ou se for computacionalmente inviável calculá-las a cada

iteração.

Departamento de Engenharia Elétrica

Definindo-se primeiro e , pode-se explicitar o

algoritmo BFGS:

(

)

Além de satisfazer a condição de Quasi-Newton, , possui simetria hereditária

(Se simétrica, também o será) e convergência superlinear.

Como será visto posteriormente, os métodos Quasi-Newton foram utilizados neste

trabalho para a otimização da função log da verossimilhança dos modelos GAS. Os critérios

de parada indicam quando o algoritmo pode ser interrompido e a qualidade da convergência

obtida. Existem três critérios principais:

Critério da verossimilhança:

Critério do gradiente:

∑| |

Critério dos parâmetros:

∑ | |

Onde ε é a precisão, geralmente escolhido como 10-5

.

C. Algoritmos Genéticos

Os algoritmos genéticos são uma classe de algoritmos evolutivos, que utilizam

inteligência computacional e técnicas inspiradas na biologia evolutiva. Existem versões que

trabalham com codificações binárias de cada solução, mas neste projeto optou-se por trabalhar

com números reais.

Deve-se, primeiramente, escolher os limites inferiores e superiores de cada parâmetro da

otimização, e o tamanho da população. Com isso, será gerada aleatoriamente uma população

inicial de parâmetros, em que cada solução gerada representa um indivíduo. Sobre estes

indivíduos é feita uma avaliação através de uma função que representa o problema, que

funcionará como uma medida de aptidão de um indivíduo, ou seja, sua proximidade em

relação ao ponto ótimo. Isto irá dirigir o processo de busca, em conjunto com os operadores

genéticos: elitismo, cruzamento e mutação.

O elitismo consiste em selecionar um determinado número de indivíduos da população

anterior que serão copiados para a população seguinte. Se o elitismo for desativado, há uma

troca total da população a cada iteração. Se ele for ativado, deve-se escolher qual

porcentagem da população será passada para o próximo passo do algoritmo. É intuitivo que a

Departamento de Engenharia Elétrica

escolha de um valor de elitismo alto representará uma busca mais conservadora, enquanto que

se todos os indivíduos forem substituídos a cada passo, a busca terá um caráter mais aleatório.

Cruzamento e mutação buscam, cada um à sua maneira, diversificar a população. O

cruzamento consiste em gerar um indivíduo na nova população, chamado de filho, que seja

uma combinação linear de dois indivíduos quaisquer da população anterior. Isto pode ser

essencial já que se duas soluções são promissões, uma combinação entre seus valores pode

levar a um indivíduo ainda mais próximo do ótimo. Já a mutação consiste na simples troca de

um número por outro, aleatório. É de extrema importância para que o algoritmo consiga

explorar um espaço de busca amplo, ao invés de ficar preso em um ponto local.

Assim como ocorre com o elitismo, as taxas de cruzamento e mutação devem ser

escolhidas pelo usuário de acordo com o objetivo da busca com algoritmos genéticos. Uma

taxa de mutação mais elevada, por exemplo, garantirá uma maior abrangência ao método,

com o custo de perder precisão em uma busca local. Já uma taxa de cruzamento elevada em

conjunto com uma taxa de mutação reduzida pode fazer com que o método se torne bastante

preciso, podendo ser usado em uma busca local.

Foi criado um diagrama que resume o funcionamento de algoritmos genéticos:

Não basta, porém, um estudo de métodos de otimização, já que os modelos GAS exigem a

escolha de uma densidade preditiva. Após um estudo, foi escolhida a distribuição Beta, que

será vista a seguir.

Modelo Univariado Beta

Neste projeto, foi escolhida a distribuição Beta devido a sua grande flexibilidade em

descrever a variação de dados. Na sua parametrização original a distribuição Beta está apenas

definida no intervalo , e os FC’s das usinas eólicas assumem, teoricamente, valores no

intervalo . Logo, será utilizada uma variação proposta por Matos (2013), que ajustou

uma distribuição Beta com suporte entre Assim teremos o seguinte modelo:

onde

com os dois primeiros momentos dados por:

Departamento de Engenharia Elétrica

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.5

1

1.5

2

2.5

3

3.5

4

a = 4, B = 1

a = 4, B = 2

a = 1, B = 4

a = 2, B = 4

A já mencionada flexibilidade da densidade Beta existe porque seus dois parâmetros são

de forma. Assim, a título de ilustração, apresenta-se um gráfico com diferentes valores para os

parâmetros α e β.

Como o que se quer maximizar é o logaritmo da verossimilhança:

Para o cálculo da matriz de informação de Fisher, é necessário primeiramente calcular as

derivadas parciais em relação à cada parâmetro.

Em que é a função poligama, definida como a (n+1)-ésima derivada do logaritmo da

função gama, ou seja,

. Além disso, convenciona-se , que recebe o

nome de função digama.

Calculando a segunda derivada com relação aos parâmetros da Beta, pode-se montar a

matriz de informação I(β,α) será dada por:

[

]

Na modelagem dos FC´s será necessário introduzir uma dinâmica sazonal no processo de

atualização de , que recebe o nome de formulação SARIMA (Seasonal Auto Regressive

Integrated Moving Average). Para isto, será usado um modelo Beta com um parâmetro, ,

variante no tempo. Existiria a opção de fazer um modelo com ambos os parâmetros variando

Distribuição Beta para diferentes valores de 𝜶 e 𝜷

Departamento de Engenharia Elétrica

no tempo, mas estudos anteriores verificaram pouca eficácia nesta abordagem, visto que o

número de parâmetros a serem estimados aumentaria muito.

Poderia ser escolhida a relação , mas como os parâmetros da distribuição Beta

devem ser positivos, faz-se uma escolha por , ou seja, . Com isso, tem-

se:

{ }

Partindo do fato de que a matriz de ponderação é o inverso da matriz de informação,

temos que o score é dado por:

Agora que foi vista a base teórica para a compreensão da metodologia utilizada para a

modelagem, esta será apresentada na próxima seção.

Modelagem do Fator de Capacidade das Usinas

Foi criado, na linguagem R, um programa que permite ao usuário escolher a série que

será modelada e o número de otimizações que serão feitas (quanto maior este número, maior

será a precisão do algoritmo, com o custo de aumentar o tempo de execução). Esta tela de

seleção pode ser vista a seguir:

De acordo com a série escolhida, o valor de k será automaticamente incorporado. Este

valor será o valor inteiro mais próximo ao FC máximo da série. Assim, foram especificados

e , para as séries de FC´s associadas às usinas de Icaraizinho,

Enacel e Rio do Fogo, respectivamente.

Após esta etapa, dá-se início ao algoritmo de otimização. O primeiro passo é calcular os

vetores e . Como está sendo utilizado um modelo GAS(12,12), que incorpora efeitos

sazonais, é necessário definir inicialmente um vetor { }. A metodologia escolhida neste trabalho para definir este vetor inicial foi dividir a série

histórica em 12 séries, em que uma representava cada mês. Isto significa que todos os valores

correspondentes ao mês de janeiro foram agrupados em uma série, os valores correspondentes

a fevereiro em outra, e assim por diante. Para cada uma das séries, são estimados os

Departamento de Engenharia Elétrica

parâmetros de forma da densidade Beta, lembrando da parametrização , utilizada

para evitar valores negativos em .

Após este passo, torna-se possível calcular todos os valores dos vetores e também de

, já que o vetor de score é função de . A partir deste momento, passa-se a considerar a

série apenas a partir da 13ª observação para cálculos de verossimilhança e resíduos.

Na próxima etapa se dá início a construção do algoritmo genético. Esta etapa representa a

maior contribuição deste projeto, visto que representa uma boa solução para o problema da

inicialização da busca local, criando um algoritmo híbrido. Primeiramente, gera-se uma

população inicial, que será fornecida como sugestão para o algoritmo. Para isto,

primeiramente foi feita uma análise sobre os parâmetros a serem estimados, baseado em

estudos anteriores. Neles, os valores de , para séries deste tipo, sempre estiveram entre 0 e 5,

e os valores de dificilmente estiveram fora do intervalo . Já para o

, o primeiro a se fazer é estimar seu valor para a série inteira por máxima verossimilhança.

Estes valores são utilizados como base para gerar 100 indivíduos para a população. Para isso,

, e

são gerados aleatoriamente a partir de uma distribuição uniforme, com suporte

nos valores correspondentes citados acima, e será gerado a partir de uma distribuição

normal centrada em ̂ calculado anteriormente, e com desvio padrão 0.5. Vale frisar que

os valores gerados podem ser inválidos, portanto deve-se repetir o processo até que as 100

soluções geradas sejam válidas.

Passa-se esta população inicial como parâmetro para o algoritmo genético. Define-se,

ainda, uma taxa de mutação elevada, de , já que a intenção desta etapa é fazer uma busca

global. A taxa de recombinação foi escolhida como . Como limites inferiores e

superiores para cada parâmetro foram escolhidos intervalos mais folgados do que os

anteriores, para garantir que todo o espaço útil de busca fosse vasculhado. O elitismo foi

fixado em , ou seja, os 5 melhores entre os 100 indivíduos de uma população serão

passados para a próxima. O número máximo de gerações foi escolhido como 80, pois como a

busca nesta etapa ainda não é local e serve apenas como inicialização, não valeria a pena

aumentar o tempo computacional para aumentar a precisão. Um exemplo gráfico da

otimização por algoritmo genético utilizando a série Icaraizinho pode ser visto a seguir:

Como se pode ver, após a geração 50 (aproximadamente), o valor da verossimilhança já

passa a se alterar em um ritmo muito lento, reforçando a ideia de que não compensaria

aumentar a precisão do algoritmo genético.

Departamento de Engenharia Elétrica

Os parâmetros estimados pela busca global são utilizados como condições iniciais para

uma busca local feita por BFGS. As novas estimativas, por sua vez, serão utilizadas em uma

busca utilizando o algoritmo Nelder-Mead, e depois novamente BFGS. Estas duas formas de

busca local se alternarão até que a diferença entre as soluções de cada uma sejam menores do

que uma tolerância previamente estabelecida.

Esta rotina que abrange a busca global e a local será repetida quantas vezes o usuário

escolher. Recomenda-se 20, como foi feito neste estudo, por apresentar um bom custo-

benefício entre esforço computacional e precisão (com esta configuração, o programa tem

duração aproximada de uma hora). Após este número de execuções, será escolhida a

otimização que obteve melhores resultados, e dela, serão extraídos os resultados. O critério

escolhido para julgar o melhor resultado foi o de selecionar a otimização que alcançou uma

maior verossimilhança.

Para uma avaliação da modelagem dentro da amostra, foram utilizadas algumas

estatísticas: RMSE (Root Mean Square Error), MAE (Mean Absolute Error), MASE (Mean

Absolute Scaled Error), sMAPE (Symmetric Mean Absolute Percent Error) e pseudo . São

definidas por:

∑( ̂ )

∑| ̂ |

∑ | ̂ |

∑ ̂

| ̂ |

( ̂ )

[ ( ̂ )]

Resultados

Primeiramente, foi feita uma tabela com alguns dados de cada série: o logaritmo da

verossimilhança encontrado e as estatísticas de avaliação. Vale destacar o valor alto de pseudo

obtido em todas as séries, principalmente nas duas primeiras, mostrando uma boa

adequação do modelo. A seguir, podem ser vistos gráficos que demonstram este bom ajuste

que foi obtido.

Estatística Icaraizinho Enacel Rio do Fogo

Log -1196.78 -1160.90 -1076.36

RMSE 7.21 6.96 5.04

MAE 5.60 5.41 3.98

Departamento de Engenharia Elétrica

Ajuste para Icaraizinho:

Ajuste para Enacel:

MASE 0.50 0.64 0.74

sMAPE 10.25 10.26 7.25

Pseudo 0.90 0.83 0.69

Departamento de Engenharia Elétrica

Ajuste para Rio do Fogo:

Uma tabela com os valores estimados de cada parâmetro foi gerada para cada série, e

pode ser vista abaixo.

Cabe, agora, uma análise dos resíduos da modelagem. Sabe-se que, idealmente, eles

devem ser descorrelatados e gaussianos. Os gráficos a seguir são uma boa forma de visualizar

os resultados para cada série.

Parâmetro Icaraizinho Enacel Rio do Fogo

0.05067 -0.01842 0.31454

0.46276 0.54950 0.52048

-0.33962 0.20067 0.20009

-0.05604 -0.01335 -0.06163

-0.00676 0.00320 0.00292

-0.13271 0.03374 0.10128

1.19952 0.37021 0.10254

-0.01542 0.21044 0.47042

-0.26347 -0.19394 -0.35531

0.65270 0.40873 0.21141

-0.59681 0.20919 0.43258

7.54012 7.57547 6.41922

Departamento de Engenharia Elétrica

Icaraizinho:

Enacel:

Departamento de Engenharia Elétrica

Rio do Fogo:

Departamento de Engenharia Elétrica

Pode-se ver que os resultados estão bons, já que os resíduos não possuem lags com

correlação muito forte nem se distanciam muito de uma distribuição normal. Porém, isto em

muitos casos não foi o suficiente para fazer com que os testes Ljung-Box e Jarque Bera

mostrassem os resultados ideais, ou seja, com p-valor acima de 0.05. A principal razão é que,

como se pode ver nos gráficos da série de resíduos no tempo, existem alguns outliers nas

séries de fator de capacidade, que naturalmente não foram incorporados pelo modelo. A

solução, que foge do escopo do trabalho, seria utilizar variáveis dummies exógenas para as

observações que estão causando problemas. Porém, para que isso seja feito de uma forma

confiável, é necessário que se levante um estudo sobre os outliers, para saber se foram de fato

acontecimentos aleatórios ou se houve uma causa que pode se repetir periodicamente. Neste

último caso, seria incorreto alterar seus valores simplesmente para melhorar a adequação do

modelo. Na tabela abaixo, pode-se ver os p-valores dos testes Jarque Bera e Ljung Box em

cada modelo. Pode-se ver, tanto pela tabela como pelos gráficos, que apesar de a distribuição

de resíduos se aproximar de uma normal, as observações extremas fazem com que o resultado

do teste não favoreça esta hipótese.

P-valores dos testes de resíduos dos modelos GAS

Teste Icaraizinho Enacel Rio do Fogo

Normalidade 0.0 0.0 0.0

Autocorrelação dos

resíduos

0.566 0.017 0.112

Autocorrelação dos

resíduos ao quadrado

0.925 0.004 0.003

Conclusão

Este trabalho buscou investigar a estimação de parâmetros de modelos GAS(12,12) em

uma modelagem de séries de fator de capacidade de usinas eólicas. Mais especificamente,

propôs uma nova forma de inicialização da busca local, criando um algoritmo híbrido que

combina métodos clássicos de otimização não linear (BFGS e Nelder-Mead), que são

utilizados para uma busca mais precisa, com algoritmos genéticos, que fazem uso de

conceitos da biologia evolucionária para vasculhar o espaço paramétrico e entregam para os

métodos clássicos um conjunto de parâmetros que, por si só, já representa uma boa solução,

ainda que não a ótima. Isto forma um processo mais eficiente do que uma inicialização

aleatória, e representa a principal contribuição deste trabalho.

Os resultados foram satisfatórios, visto que as estatísticas de aderência estão dentro de um

bom intervalo de valores, e os gráficos de ajuste mostraram que o modelo foi capaz de

incorporar as características da série. Para que esta boa aderência represente resultados ainda

melhores em termos de p-valor para os testes de Jarque Bera (normalidade) e Ljung Box

(autocorrelação) nos resíduos, se faz necessário o uso de variáveis exógenas que incorporem

os outliers da série. Como já comentado na seção anterior, deve-se ter o cuidado de não

utilizar variáveis dummies simplesmente para melhorar a qualidade do modelo. É necessário

que sejam eventos únicos, e não periódicos, e é preferível ainda que se saiba o que os causou.

Departamento de Engenharia Elétrica

Referências

[1] – Creal, D., S. J. Koopman, and A. Lucas. Generalized autoregressive score

models with applications. 2013, Journal of Applied Econometrics 28(5), 777–795.

[2] – Harvey, A. C. Dynamic Models for Volatility and Heavy Tails. 2013, Cambridge

University Press.

[3] – Nocedal, J.; Wright,S.W. Numerical Optimization, 2nd

Edition, Springer, 2006.

[4] – Cortez, P. Modern Optimization with R, 2014.

[5] – Site da ABEEólica. http://www.portalabeeolica.org.br/

[6] – Helfer, H. H. Previsão da Densidade Conjunta de Fator de Capacidade Eólico Via

Modelo GAS Multivariado. 2015. Dissertação de Mestrado – PUC-Rio

[7] – Matos, G. G. Modelos GAS Aplicados a Séries Temporais de Vazão e Vento. 2013.

Dissertação de Mestrado – PUC-Rio

[8] – Amaral, B. M. Modelos VARX Para Geração de Cenários de Vento e Vazão

Aplicados à Comercialização de Energia. 2011. Dissertação de Mestrado – PUC-Rio

[9] – Lima, C. N. Estimação do Impacto do El Niño/La Niña na Intensidade dos Ventos

do Nordeste Brasileiro Utilizando os Modelos GAS. 2014. Dissertação de Mestrado – PUC-

Rio.