• Nenhum resultado encontrado

Breve história sobre a análise de séries temporais

CAPÍTULO 3 Critérios de informação em modelos de séries tem-

2.1 Breve história sobre a análise de séries temporais

Conforme apresentado em Tsay (2000), as aplicações contribuíram funda- mentalmente para o desenvolvimento das metodologias de séries temporais. Há bastante tempo, são realizadas coletas e acompanhamento de séries temporais. Uma das séries mais antigas, conhecida na literatura através de uma das publi- cações do Graunt (1662), intitulada por Natural and Political Observations upon the Bills of Mortality, retrata a distribuição das idades de morte no século XVII em Londres e lança as bases para a demografia (ESQUIVEL, 2012). Outra apli- cação que motivou os estudos da análise de séries temporais, segundo os histori- adores, refere-se à clássica série do número médio anual de manchas solares de Wolfer para o período de 1749 a 1924 (BRILLINGER, 2001; MORETTIN; TO- LOI, 2006).

No que tange ao desenvolvimento metodológico, a análise espectral pode ser considerada como técnica pioneira, pois produziu a primeira aplicação, datada em 1664, através do experimento de Newton, que envolvia a passagem da luz solar decomposta em seus componentes por um prisma (BRILLINGER, 2001).

Com o passar do tempo, houveram outros desenvolvimentos técnicos na metodologia de séries temporais. Podemos citar o artigo de T. N. Thiele de 1880 que contém contribuições relacionadas à formulação e à análise de um modelo para uma série temporal constituída de uma soma de componentes da regressão, movimento Browniano e um ruído branco, − a partir do qual Kalman desenvolveu um procedimento recursivo para estimar a componente da regressão e predizer o movimento Browniano, procedimento conhecido a partir de 1961 por filtro de Kalman (KALMAN; BUCY, 1961)

Todavia, a explosão no uso da técnica ocorreu na década de 80 como evi- denciam os diversos artigos publicados nas revistas específicas de Estatística, cujo título possui o termo “filtro de Kalman”. E a partir daí, foram desenvolvidas diver- sas formas de aplicabilidade da técnica, como por exemplo, tratamento de valores faltantes ou missings; no desenvolvimento de novos métodos para a extração de sinal; para alisamento e ajuste sazonal; entre outros (TSAY, 2000).

Vale ressaltarmos que as abordagens utilizadas em séries temporais (domí- nio temporal e domínio de frequências) se desenvolveram de forma independente a partir das contribuições dos seus defensores. Segundo Tsay (2000), no início da história ocorriam muitos debates e críticas entre as duas abordagens; contudo, a forte separação entre as escolas está diminuindo de acordo com o mesmo, e, atualmente, a escolha entre qual abordagem usar depende, principalmente, do ob- jetivo da análise e da experiência do analista, podendo utilizar técnicas de ambas as abordagens, conforme percebemos.

De acordo com a literatura especializada, o século XX proporcionou mui- tos avanços importantes na análise de séries temporais, principalmente na área da previsão. A partir de 1920 a previsão deixou de ser realizada através de extrapo- lações simples ao redor do valor médio e passou a levar em consideração os va- lores passados da série temporal. O desenvolvimento na área iniciou-se com Yule (1927), ao ajustar um modelo linear aos dados de manchas solares, chamando-o de autorregressivo (AR) (KLEIN, 1997).

Com a evolução dos estudos na área da previsão de séries temporais e com a chegada do computador nos anos 50, houve uma popularização dos modelos de previsão, já que se tratava de uma época em que foi criada uma técnica simples, eficiente e razoavelmente precisa para tratar as causas de flutuações e realizar pre- visões a partir do padrão básico identificado na série. Tal técnica ficou conhecida

como alisamento ou suavização exponencial. Sendo Brown o precursor da técnica, ele trabalhou em prol do desenvolvimento da metodologia de alisamento expo- nencial e publicou dois importantes livros da época, o Statistical Forecasting for Inventory Controlde 1959 e o Smoothing, Forecasting and Prediction of Discrete Time Series, em 1963 (GARDNER, 2006).

Em paralelo aos trabalhos de Brown, Charles Holt, com o apoio do Of- fice of Naval Research (ONR), desenvolvia técnicas de suavização exponencial para tratar séries com tendências e sazonalidades. Inicialmente, o seu trabalho foi documentado no memorando do próprio ONR, em 1957, e somente em 2004 pu- blicado no International Journal of Forecasting (HOLT, 2004a, 2004b). Apesar do registro do trabalho em 1957, a técnica desenvolvida por Holt apenas atingiu ampla divulgação a partir do trabalho de Winters (1960), que testou os métodos de Holt a partir de dados empíricos. Desde então, a técnica ficou conhecida como suavização exponencial de Holt-Winters (ESQUIVEL, 2012).

Na década de 70 houve um marco importante para a análise de séries tem- porais; uma nova classe de modelos vinha à tona. Esta classe ficou conhecida como metodologia de Box e Jenkins a partir da publicação, em 1970, do clássico livro Time Series Analysis, Forecasting and Control. Em linhas gerais, a metodologia de Box e Jenkins ou ARIMA trabalha com modelos probabilísticos lineares e con- sidera um processo sistemático na modelagem das séries. Tal processo inicia-se na especificação e na identificação do modelo mais adequado aos dados, passando pela estimação dos parâmetros, verificação da adequação do modelo, e a previsão dos valores futuros (MORETTIN; TOLOI, 2006).

Com o passar das décadas e com a evolução dos estudos, os pesquisado- res da época notaram a necessidade de considerar a não-linearidade na análise de séries temporais, haja vista que muitas das aplicações não apresentavam a lineari-

dade suposta nos modelos criados até o momento (TSAY, 2000).

A partir da década de 80, com a melhora no acesso aos microprocessa- dores, os pesquisadores vêm utilizando técnicas alternativas para a detecção de padrões e tratamento de séries não-lineares, principalmente, de uma forma auto- matizada.

Documentos relacionados