• Nenhum resultado encontrado

Processo INAR(1) com estrutura sazonal para séries temporais de valores inteiros com sobredispersão

N/A
N/A
Protected

Academic year: 2021

Share "Processo INAR(1) com estrutura sazonal para séries temporais de valores inteiros com sobredispersão"

Copied!
47
0
0

Texto

(1)

UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE

CENTRO DE CIÊNCIAS EXATAS E DA TERRA

DEPARTAMENTO DE ESTATÍSTICA

Rodrigo Matheus Rocha de Medeiros

Processo INAR(1) com Estrutura Sazonal para

Séries Temporais de Valores Inteiros com

Sobredispersão

Natal - RN

Dezembro de 2017

(2)

Rodrigo Matheus Rocha de Medeiros

Processo INAR(1) com Estrutura Sazonal para Séries

Temporais de Valores Inteiros com Sobredispersão

Monografia de Graduação apresentada ao De-partamento de Estatística do Centro de Ci-ências Exatas e da Terra da Universidade Federal do Rio Grande do Norte como re-quisito parcial para a obtenção do grau de Bacharel em Estatística.

UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE CENTRO DE CIÊNCIAS EXATAS E DA TERRA

DEPARTAMENTO DE ESTATÍSTICA

Orientador: Prof. Dr. Marcelo Bourguignon Pereira

Natal - RN

Dezembro de 2017

(3)

Medeiros, Rodrigo Matheus Rocha de.

Processo INAR(1) com estrutura sazonal para séries temporais de valores inteiros com sobredispersão / Rodrigo Matheus Rocha de Medeiros. - 2017.

57 f.: il.

Monografia (Bacharelado em Estatística) - Universidade Federal do Rio Grande do Norte. Centro de Ciências Exatas e da Terra. Departamento de Estatística. Natal, RN, 2017.

Orientador: Marcelo Bourguignon Pereira.

1. Estatística - Monografia. 2. Dados inteiros não-negativos - Monografia. 3. Operador thinning - Monografia. 4. Processo autorregressivo Monografia. 5. Processos de contagem -Monografia. 6. Sazonalidade - -Monografia. I. Pereira, Marcelo Bourguignon. II. Título.

RN/UF/CCET CDU 519.2

Universidade Federal do Rio Grande do Norte - UFRN Sistema de Bibliotecas - SISBI

(4)
(5)
(6)

Agradecimentos

Agradeço primeiramente a Deus por toda força de vontade, perseverança e paciên-cia que tive durante o curso de graduação.

À minha família, minha mãe Isabel, minha irmã Ruthe e meu pai Robson, por ter acreditado em mim e me dado todo apoio necessário para concluir esta importante etapa. Agradeço à minha avó Maria José que sempre me incentivou a estudar, mas, infelizmente, perdeu suas principais lembranças tornando o caminho mais tortuoso e difícil para todos da minha família, porém, ainda assim me ensina que nada é fácil nesta vida.

Agradeço à minha namorada Brendda, minha inspiração e fonte de motivação diária, que sempre esteve ao meu lado nos dias bons e também nos maus, tendo uma enorme paciência e sempre entendendo todo meu esforço. Agradeço por cada momento que passo ao seu lado.

Agradeço ao professor Pledson por todo o incentivo que recebi durante meus primeiros meses da graduação, pela palestra, sobre o curso de estatística, que ministrou em minha escola do ensino médio que fez com o que eu me interessasse por esta incrível área. Por ter ido ao batalhão 17o GAC do exército conversar com o Major Filgueiras para

que eu pudesse continuar no curso sem atrasá-lo, e conseguir. Pelas confraternizações entre alunos e professores.

Agradeço aos professores do departamento de estatística, departamento de ma-temática, departamento de ciência da informação, departamento de educação física, de-partamento de línguas e literaturas estrangeiras modernas e dede-partamento de informática com quem tive grande prazer de ser aluno. À professora Dione, que me acompanhou como tutora do PET desde o meu primeiro ano, por todos os conselhos e inspiração. Ao meu orientador Marcelo, por ter aceitado me orientar, pelas conversas, apoio e por todos os conselhos que recebi.

Agradeço a todos os meus amigos que fiz durante a graduação. Aos amigos da minha turma de 2014 que caminharam ao meu lado durante o curso. A todos os talentosos amigos que fiz no PET com quem dividi alegrias e preocupações ao longo das tardes, sendo eles das turmas de 2012, 2013, 2014, 2015, 2016 e agora 2017, em especial Erika, Felipe e Lucas, com quem passei a maior parte do tempo, obrigado por todo conhecimento que adquiri. Agradeço aos amigos da banda Poty Brigade pela paciência e toda inspiração que recebi.

Agradeço ao PET, pela ajuda financeira, mas principalmente por todo conheci-mento adquirido, e todo incentivo na busca por excelência em um curso tão complicado.

(7)

Resumo

O estudo de modelos para séries temporais de valores inteiros está cada vez mais presente na literatura. É comum, na prática, que séries contenham componente sazonal, e ao contrário dos modelos contínuos, processos de contagem com estrutura sazonal não têm recebido muita atenção na literatura até o momento. Os objetivos desta pesquisa são: introduzir um novo modelo autorregressivo para dados inteiros não-negativos com estrutura sazonal e que apresentem sobredispersão, definir as principais propriedades do processo, estudar métodos de estimação dos parâmetros do modelo proposto, que são os estimadores de Yule-Walker, mínimos quadrados condicionais e máxima verossimilhança condicional, compará-los em um estudo de simulação e aplicar o modelo proposto a um conjunto de dados reais. Comparamos o novo modelo com modelos já propostos na literatura e o modelo proposto neste estudo obteve um melhor ajuste.

Palavras-chave: Dados inteiros não-negativos. Operador thinning. Processo

(8)

Abstract

The study of integer-valued time series models is increasingly present in the literature. It is common in practice for series to contain a seasonal component, and unlike continuous models, counting processes with a seasonal structure have not received much attention in the literature so far. The aims of this paper are: to introduce a new autoregressive model for non-negative integer-valued time series with seasonal structure which are overdispersed, to define the main process properties, to study the estimation methods of the parameters of the proposed model, these methods are Yule-Walker, conditional least squares and conditional maximum likelihood estimators, comparing them in a simulation study and finally applying the proposed model to a real data set. We compared the new model with models already proposed in the literature, and, the model proposed in this paper presented a better fit.

Keywords: Autoregressive process. Counting processes. Non-negative integer-valued.

(9)

Sumário

1 INTRODUÇÃO . . . . 9

1.1 Objetivos . . . 11

1.2 Desenvolvimento dos capítulos . . . 12

2 OPERADOR THINNING BINOMIAL NEGATIVO . . . 13

2.1 Operador thinning binomial negativo . . . 14

2.2 Propriedades do operador thinning binomial negativo . . . 15

3 CONSTRUÇÃO DO PROCESSO N GIN AR(1)s . . . 17

3.1 Processo N GIN AR(1)s . . . 17

3.2 Propriedades . . . 20

3.2.1 Momentos ordinários e medidas condicionais . . . 20

3.2.2 Função de autocovariância e autocorrelação . . . 21

3.2.3 Função de Transição . . . 23

4 MÉTODOS DE ESTIMAÇÃO PARA OS PARÂMETROS . . . 25

4.1 Estimador de máxima verossimilhança condicional . . . 25

4.2 Estimador de mínimos quadrados condicionais . . . 26

4.3 Estimador de Yule-Walker . . . 27

5 ESTUDO DE SIMULAÇÃO . . . 29

5.1 Análise dos cenários . . . 29

6 APLICAÇÃO . . . 34

6.1 Análise descritiva . . . 34

6.2 Ajustes dos modelos . . . 36

REFERÊNCIAS . . . 40

APÊNDICE A – ESTIMADOR DE MÍNIMOS QUADRADOS CON-DICIONAIS . . . 43

(10)

9

1 Introdução

Existem várias situações práticas em que é necessário recorrer à informações do passado para obter respostas no presente. Seguindo a noção descrita em Antunes e Cardoso (2015), imagine um empresário que pretende investir em um tipo de mercado em uma determinada cidade. É essencial que ele realize um estudo a cerca do comportamento histórico do mercado já existente nessa cidade, para que se possa minimizar eventuais prejuízos. Muitas vezes também, é necessário antever o futuro e assim antecipar possíveis resultados. Na área de epidemiologia, o esforço para prever futuros cenários é indispensável para a redução da carga de doenças na população (ANTUNES; CARDOSO, 2015). O conjunto de técnicas estatísticas que lidam com esse tipo de problema, se chama análise de séries temporais.

Podemos definir uma série temporal, de maneira informal, por uma coleção de observações de uma variável aleatória obtidas sequencialmente em instantes no tempo, que possui como principal característica a presença de dependência entre as observações (BOX; JENKINS; REINSEL, 1994). Ao realizar uma análise de uma série temporal estamos interessados em descrever, interpretar e realizar previsões acerca de fenômenos de interesse que podem ser aproximados por modelos.

Quando a variável estudada é contínua, i.e., assume valores em um conjunto não enumerável, dizemos que a série temporal possui marginal contínua, e caso contrário, dizemos que possui marginal discreta, que muitas vezes será referenciada neste trabalho como uma série temporal de valores inteiros, ou tão somente série discreta. Os principais modelos teóricos desenvolvidos para modelar séries temporais, são baseados em distribuições de probabilidade contínuas (BOX; JENKINS; REINSEL, 1970) que, consequentemente, assumem que a variável de interesse é contínua.

Dados autocorrelacionados discretos podem surgir de contagens de eventos ou indivíduos ao longo do tempo e são bastante comuns na prática, como por exemplo, em finanças e economia, para modelar o número de transações de seguradoras sul-coreanas (WEIß; KIM, 2013), em estudos sobre trânsito, para análise e prevenção a respeito do número de acidentes de trânsito em rodovias do Reino Unido (QUDDUS, 2008), em medicina para modelar a incidência de um certo tipo de doença contagiosa em Montreal (CARDINAL; ROY; LAMBERT, 1999). Esse tipo de dado é conhecido como processo de

contagem.

Como dito anteriormente, em uma modelagem usual de séries temporais, assume-se que a distribuição marginal da série é contínua e, em geral, com distribuição normal. Dados discretos nem sempre podem ser ajustados por modelos contínuos. Em alguns casos

(11)

Capítulo 1. Introdução 10

como em que a magnitude dos valores distintos da série temporal discreta são grandes, a modelagem convencional é uma boa aproximação, (PEREIRA, 2012). Contudo, para dados em que não é possível utilizar a metodologia usual, surge a motivação para novas propostas que sejam capazes de modelar as séries com marginais discretas.

Os principais modelos para séries temporais de valores inteiros surgiram como adaptações dos modelos contínuos. O interesse nesses modelos se deu ao final da década de 70 com o modelo discreto autorregressivo de média móvel (DARM A), proposto em Jacobs e Lewis (1977,1978), que é um processo formado por uma combinação linear de variáveis aleatórias discretas independentes e identicamente distribuídas (i.i.d.). Pode-se citar também McKenzie (1986) que propõe modelos autorregressivos de média móvel com distribuições marginais geométrica e binomial-negativa.

Dentre a nova classe de modelos para séries temporais de valores inteiros que surgiram, destaca-se o modelo autorregressivo de primeira ordem para dados inteiros, [IN AR(1)], proposto por McKenzie (1985) e Al-Osh e Alzaid (1987) de maneira inde-pendente. A estrutura de autocorrelação do processo IN AR(1) é a mesma do processo autorregressivo de ordem 1 [AR(1)]. Al-Osh e Alzaid (1987) define o processo IN AR(1), bem como suas principais propriedades e métodos de estimação para os parâmetros do modelo.

Em pesquisas recentes, podemos citar Khoo, Ong e Biswas (2017), que propõe um novo modelo de primeira ordem para processos estacionários não negativos discretos baseados nos operadores Pedram e thinning, Kim e Jun (2017), que propõe o modelo de heterocedasticidade condicional autorregressiva generalizada (GARCH) com distribuição marginal Poisson e binomial, e Bourguignon e Weiß (2017) que propõe um modelo para séries discretas com equidispersão, sobredispersão ou subdispersão.

Quando um novo modelo estatístico é proposto, é desejável que este capte as principais características do fenômeno de estudo. Um dos fatores que influenciam o comportamento das séries temporais é a sazonalidade. Dados sazonais são comuns na prática, áreas como economia (FRANSES et al., 1996), climatologia (LUTERBACHER et al., 2004), epidemiologia (GRASSLY; FRASER, 2006), entre outras, são exemplos em que são estudados fenômenos sazonais. Conforme Pereira (2012), a análise da variação sazonal vem sendo analisada desde o final da década de 20, como por exemplo, nos trabalhos de Mitchell et al. (1927) e Macaulay et al. (1938).

Uma série temporal apresenta padrões sazonais quando um determinado fenômeno se comporta de maneira semelhante em períodos regulares no tempo. Por exemplo, quando determinado produto agrícola é influenciado pelas estações ou determinadas épocas do ano, seus preços tendem a seguir o padrão sazonal. Chamamos de período sazonal o menor intervalo de tempo entre duas ocorrências de tal fenômeno e o denotaremos neste trabalho

(12)

Capítulo 1. Introdução 11

por “s”. O período sazonal resume o comportamento sazonal de uma série temporal, e.g., dados diários podem apresentar período s = 7, dados mensais podem ter período s = 12, entre outros.

Até o momento, ao contrário dos estudos da componente sazonal em séries com marginais contínuas, poucas pesquisas foram realizadas a fim de estudar os efeitos da sazonalidade em processos de contagem. Em pesquisas recentes podemos citar como exemplo, Awale (2017) que apresenta o desenvolvimento de um novo modelo com estrutura sazonal na área de epidemiologia e Bourguignon et al. (2016) que define e apresenta as principais propriedades de um modelo autorregressivo com estrutura sazonal baseado no modelo IN AR(1) com marginal Poisson.

Bourguignon et al. (2016) mostra que o modelo autorregressivo de primeira ordem de valores inteiros e período sazonal s, [IN AR(1)s], obtém melhor ajuste que o modelo

IN AR(1) para um cojunto de dados específico que possui estrutura sazonal. Entretanto,

ambos os modelos supõem que a distribuição de probabilidade marginal do processo de contagem segue distribuição de Poisson. Ao utilizar este modelo probabilístico, assume-se que a média e a variância do processo são iguais, fenômeno chamado de equidispersão, algo que não ocorre com frequência em aplicações reais.

Quando a série apresenta sobredispersão, i.e., a variância do processo estudado é maior do que a média, temos indícios de que o modelo de Poisson não seja uma boa escolha, por exemplo, (WEIß, 2008), (WEIß, 2010), (ZHU, 2012) e (BOURGUIGNON; WEIß, 2017). Uma das possíveis maneiras de modelar a sobredispersão em processos de contagem é optar por distribuições de probabilidade marginais que assumam que a variância é maior que a média do processo, como por exemplo a distribuição geométrica. Alguns estudos que consideraram tal distribuição como a distribuição marginal do processo foram McKenzie (1985,1986), Al-Osh e Aly (1992) e Ristić, Bakouch e Nastić (2009).

Pesquisas que abordam séries temporais de valores inteiros com estrutura sazonal e sobredispersão não têm sido discutidas na literatura, em decorrência deste fato, neste trabalho, estudaremos os efeitos da sazonalidade no processo N GIN AR(1) através da construção de um novo modelo que considera a componente sazonal em sua estrutura.

1.1

Objetivos

O principal objetivo deste trabalho, é desenvolver um novo modelo de séries temporais para dados discretos não-negativos, com sobredispersão e que apresentem comportamento sazonal com base na estrutura desenvolvida em Ristić, Bakouch e Nastić (2009).

(13)

Capítulo 1. Introdução 12

• Definir e estudar as principais propriedades do operador thinning binomial negativo; • Definir o novo modelo e suas principais propriedades tais como função de transição,

função de autocovariância e autocorrelação;

• Desenvolver e estudar métodos de estimação para os parâmetros do processo pro-posto, que são os estimadores de Yule-Walker, estimadores de mínimos quadrados condicionais e os estimadores de máxima verossimilhança condicional;

• Realizar um estudo de Monte Carlo para comparar os estimadores propostos, avali-ando em diferentes cenários suas performances;

• Aplicar o modelo proposto a um conjunto de dados reais e compará-lo com outros modelos já existentes na literatura.

1.2

Desenvolvimento dos capítulos

Este trabalho se desenvolverá da seguinte forma: no Capítulo 2 realizaremos uma introdução motivacional a cerca da definição do operador thinning binomial negativo, apresentaremos sua definição e suas principais propriedades conforme apresentadas em Ristić, Bakouch e Nastić (2009). No Capítulo 3, realizaremos a construção do processo proposto, estudaremos sua condição de estacionariedade, e demonstraremos suas principais propriedades como a função de autocorrelação, distribuição do processo de inovação do modelo e a função de transição. No Capítulo 4, propomos métodos de estimação para os parâmetros do modelo. No Capítulo 5, apresentaremos um estudo de simulação feito com a finalidade de observar a performance dos estimadores apresentados. Finalmente, no Capítulo 6, aplicaremos o modelo proposto neste trabalho a um conjunto de dados reais, com a finalidade de realizar comparações entre os ajustes de outros modelos presentes na literatura.

(14)

13

2 Operador Thinning Binomial Negativo

A principal adaptação do modelo IN AR(1), em relação aos modelos clássicos de séries temporais, é devida a utilização do operador thinning binomial proposto em Steutel e Harn (1979), que é definido por uma soma aleatória de variáveis aleatórias i.i.d. com distribuição Bernoulli, em que essas variáveis são chamadas de série de contagem. Os modelos de séries temporais para dados contínuos baseiam-se em operações multiplicativas que frequentemente não retornam valores inteiros, como por exemplo o modelo AR(1)

Xt= δ + φXt−1+ t, t ∈ Z,

em que δ, φ ∈ R são parâmetros e {t}t∈Z é uma sequência de variáveis aleatórias i.i.d. com

média 0 e variância constante. Mesmo que Xt seja uma variável aleatória discreta, com a

evolução do processo, a série não retornará valores inteiros.

Al-Osh e Alzaid (1987) e McKenzie (1985) propuseram utilizar o operador thinning binomial para que se mantivesse a estrutura de autocorrelação e que os valores retornados a partir do processo de evolução do modelo fossem inteiros. Gauthier e Latour (1994) apre-sentam uma generalização dos operadores thinning permitindo que as séries de contagem sigam qualquer distribuição discreta, o que possibilita desenvolver modelos com diferentes tipos de operadores thinning e a comparação entre eles.

Algumas pesquisas que utilizaram os operadores thinning quando assume-se que distribuição marginal da série é geométrica, foram McKenzie (1985,1986) que utiliza o operador thinning binomial e Al-Osh e Aly (1992) que utiliza uma soma de variáveis alea-tórias i.i.d. geométrica para a série de contagem, semelhante ao operador que será definido neste trabalho, porém se diferencia apenas por considerar uma estrutura condicional a uma variável aleatória binomial.

Mais recentemente, Ristić, Bakouch e Nastić (2009) propuseram o operador

thinning binomial negativo na definição do processo N GIN AR(1). O operador é definido

por uma soma aleatória de variáveis aleatórias i.i.d. em que cada uma dessas variáveis possui distribuição geométrica. Os objetivos deste capítulo são definir o operador thinning binomial negativo e apresentar suas principais propriedades.

(15)

Capítulo 2. Operador Thinning Binomial Negativo 14

2.1

Operador thinning binomial negativo

Definição 2.1.1. Seja X uma variável aleatória discreta não-negativa e α ∈ [0,1), o

operador thinning binomial negativo, denotado por “∗”, é definido como α ∗ X =      X P i=1 Wi, se X > 0, 0, se X = 0,

em que a série de contagens {Wi}i∈N é uma sequência de variáveis aleatórias i.i.d. com

distribuição geométrica com média α ∈ [0,1).

Seja W variável aleatória com distribuição geométrica com média α, a função de probabilidade W é dada por

P (W = w) = α

w

(α + 1)w+1, w = 0,1,2,...,

em que E[W ] = α e V ar[W ] = α(1 + α). Se considerarmos uma sequência finita de ensaios de Bernoulli expressa em termos de sucessos ou falhas, W representa o número falhas até o primeiro sucesso com probabilidade de sucesso 1/(α + 1). Utilizamos a notação

W ∼ Geo(1/(α + 1)), para denotar a variável aleatória W com distribuição geométrica

com média α.

Proposição 2.1.1. Sejam W1, ..., Wk uma amostra aleatória de variáveis aleatórias i.i.d.

com Wi ∼ Geo(1/(α + 1)), i = 1,2, ..., k então

V = α ∗ X | (X = k) =

k

X

i=1

Wi ∼ BN (k, α/(1 + α)) ,

em que a notação V ∼ BN (a, b) representa que a variável aleatória V possui distribuição binomial negativa com parâmetros a e b.

Demonstração. Seja φW(t) = E[etW] a função geradora de momentos da variável aleatória

W . Seja p = 1/(α + 1), ou seja, W ∼ Geo(p), então φW(t) =

p

1 − (1 − p)et.

Desejamos obter a distribuição da variável aleatória V = Pk

i=1

Wi, como por definição,

W1, ..., Wk é uma amostra aleatória i.i.d., segue que

φV(t) = k Y i=1 φWi(t) = " p 1 − (1 − p)et #k ,

que é igual a função geradora de momentos de uma variável aleatória com distribuição binomial negativa com parâmetros k e 1 − p, ou seja

V ∼ BN (k,α/(1 + α)),

(16)

Capítulo 2. Operador Thinning Binomial Negativo 15

Sendo assim, a função de probabilidade de V é expressa por

P (V = v) =   v + k − 1 v   αv (α + 1)k+v, v = 0,1,..., (2.1)

com E[V ] = kα e V ar[V ] = kα(α + 1).

A distribuição da variável aleatória V é de grande relevância para a construção do processo, uma vez que a distribuição obtida a partir do novo operador thinning binomial negativo é a distribuição binomial negativa reparametrizada como em (2.1). Além disso, com o conhecimento da distribuição de V , é possível simular valores do processo proposto, e com isso avaliar possíveis estimadores e principais propriedades destes.

2.2

Propriedades do operador thinning binomial negativo

Abaixo, no Lema 2.2.1, são apresentadas as propriedades do operador thinning binomial negativo. As propriedades e demonstrações estão descritas em Ristić, Bakouch e Nastić (2009).

Lema 2.2.1. Suponha que a série de contagem de α ∗ X é independente de X e de Y e as

séries de contagem de αi∗ Xi, i=1,2,...,r, são mutualmente independentes e independentes

de Xi, i = 1,2,..., r . Então, o operador thinning binomial negativo ∗ tem as seguintes

propriedades (i) E  r Q i=1 (αi∗ Xi)  = Qr i=1 αiE  r Q i=1 Xi  , r ≥ 1; (ii) E [(α ∗ X)2] = α2E [X2] + α(1 + α)E [X];

(iii) E [(α ∗ X)3] = α3E [X3] + 3α2(1 + α)E [X2] + α(1 + α)(1 + 2α)E [X];

(iv) E [(α ∗ X − α ∗ Y )2] = α(1 + α)E [|X − Y |] + α2E [(X − Y )2], se os processos

de contagem α ∗ X e α ∗ Y possuírem a mesma distribuição geométrica com média α.

Levando em consideração o Teorema 2.2.1 abaixo, Ristić, Bakouch e Nastić (2009) mostra que as propriedades do operador thinning binomial negativo não se assemelham as propriedades do operador thinning binomial, e ao contrário deste, apresenta propriedades relativamente menos intuitivas.

Teorema 2.2.1. Seja X variável aleatória em que X ∼ Geo(1/(α + 1)), então

(i) 1 ∗ X =          0 com probabilidade 1/(1 + α), X com probabilidade α/(1 + α)2, X + Y com probabilidade α/(1 + α)2,

(17)

Capítulo 2. Operador Thinning Binomial Negativo 16

em que Y ∼ Geo((1 + α)/(2 + α)) e Y é independente de X. (ii) β ∗ γ ∗ X =                              0 com probabilidade 1 + γ 1 + γ + γα, (βγ) ∗ X + Y1 com probabilidade γ2α2 (1 + γ + γα)(1 + γα), (βγ) ∗ X + Y2 com probabilidade γα (1 + γ + γα)(1 + γα),

em que β e γ ∈ [0,1), e as variáveis aleatórias independentes Y1 e Y2 possuem,

respectiva-mente, distribuição geométrica com parâmetros βγ/(1+βγ) e β(1+γ+γα)/[1+β(1+γ+γα)] e são independentes de X.

(18)

17

3 Construção do Processo N GIN AR(1)

s

Uma das principais características que, frequentemente, estão presentes em séries temporais é a dependência entre as observações, que muitas vezes, mesmo com o passar do tempo, continua influenciando os valores da série. Um dos modelos clássicos que consideram a memória do processo é o modelo autorregressivo proposto em Box, Jenkins e Reinsel (1970), que podem ser extremamente úteis em situações práticas (BOX; JENKINS; REINSEL, 1994).

Conforme descrito em (BOX; JENKINS; REINSEL, 1994), no modelo AR(1), a atual observação do processo é expressa em uma estrutura linear em termos das obser-vações anteriores, em razão disto, a estrutura de correlação entre as obserobser-vações decai exponencialmente, sugerindo que as observações presentes serão influenciadas cada vez menos por observações em defasagens de tempos cada vez maiores.

Neste capítulo, definiremos um novo processo autorregressivo de primeira ordem para dados inteiros não-negativos com distribuição marginal geométrica de período sazonal

s, [N GIN AR(1)s]. Assim, consideramos a principal contribuição teórica deste trabalho, na

área de séries temporais de valores inteiros, como sendo o estudo da componente sazonal no modelo N GIN AR(1). Os objetivos principais deste capítulo são definir o processo e demonstrar suas principais propriedades como condição de estacionariedade, funções de autocovariância e autocorrelação, assim como a função de transição.

3.1

Processo N GIN AR(1)

s

Definição 3.1.1. (Processo N GIN AR(1)s). Um processo discreto de valores inteiros

não-negativos, {Yt}t∈Z, diz-se um processo sazonal autorregressivo de valores inteiros de

ordem 1 e período sazonal s ∈ N, NGINAR(1)s, se satisfaz a seguinte equação

Yt = α ∗ Yt−s+ εt, t ∈ Z, (3.1)

em que α ∈ [0, 1), {Yt}t∈Z é uma sequência de variáveis aleatórias tal que {Yt}t∈Z possui

distribuição marginal geométrica com média µ > 0. {εt}t∈Z é uma sequência de variáveis

aleatórias não negativas i.i.d. independentes da série de contagens {Wi}i∈N ∀i ∈ N e são

independentes de Yt−l, ∀ l ≥ s.

Pela construção do processo N GIN AR(1)s, {Yt}t∈Z pode ser visto como uma

(19)

Capítulo 3. Construção do Processo N GIN AR(1)s 18

apenas da observação do tempo t − s, ou seja

P (Yt= yt| Yt−1= yt−1, Yt−2 = yt−2, ..., Y0 = y0) = P (Yt = yt| Yt−s = yt−s). (3.2)

Além disso, {Yt}t∈Z é um processo homogêneo, i.e., as probabilidades de transição

são invariantes no tempo, ver na seção (3.2.3); irredutível, ou seja, cada valor assumido pela variável aleatória {Yt}t∈Z pode ser um valor da cadeia em um determinado tempo

t, e aperiódica, ou seja, não existe um t0 ∈ Z tal que P (Yt0 = i) = 1 ∀t > t0 para algum

i ∈ {0,1,...}.

Quando o período sazonal s = 1, então {Yt}t∈Zresume-se ao processo N GIN AR(1)

proposto em Ristić, Bakouch e Nastić (2009), ou seja, o processo N GIN AR(1) é um caso particular do processo N GIN AR(1)s, caso este que não leva em consideração a componente

sazonal na série.

Conforme a Proposição 3.1 em Latour (1998), se {εt}t∈Z é uma sequência de

variáveis aleatórias i.i.d. não-negativas e discretas, e α < 1 então o processo {Yt}t∈Z

definido em (3.1) é estacionário. Em particular, neste trabalho estudaremos o caso em que α obedece a restrição α ∈h0,1+µµ , então, como εt ≥ 0 ∀t ∈ Z e α < µ/(1 + µ) < 1, o

processo N GIN AR(1)s é estacionário.

{εt}t∈Z é chamado de processo de inovação, e acontece por fenômenos aleatórios

que não são explicados no modelo. Em técnicas de diagnóstico, conhecer a distribuição do processo de inovação é necessário para verificar as suposições impostas pelo modelo utilizado. A distribuição de {εt}t∈Z é de interesse também para que se possa calcular a

função de transição do processo, como também para simular valores da série, o que é de grande relevância para estudarmos o comportamento do processo e de seus estimadores. Na Proposição 3.1.1, apresentamos a função de probabilidade de εt.

Proposição 3.1.1. εt é uma mistura de duas variáveis aleatórias, ambas com

distribui-ção geométrica com parâmetros 1/(1 + µ) e 1/(1 + α), respectivamente, com fundistribui-ção de probabilidade dada por

P (εt= l) = 1 − αµ µ − α ! µl (1 + µ)l+1 + αµ µ − α ! αl (1 + α)l+1, µ 6= α, l = 0 ,1 ,...,

em que µε = E[εt] = (1 − α)µ e σε2 = V ar[εt] = (1 + α)µ[(1 + µ)(1 − α) − α].

Demonstração. Seja ϕX(r) a função geradora de probabilidades (fgp) da variável aleatória

X, definida por

ϕX(r) = E

h

rXi.

Se X possui distribuição geométrica de média µ, então sua fgp é dada por

ϕX(r) =

1 1 + µ − µr.

(20)

Capítulo 3. Construção do Processo N GIN AR(1)s 19

Sejam ϕY(r), ϕW(r) e ϕε(r) as fgp’s das variáveis aleatórias Yt, Wi e εt,

respecti-vamente. Pela independência entre {εt}t∈Z e a série de contagem, tem-se que

ϕY(r) = E h rYti= Ehrα∗Yt−s+εti= Ehrα∗Yt−siE [rεt] ⇒ EhrYti= EhEhrα∗Yt−s Yt−s = yt−s ii E [rεt] .

Por independência entre as variáveis da série de contagem {Wi}i∈N e a

estaciona-riedade do processo ⇒ EhrYti= E  EhrWiYt−s  E [rεt] ⇒ EhrYti= E  EhrWiYt  E [rεt] . Segue que ϕY(r) = ϕY(ϕW(r))ϕε(r). (3.3)

Suponha que Yt e Wi possuem distribuição geométrica com parâmetros 1/(1 + µ)

e 1/(1 + α), respectivamente, obtemos então, por (3.3),

ϕε(r) =

ϕY(r)

ϕY(ϕW(r))

= 1 + α(1 − r) + µα(1 − r) [1 + µ(1 − r)][1 + α(1 − r)]. Utilizando frações parciais, temos que

ϕε(r) = 1 − αµ µ − α ! 1 (1 + µ − µr)+ αµ µ − α ! 1 (1 + α − αr),

Logo, a fgp de εt é uma média ponderada de duas fgp’s de variáveis aleatórias

com distribuição geométrica de média µ e α, respectivamente. Para que P (εt = l) seja

uma legítima função de probabilidade, temos a seguinte restrição 0 ≤ αµ/(µ − α) ≤ 1 ⇒ α ≤ µ/(1 + µ). Assim, P (εt = l) = 1 − αµ µ − α ! µl (1 + µ)l+1 + αµ µ − α ! αl (1 + α)l+1, µ 6= α, l = 0 ,1 ,...

(21)

Capítulo 3. Construção do Processo N GIN AR(1)s 20

µ)(1 − α) − α]. Seja L = εt, com base na função de probabilidade de εt, temos que

E[εt] = E[L] = ∞ X l=0 lP (L = l) = 1 − αµ µ − α ! ∞ X l=0 l µ l (1 + µ)l+1 + αµ µ − α ! ∞ X l=0 l α l (1 + α)l+1 = 1 − αµ µ − α ! µ + αµ µ − α ! α = µ(1 − α).

V ar[εt] = V ar[L] = E[L2] − E2[L]

= ∞ X l=0 l2P (L = l) − µ2(1 − α)2 = 1 − αµ µ − α ! X l=0 l2 µ l (1 + µ)l+1 + αµ µ − α ! X l=0 l2 α l (1 + α)l+1 − µ 2(1 − α)2 = µ2+ µ(1 + µ) − 2αµ2− 2α2µ − αµ − µ2(1 − α)2 = µ(1 + µ) − αµ − α2µ2− 2α2µ + αµ2− αµ2 = (1 + α)µ[(1 + µ)(1 − α) − α].

A Figura 1 apresenta seis realizações do processo N GIN AR(1)s variando seus

parâmetros e o período sazonal. Pode-se perceber a diferença (visual) da magnitude dos dados. Note que para valores pequenos da média, µ, a magnitude dos valores da série é pequena e possui muitos valores repetidos, uma das características encontradas em séries temporais de valores inteiros, contudo, quando há um aumento da média, e por consequência na variabilidade dos dados, a magnitude dos valores da série também aumenta.

3.2

Propriedades

3.2.1

Momentos ordinários e medidas condicionais

Os momentos ordinários de uma variável aleatória são de importância para que possam ser calculadas propriedades acerca de sua distribuição de probabilidades, como por exemplo o valor esperado e a variância. Como, por definição, o processo N GIN AR(1)s

possui distribuição marginal geométrica, para todo t ∈ Z, os momentos ordinais de ordem

k, µ0k, são dados por

µ01 = µ, µ02 = µ(2µ + 1), µ03 = µ[6µ(µ + 1) + 1], µ04 = µ(2µ + 1)[12µ(µ + 1) + 1]. Note que,

(22)

Capítulo 3. Construção do Processo N GIN AR(1)s 21 Tempo Realizações 0 20 40 60 80 100 0 4 8 (a) Tempo Realizações 0 20 40 60 80 100 0 20 40 60 (b) Tempo Realizações 0 20 40 60 80 100 0 4 8 (c) Tempo Realizações 0 20 40 60 80 100 0 20 40 60 (d) Tempo Realizações 0 20 40 60 80 100 0 4 8 (e) Tempo Realizações 0 20 40 60 80 100 0 20 40 60 (f)

Figura 1 – Cem realizações do processo N GIN AR(1)s em que as variações dos parâmetros

usadas são (a) α = 0,3, µ = 1 e s = 7, (b) α = 0,3, µ = 10 e s = 7, (c) α = 0,3,

µ = 1 e s = 12, (d) α = 0,3, µ = 10 e s = 12, (e) α = 0,5, µ = 1,5 e s = 7 e (f) α = 0,5, µ = 10 e s = 7.

Como estamos em um cenário em que admitimos a dependência entre as variáveis, devemos considerar também a estrutura condicional das propriedades estabelecidas. É possível verificar que

E[Yt| Yt−1, ..., Y0] = E[Yt| Yt−s] = αYt−s + µε,

V ar[Yt| Yt−1, ..., Y0] = V ar[Yt| Yt−s] = α(α + 1)Yt−s+ σε2,

em que µε = E[εt] e σε2t = V ar[εt].

3.2.2

Função de autocovariância e autocorrelação

Uma das abordagens que é utilizada em análise de séries temporais é a análise no domínio do tempo, e, em tal abordagem, a ênfase está na estrutura das correlações entre os eventos de interesse em diferentes instantes de tempo. Na metodologia Box-Jenkins,

(23)

Capítulo 3. Construção do Processo N GIN AR(1)s 22

a principal ferramenta para a identificação de um modelo para uma série temporal é a função de autocorrelação e a autocorrelação parcial.

As funções de autocovariância e de autocorrelação do processo N GIN AR(1)s são

dadas, respectivamente, por

Cov [Yt,Yt+k] = γ(k) =    αksγ(0), se k é múltiplo de s, 0, caso contrário, e ρ(k) = γ(k) γ(0) =    αks, se k é múltiplo de s, 0, caso contrário, (3.4)

em que k é o número de períodos associados a uma observação precedente chamado de defasagem.

Demonstração. Suponha que k é múltiplo de s, mais precisamente, ∃ p ∈ N; k = ps, então: γ(k) = Cov [Yt, Yt+k] = E [YtYt+k] − E [Yt] E [Yt+k] = E [Yt(α ∗ Yt+k−s+ εt+k)] − E [Yt] E [(α ∗ Yt+k−s+ εt+k)] = E [Yt(α ∗ Yt+k−s)] + E [Ytεt+k] − E [Yt] E [α ∗ Yt+k−s] − E [Yt] E [εt+k] = |{z} propriedade (i) αCov [Yt+k−s,Yt] + Cov [εt+k,Yt] = |{z} independência dosε0s αγ(k − s)

Continuando esse processo recursivamente por p − 1 vezes, temos que:

Cov [Yt,Yt+k] = αpγ(k − ps) = α

k

sγ(0), se k = ps.

Suponha agora que k não seja múltiplo se s. Pela propriedade de Markov, descrita em (3.2), a variável aleatória Yt é independente de Yt+k para todo t ∈ Z, o que implica que

Cov(Yt, Yt+k) = 0.

Logo, a função de autocorrelação é dada por

ρ(k) = γ(k) γ(0) =    αks, se k = ps, 0, caso contrário.

A Figura 2 apresenta a função de autocorrelação (FAC) amostral de realizações do processo N GIN AR(1)s em que variamos o período sazonal com os valores s = 3, 4, 7 e

12, que podem ser interpretados da seguinte maneira, se a série for tomada mensalmente, os períodos sazonais 3, 4 e 12 representam uma periodicidade trimestral, quadrimestral e anual, respectivamente, enquanto que se a série for tomada diariamente, um período sazonal s = 7 denota uma periodicidade semanal. Note que dada uma amostra do processo

(24)

Capítulo 3. Construção do Processo N GIN AR(1)s 23 5 10 15 20 25 30 0.0 0.2 0.4 Defasagem FAC (a) 5 10 15 20 25 30 0.0 0.2 0.4 Defasagem FAC (b) 5 10 15 20 25 30 0.0 0.2 0.4 Defasagem FAC (c) 5 10 15 20 25 30 0.0 0.2 0.4 Defasagem FAC (d)

Figura 2 – Funções de autocorrelação do processo N GIN AR(1)s em que somente os

valores do período sazonal são alterados conforme (a) s = 3, (b) s = 4, (c)

s = 7 e (d) s = 12.

3.2.3

Função de Transição

Definição 3.2.1. Sejam X e Z duas variáveis aleatórias discretas independentes, em que

PX+Z(·), PX(·), PZ(·) são as funções de probabilidade das variáveis aleatórias X + Z, X e

Z, respectivamente, a convolução da função de probabilidade da soma de duas variáveis aleatórias discretas independentes é definida por

PX+Z(X + Z = i) =

X

k=−∞

PX(X = k)PZ(Z = i − k).

Seja {Yt}t∈Z o processo definido em (3.1), a função de transição do processo é

obtida através da função de probabilidade da variável aleatória Yt| Yt−s, em que é possível

observar que esta pode ser escrita como a soma de duas variáveis aleatórias independentes da forma Yt | Yt−s = α ∗ Yt−s | Yt−s | {z } Binomial negativa + εt |{z} Mistura de geométricas .

Assim, podemos encontrar a função de probabilidade de Yt | Yt−s a partir de uma

convolução dada por

P (Yt= j | Yt−s = i) =

X

k∈Cj

(25)

Capítulo 3. Construção do Processo N GIN AR(1)s 24

em que Cj = {k : k ∈ D(V ) e (j − k) ∈ D(εt)} = {k : 0 ≤ k ≤ j}, com V variável aleatória

como definida em (2.1) e D(X) representa o domínio da variável aleatória X.

Proposição 3.2.1. Seja {Yt}t∈Z um processo N GIN AR(1)s, a função de transição

s-passos à frente de Yt é dada por

P (Yt= j|Yt−s = 0) = 1 − αµ µ − α ! µj (1 + µ)j+1 + αµ µ − α ! αj (1 + α)j+1, (3.5) P (Yt= j|Yt−s = i) = µαj+1 (µ − α)(1 + α)j+i+1   i + j j  + 1 − αµ µ − α ! µj (1 + α)i(1 + µ)j+1 j X k=0   i + k − 1 k   " α(1 + µ) µ(1 + α) #k , em que i,j = 0,1,..., e µ 6= α.

Demonstração. Seja pi,j = P (Yt= j|Yt−s = i) e µ 6= α, se i = 0, pela definição do operador

thinning binomial negativo, temos que

p0,j = P (εt= j). Se i 6= 0, então pi,j = j X k=0   i + k − 1 k   αk (α + 1)i+k " 1 − αµ µ − α ! µj−k (µ + 1)j−k+1 + αµ µ − α ! αj−k (α + 1)j−k+1 # = α j+1µ (µ − α)(α + 1)j+i+1 j X k=0   i + k − 1 k  + 1 − αµ µ − α ! µj (µ + 1)j+1(α + 1)i j X k=0   i + k − 1 k   α(µ + 1) µ(α + 1) !k = α j+1µ (µ − α)(α + 1)j+i+1   i + j j  + 1 − αµ µ − α ! µj (µ + 1)j+1(α + 1)i j X k=0   i + k − 1 k   α(µ + 1) µ(α + 1) !k

(26)

25

4 Métodos de estimação para os parâmetros

Na prática, os parâmetros do modelo N GIN AR(1)s não são conhecidos, e para

ajustar o modelo a um conjunto de dados se faz necessário estimá-los. Neste capítulo, serão definidos os estimadores para os parâmetros do processo N GIN AR(1)s. Tais estimadores

são amplamente utilizados como método de estimação para os parâmetros dos processos

IN AR na literatura, sendo eles: os estimadores de máxima verossimilhança condicional;

os estimadores de mínimos quadrados condicionais e os estimadores de Yule-Walker.

4.1

Estimador de máxima verossimilhança condicional

Seja Y1, ..., Ynuma realização do processo N GIN AR(1)s e seja P (Yt= i|Yt−s = j)

a função de probabilidade definida em (3.5), com θ = (α, µ)> ∈ Θ = {(α, µ) : (α, µ) ∈ [0, µ/(1 + µ)) × (0, ∞)} ⊂ R2, em que Θ é chamado de espaço paramétrico.

O método de máxima verossimilhança usual que, geralmente, é aplicado à variáveis aleatórias i.i.d., não pode ser empregado diretamente ao processo N GIN AR(1)s por razão

da estrutura de dependência entre as variáveis aleatórias do processo. Em razão disto, considera-se a função de probabilidade conjunta de Ys+1, ..., Yn condicionada às variáveis

aleatórias Y1, ..., Ys. A função de verossimilhança condicional de θ é definida por

L(θ) =

n

Y

t=s+1

P (Yt = i | Yt−s = j),

em que i é o valor amostral observado da variável aleatória Yt no tempo t, e j é um valor

conhecido da variável aleatória Yt−s no tempo t − s.

Por razão da função logaritmo ser uma função monótona, maximizar L(θ) em θ é equivalente a maximizar o logaritmo natural da função de verossimilhança

log[L(θ)] = l(θ) =

n

X

t=s+1

log [P (Yt= i | Yt−s = j)] ,

que na grande maioria das vezes se torna mais atrativo devido a facilidade do processo de otimização da função l(θ) em relação a função L(θ). Definimos como estimativa de máxima verossimilhança condicional, denotada por ˆθmvc = ( ˆαmvc, ˆµmvc)>, o vetor ˆθmvc ∈ Θ tal que

l(θ) ≤ l( ˆθmvc) ∀θ ∈ Θ. Assim, ˆθmvc é tal que U

 ˆ θmvc  = 0, em que U (θ) = ∂l(θ) ∂θ =         ∂l(θ) ∂α ∂l(θ) ∂µ         , (4.1)

(27)

Capítulo 4. Métodos de estimação para os parâmetros 26

e a matriz de segundas derivadas de l(θ) é negativa definida.

Para o processo N GIN AR(1)s, o sistema de equações em (4.1) não possui solução

analítica, sendo assim, as estimativas de máxima verossimilhança condicional (MVC) devem ser obtidas via métodos numéricos.

Para estimar os parâmetros do modelo N GIN AR(1)s numericamente, através dos

estimadores MVC, foi utilizado o método de Nelder-Mead, que é um método de otimização, proposto por Nelder e Mead (1965). Uma das vantagens do método de Nelder-Mead sobre outros métodos de otimização, é que não é necessário o uso de derivadas nem da matriz de segundas derivadas, mas somente da função que se deseja minimizar. Observe que maximizar a função l(θ) é equivalente a minimizar a função h(θ) = −l(θ) em relação a θ, ou seja, o método de Nelder-Mead deve ser implementado para minimizar a função h(θ).

4.2

Estimador de mínimos quadrados condicionais

O estimador de mínimos quadrados condicionais (MQC), proposto por Klimko e Nelson (1978), é um procedimento de estimação para processos estocásticos baseado na minimização da soma dos quadrados dos desvios das observações em relação a esperança condicional do processo. O estimador MQC é frequentemente abordado como método de estimação para os processos INAR (AL-OSH; ALZAID, 1987), (RISTIĆ; BAKOUCH; NASTIĆ, 2009), (BOURGUIGNON et al., 2016).

Seja Y1, ..., Yn uma amostra do processo N GIN AR(1)s, em que a distribuição de

probabilidade de Yi, i ∈ {1,2, ..., n}, depende do vetor de parâmetros θ = (α, µ)>. Defina

g(θ) = E[Yt | Y1, ..., Yn], função de θ. Para o modelo N GIN AR(1)s, a função g(θ) é

expressa por

g(θ) = E[Yt| Yt−s = yt−s] = E [α ∗ Yt−s+ εt| Yt−s = yt−s] = αyt−s+ µ(1 − α).

Definimos como estimador de MQC, denotado por ˆθmqc, o vetor ˆθmqc= ( ˆαmqc, ˆµmqc)>

que minimiza a função

Q(θ) =

n

X

t=s+1

[Yt− g(θ)]2,

ou seja, ˆθmvc é tal que

∂Q (θ) ∂θ θ =θˆmqc = 0, (4.2)

e a matriz de segundas derivadas de Q(θ) é positiva definida.

(28)

Capítulo 4. Métodos de estimação para os parâmetros 27

o sistema de equações (4.2) são dados por

ˆ αmqc= (n − s) Pn t=s+1 YtYt−sn P t=s+1 Yt ! n P t=s+1 Yt−s ! (n − s) Pn t=s+1 Y2 t−sn P t=s+1 Yt−s !2 , e ˆ µmqc = n P t=s+1 Yt− ˆαmqc n P t=s+1 Yt−s (n − s)(1 − ˆαmqc) . Demonstração. Ver no apêndice A.

As propriedades assintóticas do estimador MQC foram primeiramente demons-tradas por Klimko e Nelson (1978) e abordadas sob o contexto de estimação em modelos de séries temporais não lineares por Tjøstheim (1986). Conforme demonstrado em Ris-tić, Bakouch e Nastić (2009), os estimadores de MQC para os parâmetros do processo

N GIN AR(1) possuem distribuição assintótica normal.

Como os processos N GIN AR(1) e N GIN AR(1)s possuem as mesmas estruturas

marginais e probabilísticas, segue que a distribuição assintótica do estimador de MQC para os parâmetros do processo N GIN AR(1)s é a mesma verificada em Ristić, Bakouch e Nastić

(2009). Portanto, satisfeitas as condições necessárias, pelo Teorema 3.2 em Tjøstheim (1986), temos que √ n     ˆ αmqc ˆ µmqc  −   ˆ α ˆ µ     a ∼ N        0 0  ,      (1+α)(µ+µ2+α+αµ−αµ2) µ(1+µ) α(1+α) 1−α α(1+α) 1−α µ(1+µ)(1+α) 1−α           , (4.3) em que a notação Xn a

∼ N (a, b) significa que, quando n aumenta indefinidamente, a variável aleatória Xn possui distribuição normal com parâmetros a e b.

4.3

Estimador de Yule-Walker

A estimação dos parâmetros pelo método dos momentos geralmente é empregada pela fácil obtenção dos estimadores pontuais. Frequentemente, as estimativas pelo método dos momentos são utilizadas como chute inicial quando se tem a necessidade de estimar os parâmetros através da implementação de um algoritmo de otimização. O método consiste em equiparar os momentos populacionais aos momentos amostrais, e então encontrar uma função da amostra em que seja possível estimar o parâmetro desejado.

Considere uma amostra Y1, ..., Yn do processo N GIN AR(1)s. Com base em (3.4),

(29)

Capítulo 4. Métodos de estimação para os parâmetros 28

estimador de Yule-Walker (YW) para o parâmetro α. Então, o estimador de Yule-Walker, ˆ

αyw, para o parâmetro α é dado por

ˆ αyw = ˆρ(s) = n P t=s+1 (Yt− ¯Y )(Yt−s− ¯Y ) n P t=1 (Yt− ¯Y )2 , em que ¯Y = (1/n)Pn

i=1Yi. Com base no primeiro momento, o estimador de YW para

E [Yt] = µ, denotado por ˆµyw, é dado por

ˆ

µyw = ¯Y .

Em Freeland e McCabe (2005) foi estudado o comportamento dos estimadores de YW e MQC para os parâmetros do processo IN AR(1) com marginais Poisson, e foi demonstrado que a distribuição do estimador MQC é assintoticamente equivalente a distribuição dos estimadores de YW. Tal propriedade também foi verificada para o processo

N GIN AR(1) em Ristić, Bakouch e Nastić (2009), o que implica que os estimadores de YW

para os parâmetros do processo N GIN AR(1)s possuem distribuição assintótica equivalente

(30)

29

5 Estudo de Simulação

Neste capítulo, é apresentado um estudo de simulação realizado com a finalidade de comparação entre os estimadores definidos no Capítulo 4. Para isso, realizaremos um estudo de Monte Carlo com 5000 réplicas, com tamanhos amostrais n = 100, 200, 400 e 800 utilizando os seguintes parâmetros α = 0,3 e 0,5, µ = 5 e 10 com período sazonal s = 7 e 12. Para este estudo, utilizamos o software R (Core Team, 2017) versão 3.3.3 na plataforma windows.

As informações apresentadas nas tabelas da Seção 5.1 constam da estimativa média obtida em cada réplica e o erro quadrático médio do estimador que pode ser estimado por \ EQM (θbi) = 1 5000 5000 X i=1  b θi− θi 2 , em que θbi ∈ { ˆα, ˆµ} é o estimador de θi ∈ {α, µ}, i ∈ {1,2, ..., 5000}.

Consideramos como melhor estimador aquele que apresentar menor erro quadrático médio. Tal critério leva em conta a variabilidade do estimador como também o seu viés, de acordo com a seguinte expressão

EQM (θ) = V ar[b θ] +b h

E(θ − θ)b i2

.

5.1

Análise dos cenários

A Tabela 1 apresenta os resultados do estudo de simulação para o processo

N GIN AR(1)7 com média µ = 5, tamanho amostral variando em 100, 200, 400 e 800, com

α = 0,3 e 0,5. As estimativas estão próximas de seus respectivos parâmetros estimados,

além disso, o erro quadrático médio diminui quando o tamanho da amostra aumenta. Quanto ao aumento do parâmetro α, os erros quadráticos médios de todos os estimadores são maiores do que ou iguais quando aumentamos de α = 0,3 para α = 0,5. Acreditamos que tal comportamento é observado devido à relativa proximidade, do valor 0,5 escolhido para α, à restrição, que neste cenário, é de 5/6 ≈ 0,83. Além disso, percebe-se que a diferença entre tais erros é maior para os estimadores de µ do que para os de α. Nota-se também que na sua grande maioria, os estimadores subestimam o verdadeiro valor do parâmetro.

Quanto a análise do melhor estimador, para o parâmetro α, o estimador de máxima verossimilhança condicional obteve um menor erro quadrático médio em todas as combinações estudadas na Tabela 1, já para o parâmetro µ, tal comportamento só foi

(31)

Capítulo 5. Estudo de Simulação 30

verificado para tamanhos amostrais maiores que n = 100, em que para este, o estimador de Yule-Walker obteve menor erro quadrático médio.

Tabela 1 – Estimativa média e erro quadrático médio (em parênteses) para os estimadores do processo N GIN AR(1)7 com µ = 5.

Estimador YW Estimador MQC Estimador MVC

n α αˆyw µˆyw αˆmqc µˆmqc αˆmvc µˆmvc 100 0,3 0,2612 5,0001 0,2817 4,9940 0,2996 4,9831 (0,0105) (0,5236) (0,0106) (0,5898) (0,0044) (0,5485) 0,5 0,4368 4,9775 0,4719 4,9931 0,4931 4,9711 (0,0132) (0,7975) (0,0108) (0,9772) (0,0050) (0,8892) 200 0,3 0,2800 4,9951 0,2904 4,9933 0,2996 4,9893 (0,0054) (0,2605) (0,0054) (0,2757) (0,0022) (0,2572) 0,5 0,4675 5,0215 0,4854 5,0223 0,4967 5,0090 (0,0058) (0,4317) (0,0050) (0,4655) (0,0022) (0,4252) 400 0,3 0,2904 4,9929 0,2957 4,9930 0,3000 4,9919 (0,0027) (0,1323) (0,0027) (0,1365) (0,0010) (0,1277) 0,5 0,4832 4,9951 0,4921 4,9947 0,4977 4,9896 (0,0028) (0,2220) (0,0026) (0,2323) (0,0012) (0,2178) 800 0,3 0,2939 4,9973 0,2965 4,9971 0,2999 4,9949 (0,0013) (0,0711) (0,0013) (0,0722) (0,0005) (0,0671) 0,5 0,4929 4,9951 0,4972 4,9946 0,4994 4,9907 (0,0013) (0,1133) (0,0013) (0,1160) (0,0006) (0,1063) Com relação as combinações dos parâmetros utilizadas neste experimento, a Tabela 2 apresenta como diferença da Tabela 1 um aumento na média do processo de 5 para 10, que reflete no aumento da variabilidade e no aumento da magnitude dos valores do processo que levam a menos observações repetidas.

Conforme a Tabela 2, semelhante ao ocorrido com a Tabela 1, as estimativas estão próximas de seus respectivos parâmetros estimados, com o erro quadrático médio diminuindo quando o tamanho da amostra aumenta. Comparando as estimativas obtidas em relação ao aumento de α, o erro quadrático médio de todos os estimadores de µ é maior quando α = 0,5 do que para α = 0,3, mas desta vez, o estimador de mínimos quadrados condicionais de α teve seu erro quadrático médio reduzido. Em sua grande maioria, como observado na Tabela 1, os estimadores tendem a subestimar o verdadeiro valor do parâmetro.

Nota-se como principal diferença entre a Tabela 1 e a Tabela 2, a magnitude do erro quadrático médio dos estimadores de µ. Enquanto que para as estimativas de α praticamente não houve diferenças, o erro quadrático médio dos estimadores de µ são todos maiores do que 3 quando n = 100 e chega a ser maior do que 4 para o estimador de

(32)

Capítulo 5. Estudo de Simulação 31

mínimos quadrados condicionais.

Novamente, para o parâmetro α, o estimador de máxima verossimilhança condicio-nal obteve um menor erro quadrático médio em todas as combinações estudadas na Tabela 2, para o parâmetro µ, o estimador de Yule-Walker apresentou menor erro quadrático médio quando n = 100, e a partir de n = 200, o estimador de máxima verossimilhança condicional passa a ser o melhor estimador de µ.

Tabela 2 – Estimativa média e erro quadrático médio (em parênteses) para os estimadores do processo N GIN AR(1)7 com µ = 10.

Estimador YW Estimador MQC Estimador MVC

n α αˆyw µˆyw αˆmqc µˆmqc αˆmvc µˆmvc 100 0,3 0,2595 10,0235 0,2797 10,0239 0,2998 10,0082 (0,0102) (1,9669) (0,0101) (2,1764) (0,0024) (1,9723) 0,5 0,4414 10,0412 0,4765 10,0641 0,4986 10,0105 (0,0117) (3,0939) (0,0094) (4,8880) (0,0026) (3,2367) 200 0,3 0,2792 9,9983 0,2896 9,9985 0,2994 9,9961 (0,0049) (1,0040) (0,0048) (1,0767) (0,0011) (0,9738) 0,5 0,4694 10,0114 0,4866 10,0125 0,4990 9,9983 (0,0053) (1,5557) (0,0045) (1,6977) (0,0012) (1,4795) 400 0,3 0,2913 10,0063 0,2965 10,0065 0,3003 10,0057 (0,0025) (0,4955) (0,0025) (0,5115) (0,0005) (0,4682) 0,5 0,4855 10,0435 0,4943 10,0462 0,5001 10,0324 (0,0025) (0,7970) (0,0023) (0,8340) (0,0006) (0,7456) 800 0,3 0,2958 9,9976 0,2985 9,9984 0,3003 10,0012 (0,0012) (0,2533) (0,0012) (0,2576) (0,0003) (0,2327) 0,5 0,4926 10,0097 0,4970 10,0078 0,4997 10,0080 (0,0011) (0,3937) (0,0011) (0,4046) (0,0003) (0,3614) Ao comparar a Tabela 3 com a Tabela 1, é possível verificar o comportamento dos estimadores em amostras com períodos sazonais diferentes. Análogo as tabelas anteriores, as estimativas estão próximas de seus respectivos parâmetros estimados, além disso, o erro quadrático médio de todos os estimadores diminuem quando aumentamos o tama-nho da amostra. Quando o parâmetro α aumenta de 0,3 para 0,5, percebe-se o mesmo comportamento presente nas análises anteriores, com o aumento do erro quadrático médio.

Com respeito ao aumento do período sazonal, não verificamos alterações signifi-cantes no erro quadrático médio dos estimadores, poderíamos usar como exceção quando

n = 100, em que nota-se um aumento do erro quadrático médio para os estimadores de µ.

Quanto ao melhor estimador, mais uma vez verificou-se que para o parâmetro α, o estimador de máxima verossimilhança condicional obteve um menor erro quadrático médio em todas as combinações estudadas na Tabela 3, já para o parâmetro µ, o estimador de

(33)

Capítulo 5. Estudo de Simulação 32

Yule-Walker se mostrou mais eficiente para n = 100, enquanto que a partir de n = 200, o estimador de máxima verossimilhança condicional obteve menor erro.

Tabela 3 – Estimativa média e erro quadrático médio (em parênteses) para os estimadores do processo N GIN AR(1)12 com µ = 5.

Estimador YW Estimador MQC Estimador MVC

n α αˆyw µˆyw αˆmqc µˆmqc αˆmvc µˆmvc 100 0,3 0,2470 4,9955 0,2815 4,9991 0,3000 4,9938 (0,0118) (0,5072) (0,0114) (0,6340) (0,0046) (0,6021) 0,5 0,4155 5,0010 0,4762 5,0244 0,4957 5,0091 (0,0165) (0,7725) (0,0115) (1,1272) (0,0054) (1,0781) 200 0,3 0,2732 4,9994 0,2906 4,9982 0,3003 4,9967 (0,0056) (0,2653) (0,0054) (0,2971) (0,0022) (0,2816) 0,5 0,4587 5,0118 0,4887 5,0156 0,4985 5,0035 (0,0065) (0,4193) (0,0051) (0,4928) (0,0023) (0,4540) 400 0,3 0,2858 5,0046 0,2947 5,0059 0,2996 5,0022 (0,0027) (0,1364) (0,0027) (0,1440) (0,0010) (0,1348) 0,5 0,4771 4,9949 0,4921 4,9946 0,4978 4,9881 (0,0030) (0,2123) (0,0026) (0,2265) (0,0011) (0,2116) 800 0,3 0,2927 5,0004 0,2972 5,0007 0,2996 4.9988 (0,0013) (0,0678) (0,0013) (0,0693) (0,0005) (0,0647) 0,5 0,4889 4,9930 0,4963 4,9923 0,4992 4,9901 (0,0014) (0,1150) (0,0013) (0,1195) (0,0006) (0,1093) Em relação a Tabela 3, a Tabela 4 se representa um aumento da média do processo

µ de 5 para 10, ocasionando um aumento da variabilidade e da magnitude dos valores da

série, como já comentado anteriormente.

Conforme a Tabela 4, é possível observar a proximidade entre as estimativas médias com seus respectivos parâmetros, além disso, o erro quadrático médio dos estimadores diminui conforme o tamanho da amostra aumenta. Com relação ao aumento do parâmetro

α, fica mais evidente que os estimadores do parâmetro µ sofrem mais influência de tal

aumento, principalmente em amostras pequenas. Conforme a Tabela 4, assim como a Tabela 2, observa-se que o erro quadrático médio dos estimadores do parâmetro µ é alto quando os valores de µ são altos.

Para o parâmetro α, o estimador de máxima verossimilhança condicional obteve um menor erro quadrático médio em todas as combinações estudadas na Tabela 4, já para o parâmetro µ, o estimador de Yule-Walker apresentou menor erro quadrático médio quando n = 100 e n = 200, e a partir de n = 400, o estimador de máxima verossimilhança condicional passa a ser o melhor estimador de µ.

(34)

Capítulo 5. Estudo de Simulação 33

Tabela 4 – Estimativa média e erro quadrático médio (em parênteses) para os estimadores do processo N GIN AR(1)12 com µ = 10.

Estimador YW Estimador MQC Estimador MVC

n α αˆyw µˆyw αˆmqc µˆmqc αˆmvc µˆmvc 100 0,3 0,2469 9,9814 0,2817 9,9891 0,3007 9,9859 (0,0112) (1,9184) (0,0108) (2,3992) (0,0026) (2,1816) 0,5 0,4182 9,9752 0,4781 10,0074 0,4983 9,9714 (0,0149) (2,7999) (0,0100) (4,0417) (0,0027) (3,4048) 200 0,3 0,2736 10,0089 0,2913 10,0049 0,3007 9,9975 (0,0053) (0,9660) (0,0052) (1,0762) (0,0012) (0,9789) 0,5 0,4571 9,9984 0,4878 10,0080 0,4985 9,9830 (0,0062) (1,5077) (0,0047) (1,7186) (0,0012) (1,5171) 400 0,3 0,2869 10,0015 0,2958 10,0009 0,3000 10,0024 (0,0026) (0,5053) (0,0025) (0,5313) (0,0005) (0,4864) 0,5 0,4783 10,0019 0,4933 10,0020 0,4994 9,9956 (0,0027) (0,7816) (0,0023) (0,8484) (0,0006) (0,7440) 800 0,3 0,2926 10,0144 0,2971 10,0165 0,3001 10,0115 (0,0013) (0,2578) (0,0013) (0,2627) (0,0003) (0,2399) 0,5 0,4893 10,0053 0,4968 10,0056 0,4998 10,0050 (0,0012) (0,4018) (0,0011) (0,4199) (0,0003) (0,3791)

respectivos valores dos parâmetros, e pode-se dizer que, na maioria das vezes, os estimadores subestimam o verdadeiro valor do parâmetro. Quando o tamanho da amostra aumenta, é possível notar que o erro quadrático médio, de todos os estimadores, diminui, um indicativo de que tais estimadores são assintoticamente consistentes, isto é, quando n aumenta indefinidamente, os estimadores ficam mais próximos do verdadeiro valor do parâmetro com variância tendendo para 0.

É notável o aumento do erro quadrático médio dos estimadores quando o valor de µ é grande, denotando uma diminuição na precisão das estimativas. Além disso, suas estimativas também são afetadas quando o parâmetro α está próximo à restrição. Não foi verificado diferenças significantes nas estimativas com relação ao aumento do período sazonal.

Ainda que o estimador de máxima verossimilhança condicional exija um trabalho computacional considerável, acreditamos que este obteve um desempenho satisfatório, em relação aos outros estimadores abordados neste capítulo, na estimação do parâmetro α. Sugerimos utilizar o estimador de máxima verossimilhança condicional para estimar α, pois tal estimador se mostrou mais preciso do que os outros em qualquer cenário, enquanto que sugerimos utilizá-lo para estimar µ apenas com n > 100. Quando n ≤ 100, recomendamos utilizar o estimador de Yule-Walker para estimar o parâmetro µ.

(35)

34

6 Aplicação

A aplicabilidade do modelo teórico a dados reais se faz necessária para justificar a pesquisa. Os dados utilizados neste trabalho se referem a um recorte mensal, no período de janeiro de 1985 a dezembro de 1994, de 120 observações do número de reivindicações de benefícios de invalidez a curto prazo, em que todos os requerentes são do sexo masculino com idade entre 35 e 54 anos, trabalham na indústria madeireira e relataram sua reivindicação ao Conselho de Compensação de Trabalhadores Work Safe BC em Richmond, Canadá. Somente reclamantes cujos ferimentos foram devidos a cortes e lacerações foram incluídos no conjunto de dados.

Conforme Work Safe BC (2017), a Work Safe BC é uma empresa com enfoque em segurança do trabalho, que, possui como principais objetivos promover a prevenção de lesões e doenças no local de trabalho, reabilitar aqueles que são feridos e providenciar o retorno ao trabalho, fornecer uma compensação justa para substituir a perda de salários dos trabalhadores ao se recuperar de lesões e garantir uma boa gestão financeira para um sistema viável de compensação dos trabalhadores.

As observações fazem parte do conjunto de dados analisados previamente por Freeland (1998), em que o modelo INAR(1) com marginal Poisson é ajustado aos dados com a finalidade de modelar e realizar previsões a cerca do número de reivindicações dos trabalhadores. O principal objetivo deste capítulo é ajustar o modelo N GIN AR(1)s

ao conjunto de dados e comparar tal ajuste com o dos modelos IN AR(1), IN AR(1)s e

N GIN AR(1).

6.1

Análise descritiva

A Tabela 5 apresenta algumas medidas descritivas. É possível notar que a série possui valores de baixa magnitude, em que 75% das observações são de até 4 reivindicações mensais, o valor máximo de 15 reivindicações em um mês destaca-se como ponto discrepante. Note que a série possui sobredispersão, com índice de dispersão, razão entre a variância e a média, de 1,86, i.e., a variância é 86% maior do que a média.

A Figura 3 apresenta o gráfico de barras e boxplot das observações. Neste primeiro gráfico, é possível observar uma leve assimetria, com coeficiente de assimetria de 8,05, em que a maioria das observações se concentram entre nenhuma e seis reivindicações mensais. Já no boxplot, é possível observar a presença do ponto discrepante já mencionado anteriormente. Tal observação é referente ao número de reivindicações no mês de julho de 1987.

(36)

Capítulo 6. Aplicação 35

Tabela 5 – Medidas descritivas. Medidas Valores Amostrais

Mínimo 0 1o Quartil 1,75 Mediana 3 Média 3,24 3o Quartil 4 Máximo 15 Variância 6,02 0 1 2 3 4 5 6 7 8 9 Nº de Reivindicações Frequência 0 5 10 15 20 0 5 10 15 Nº de Reivindicações

Figura 3 – Gráfico de barras e boxplot das observações.

A Figura 4 apresenta o gráfico da série, bem como a função de autocorrelação e função de autocorrelação parcial. Ao observar o gráfico da série, nota-se que não existem tendências de crescimento, ou decrescimento, e que a evolução da série se dá em torno de uma média constante ao longo do tempo. Além disso, a menos do ponto discrepante, a variação das observações permanecem constantes. Por tais razões, as evidências sugerem que a série é estacionária. No gráfico da função de autocorrelação é possível observar um comportamento senoidal, porém, sem o decaimento exponencial característico de processos autorregressivos. Entretanto, tal disposição pode ser fruto de uma componente sazonal, em que, ponderamos que a FAC evidencia que o fenômeno se repete de forma acentuada de 12 em 12 meses. A função de autocorrelação parcial sugere um modelo de segunda ordem, entretanto, neste trabalho, nos restringiremos aos modelos de primeira ordem.

(37)

Capítulo 6. Aplicação 36 Mês Nº de Reivindicações 0 20 40 60 80 100 120 0 5 10 15 5 10 15 20 25 30 -0.2 0.2 0.6 1.0 Defasagem FAC 5 10 15 20 25 30 -0.1 0.1 Defasagem FACP

Figura 4 – Gráfico da série, função de autocorrelação e função de autocorrelação parcial amostral.

6.2

Ajustes dos modelos

Ajustamos o modelo proposto neste trabalho, bem como os modelos N GIN AR(1) (RISTIĆ; BAKOUCH; NASTIĆ, 2009), IN AR(1)12 (BOURGUIGNON et al., 2016) e

IN AR(1) (AL-OSH; ALZAID, 1987) e (MCKENZIE, 1985) à série temporal obtida.

Utilizamos os estimadores recomendados pelos autores dos modelos ajustados ao conjunto de dados para a estimação dos parâmetros. A Tabela 6 apresenta as estimativas dos parâmetros do modelo N GIN AR(1)12. Note que as estimativas para o parâmetro α

encontram-se dentro do espaço paramétrico α ∈ (0, µ/(1 + µ)). Tabela 6 – Estimativas para os parâmetros.

Estimadores

Parâmetro MVC MQC YW

α 0,56 0,32 0,29

µ 2,72 3,12 3,24

Conforme sugerido no Capítulo 5, utilizaremos apenas o estimador de MVC para estimar os parâmetros do modelo, e como chutes iniciais, as estimativas de YW. Sendo assim, estima-se que a média do processo é de 2,72 reivindicações mensais. Estima-se também, que a autocorrelação do número mensal de reivindicações com defasagem 12 seja de ˆρ(12) = 0,56, i.e., o número de reivindicações se comporta de maneira semelhante para

mesmos meses ao longo dos anos.

Referências

Documentos relacionados

ABSTRACT: The toxicological effects of crude ethanolic extracts (CEE) of the seed and bark of Persea americana have been analyzed on larvae and pupae of

O Processo Seletivo para o 1º semestre do ano de 2019 será realizado em fases independentes, com todas as vagas, mediante inscrição e realização da prova, iniciando em 10 de

comunidade faz que antes de atenderem de modo adequado e eficaz as necessidades sociais, terminam por reforçar, ainda mais, os padrões da prática existente, que é

A Amazônia é uma região que necessita profundamente de grandes transformações na educação e na forma como as populações que habitam este território possam interagir com

[r]

Nota-se na Tabela 13 que o coeficiente de caminho, que representa uma reação causal entre os construtos, possui valores altos, que quanto mais próximo de +1.0, indica uma

Axilar -Dor Abdominal .Obstipação ou Diarréia .Defesa Abdominal Local Generalizada..

Mostra-se na Figura 7d o balanço de água por meio da relação P-E, e nota-se que a maioria dos modelos simulam excesso de água nos meses de janeiro a maio e dezembro e déficit nos