• Nenhum resultado encontrado

Um novo processo autorregressivo misto para séries temporais de valores inteiros de primeira ordem com inovações Poisson (POMINAR(1))

N/A
N/A
Protected

Academic year: 2021

Share "Um novo processo autorregressivo misto para séries temporais de valores inteiros de primeira ordem com inovações Poisson (POMINAR(1))"

Copied!
86
0
0

Texto

(1)

Universidade Federal do Rio Grande do Norte Centro de Ciências Exatas e da Terra Programa de Pós-Graduação em Matemática

Aplicada e Estatística

Daniel Leonardo Ramírez Orozco

Um Novo Processo Autorregressivo Misto Para Séries

Temporais de Valores Inteiros de Primeira Ordem

com Inovações Poisson (POMINAR(1))

Natal - RN Fevereiro de 2017

(2)

Daniel Leonardo Ramírez Orozco

Um Novo Processo Autorregressivo Misto Para Séries

Temporais de Valores Inteiros de Primeira Ordem

com Inovações Poisson (POMINAR(1))

Trabalho apresentado ao Programa de Pós-Graduação em Matemática Aplicada e Esta-tística da Universidade Federal do Rio Grande do Norte, em cumprimento com as exigências legais para obtenção do título de Mestre.

Área de Concentração: Probabilidade e Esta-tística

Orientador:

Prof. Dr. André Luís Santos de Pinho

Natal - RN Fevereiro de 2017

(3)

Catalogação da Publicação na Fonte. UFRN / SISBI / Biblioteca Setorial Especializada do Centro de Ciências Exatas e da Terra – CCET.

Ramírez Orozco, Daniel Leonardo.

Um novo processo autorregressivo misto para séries temporais de valores inteiros de primeira ordem com inovações Poisson (POMINAR(1)) / Daniel Leonardo Ramírez Orozco. - Natal, RN, 2017.

85 f.: il.

Orientador: Prof. Dr. André Luís Santos de Pinho. Coorientadora: Profa. Dra. Luz Milena Zea Fernández.

Dissertação (Mestrado) – Universidade Federal do Rio Grande do Norte. Centro de Ciências Exatas e da Terra. Programa de Pós-Graduação em Matemática Aplicada e Estatística.

1. Série temporal – Dissertação. 2. INAR(1) – Dissertação. 3. INARCH(1) – Dissertação. 4. Thinning binomial - Dissertação. 5. Thinning Poisson – Dissertação. I. Pinho, André Luís Santos de. II. Zea Fernández, Luz Milena. III. Título. RN/UF/BSE-CCET CDU 519.246.8

(4)

Daniel Leonardo Ramírez Orozco

Um Novo Processo Autorregressivo Misto Para Séries

Temporais de Valores Inteiros de Primeira Ordem

com Inovações Poisson (POMINAR(1))

Trabalho apresentado ao Programa de Pós-Graduação em Matemática Aplicada e Esta-tística da Universidade Federal do Rio Grande do Norte, em cumprimento com as exigências legais para obtenção do título de Mestre. Área de Concentração: Probabilidade e Esta-tística

Aprovado em: / /

Banca Examinadora:

Prof. Dr. André Luís Santos de Pinho Departamento de Estatística - UFRN

Orientador

Profa. Dra. Luz Milena Zea Fernández Departamento de Estatística - UFRN Co-orientadora - Examinadora Interna

Prof. Dr. Marcelo Bourguignon Pereira Departamento de Estatística - UFRN

Examinador Interno

Prof. Dr. Klaus Leite Pinto Vasconcellos Departamento de Estatística - UFPE

(5)

Agradecimentos

À Coordenação de Aperfeiçoamento de Pessoal de Nível Superior CAPES pela bolsa concedida. Sem esta seria complicada a permanência no Brasil. À UFRN e ao PPGMAE por todos os apoios nanceiros e apoio ao aluno que desde o início me ofereceram.

À minha família, pelo apoio e palavras que sempre me fornecem apesar de estar longe. Ao professor André Pinho por sua competência, disposição e acompanhamento contínuo ao longo do mestrado, por sempre ter as palavras adequadas para me orientar e sugerir a melhor opção desde seu ponto de vista e experiência em diferentes situações, tanto pessoais como acadêmicas, que aconteceram nesta etapa de minha vida. Por ressaltar sempre que a dedicação é uma das portas ao sucesso, que as limitações só cam na nossa mente e que deve- se romper essas barreiras para conseguir os alvos que cada pessoa pretende obter. Pelas respostas e sugestões oportunas na maior rapidez possível.

À professora Luz Milena pelas aulas e explicações que no momento pôde fornecer, por sua amizade, conselhos e ajudas em muitas situações.

Ao Renato Santos e Fidel Fernandes, por sua amizade incondicional, histórias e vivências en-graçadas que sempre aconteceram e que cam para as lembranças, por sua ajuda na elaboração das simulações e correção da escrita, em busca de obter uma melhor dissertação.

Ao Tito Livio, que apesar de estar em outro estado do Brasil, sempre forneceu explicações e ajudas ecazes com muito prossionalismo.

Inara Francoyse por sempre estar disposta na correção da escrita do trabalho e dar sugestões valiosas na elaboração deste.

Lais Helen Loose, Evandro Assunção e Jhonnata Carvalho, por ter me acolhido e ter me ajudado no processo de adaptação à cultura brasileira, por suas explicações e companheirismo. Aos meus amigos Renato Tigre, Josenildo, Bruno, Wanderson e Isaac pelo companheirismo. Aos professores Dione Valença, Marcelo Bourguignon, Roberto Teodoro, André Gustavo e Juan Rojas, pois eles contribuiram na minha formação na pós-graduação.

(6)

Resumo

As séries temporais, vistas como uma coleção de observações medidas sequencialmente ao longo do tempo, vem sendo estudadas com profunda notoriedade nos últimos anos, observando-se aplicações e novas propostas de modelos autorregressivos que ampliam o campo de estudo. Neste trabalho se propõe um novo modelo autorregressivo misto de primeira ordem com ino-vações Poisson, denotado POMINAR(1), misturando dois operadores conhecidos como thin-ning binomial e thinthin-ning Poisson. Ademais, se fornece a interpretação desses operadores e demonstram-se suas respectivas propriedades, como também um possível caso da aplicação do POMINAR(1). A esperança marginal, variância marginal, esperança condicional, variância condicional e função de autocorrelação do processo proposto são obtidas passo a passo. De forma detalhada são desenvolvidas as probabilidades de transição. Os estimadores de máxima verossimilhança condicional e Yule-Walker para os parâmetros do processo são determinados, e uma aplicação a um conjunto de dados reais é dada buscando a efetividade do modelo proposto.

Palavras-chave: INAR(1), INARCH(1), thinning binomial, thinning Poisson, série temporal.

(7)

Abstract

Time series, viewed as a collection of observations measured sequentially over time, has been studied with deep notoriety in recent years, based on applications and new proposals of auto-regressive models that extend the eld of study. This paper proposes a new rst order mixed autoregressive model with Poisson innovations, denoted POMINAR (1), mixing two operators known as thinning binomial and thinning Poisson, it also provides the interpretation of these operators and demonstrates their respective properties, as well as a possible case of applying POMINAR (1). Expected value, variance, conditional expectation, conditional variance and autocorrelation function of the proposed process are taken step by step. In detail the transition probabilities are developed. The maximum conditional likelihood and Yule-Walker estimators to the process parameters are determined, and an application to a real data set is given seeking the eectiveness of the proposed model.

Keywords: INAR(1), INARCH(1), binomial thinning, Poisson thinning, time series.

(8)

Sumário

1 INTRODUÇÃO 1

2 PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 3

2.1 Preliminares . . . 3

2.2 Operador thinning binomial . . . 8

2.2.1 Processo Poisson INAR(1) . . . 9

2.3 Operador thinning Poisson . . . 11

2.3.1 Processo INARCH(1) . . . 13

3 PROCESSO POMINAR(1) 15 3.1 Construção do processo POMINAR(1) . . . 15

3.1.1 Denição do Processo. . . 15

3.1.2 Propriedades probabilísticas do Processo POMINAR(1) . . . 17

4 ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 23 4.1 Estimadores por máxima verossimilhança condicional . . . 23

4.2 Estimadores de Yule-Walker . . . 24

4.3 Simulação . . . 25

5 APLICAÇÃO DO PROCESSO POMINAR(1) EM DADOS REAIS 35

6 CONSIDERAÇÕES FINAIS 38

A Propriedades dos Operadores Thinning 39

(9)

B Teorema 3.1 55

C Teorema 3.2 67

REFERÊNCIAS BIBLIOGRÁFICAS 75

(10)

Capítulo 1

INTRODUÇÃO

Muitos resultados de séries temporais que assumem valores inteiros vem sendo estudados recentemente, pois existem fenômenos e acontecimentos em diferentes contextos que podem ser medidos sequencialmente ao longo do tempo. Alguns exemplos são, o número de acidentes em uma companhia que ocorrem mensalmente, o número de pacientes tratados em um hospital durante uma hora, o número de crianças que morrem cada mês por uma determinada doença, e também, o número de dias que choveu em um determinado lugar no período de inverno em uma determinada zona, concernente as mudanças do clima. Nesses estudos não só se pretende explicar o passado, senão também, fazer previsão ao futuro. É aqui em que as séries temporais tornam-se importantes.

Neste trabalho, tem-se interesse em uma classe especial de modelos, chamados processos autorregressivos para valores inteiros (INAR). Os pioneiros em falar sobre processo INAR de primeira ordem, INAR(1), foram McKenzie (1985) e Al-Osh e Alzaid (1987) no contexto das séries de contagem dependentes. Esse conceito foi generalizado para ordem p por Jin-Guan e Yuan (1991). Depois, Latour (1998) e Zhu e Joe (2006) obtiveram novos modelos e generalizações para séries temporais baseados no operador thinning binomial. Seguidamente,

McKenzie(2003) eWeiÿ(2008) fazem uma recopilação e um estudo das séries temporais para valores inteiros. Risti¢, Bakouch e Nasti¢ (2009) propõem um novo modelo autorregressivo estacionário para valores inteiros de primeira ordem com distribuição marginal geométrica, utilizando o operador thinning binomial negativo. Assim, querendo ampliar o contexto das séries temporais, Nasti¢ e Risti¢ (2012), introduzem modelos mistos de ordem um e dois utilizando os operadores thinning binomial e thinning binomial negativo, da mesma forma

Risti¢ e Nasti¢(2012), utilizam os mesmos operadores para processos de ordem p. Ao mesmo tempo, Nasti¢, Risti¢ e Bakouch (2012) combinam um processo de ordem p com o operador thinning binomial negativo. Recentemente, Li, Wang e Zhang (2015) propõem um processo

(11)

CAPÍTULO 1. INTRODUÇÃO 2

misto com inovações séries de potência generalizada com zeros inados, fazendo um estudo detalhado na construção desse processo.

A dissertação está direcionada com o objetivo de propor um novo modelo misto, juntando dois processos autorregressivos para valores inteiros de primeira ordem. Para cumprir com isto, o trabalho está organizado da seguinte maneira, no Capítulo 2, se apresentam de forma geral os modelos autorregressivos AR(p), de médias móveis MA(q) e a combinação desses dois, os modelos ARMA(p, q). Simplesmente são dados alguns resultados para uma interpretação global destes. Posteriormente, as denições, propriedades e interpretação dos operadores thin-ning binomial e thinthin-ning Poisson propostos por Steutel e Harn (1979), e Ferland, Latour e Oraichi (2006) são providenciados, respectivamente. Depois apresenta-se o modelo Poisson INAR(1), baseado no operador thinning binomial e o modelo INARCH(1) denido de uma forma alternativa ao conhecido usualmente, baseado no operador thinning Poisson por Fer-nández (2013). No Capítulo 3, trata-se da construção de um novo processo denominado POMINAR(1), a denição e propriedades são mostradas em detalhe. No seguinte capítulo os parâmetros do processo POMINAR(1) são estimados através do método de máxima verossi-milhança condicional e Yule-Walker, um estudo de simulação e uma aplicação aos dados reais é implementado com a ajuda da linguagem de programação R na versão 3.3.1. Nos resultados numéricos utiliza-se o separador decimal "." ao invés de "," como é usual em publicações internacionais. Por m, serão apresentadas as conclusões e sugestões para trabalhos futuros.

(12)

Capítulo 2

PROCESSOS AUTORREGRESSIVOS

PARA VALORES INTEIROS

O presente capítulo mostra uma revisão de alguns resultados teóricos necessários para o estudo dos processos autorregressivos. Conceitos principais que se apresentarão tais como, processo estacionário, processo estacionário estrito e série temporal, serão necessários para o entendimento dos modelos autorregressivos apresentados ao longo do trabalho. Existem duas classes de séries temporais, contínuas e discretas; para ns deste trabalho só irá contemplar-se séries de tempo discreto e marginal discreta, em especíco com observações inteiras.

2.1 Preliminares

A seguir algumas denições básicas para o início do estudo de séries temporais.

Denição 2.1 Um processo estocástico é uma coleção de variáveis aleatórias {Xt}t∈T denida sobre um espaço de probabilidade (Ω, F, P), T é o conjunto de índices do processo ou espaço paramétrico.

Denição 2.2 Se para t1, t2, ..., tn em que t1 < t2 < ... < tn, as distribuições conjuntas dos vetores de variaveis aleatorias (Xt1, Xt2, · · · , Xtn) e (Xt1+h, Xt2+h, ..., Xtn+h) são a mesma

para todo h > 0, então o processo estocástico {Xt}t∈T é um processo estocástico estacionário de ordem n (ou simplesmente processo estacionário). O processo estocástico {Xt}t∈T é um processo estacionário estrito se a propriedade anterior cumpre-se para todo n.

Denição 2.3 Um processo estocástico {Xt}t∈T se chama um processo de segunda ordem se E[(Xt)2] < ∞ para todo t ∈ T .

(13)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 4

Denição 2.4 Seja {Xt}t≥0 um processo estocástico denido sobre um espaço de probabili-dade (Ω, F, P) e com espaço de estados (R, B). Se diz que {Xt}t≥0 é um processo de Markov se para qualquer 0 ≤ t1 < t2 < · · · < tn e para qualquer B ∈ B tem-se

P(Xtn ∈ B|Xt1, Xt2, · · · , Xtn−1) = P(Xtn ∈ B|Xtn−1)

Denição 2.5 Uma sequência de variáveis aleatórias {Xt}t≥0 é uma cadeia de Markov de tempo discreto se satisfaz:

P(Xt+1= j|Xt= i, Xt−1 = it−1, · · · , X0 = i0) = P(Xt+1= j|Xt= i) para todo t ∈ N, com P(X0 = i0, · · · , Xn= in) > 0.

Denição 2.6 Uma série temporal é uma sequência de observações {Xt}t≥0 sobre uma va-riável de interesse feitas em um determinado período de tempo t.

Denição 2.7 Um processo {Xt}é estacionário se os dois primeiros momentos de Xtexistem e não dependem do tempo, isto é, E[Xt] = µ, V ar(Xt) = σ2.

Denição 2.8 Seja (Ω, F, P) um espaço de probabilidade. Um conjunto A ∈ F, é ergódico se tem medida zero ou um.

Agora, seguindo os argumentos deBisgaard e Kulahci (2011), os modelos mais conhecidos para séries temporais estacionárias são dados geralmente por três tipos, o primeiro deles é o modelo autorregressivo, autoregressive (AR), o segundo é conhecido como médias móveis ou moving average (MA) e o terceiro é a combinação dos dois anteriores, os modelos (ARMA).

Seja {Xt}t∈Numa série temporal estacionária, (deve-se notar que, em alguns casos, fazendo a primeira diferença para uma série de tempo não estacionária Zt, isto é, Xt = Zt− Zt−1, Xt será estacionária). Os modelos autorregressivos relacionam ocorrências atuais da variável aleatória Xt com observações anteriores da variável aleatória Xt−1, Xt−2, ..., Xt−p. Assim um modelo autorregressivo de ordem p, AR(p), é escrito como

Xt= α1Xt−1+ α2Xt−2+ · · · + αpXt−p+ εt, (2.1) em que εté um termo assumido como erro ou inovação, com média E[εt] = 0e variância cons-tante, V ar(εt) = σ2

ε. Os coecientes αi, i = 1, ..., p, assumem números reais e são parâmetros a serem estimados.

Os modelos para médias móveis de ordem q, MA(q), são as médias dos termos do ruído passado e presente. Um modelo MA(q) pode ser escrito como

(14)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 5

Xt = εt− θ1εt−1− θ2εt−2− · · · − θqεt−q,

em que os coecientes θi, i = 1, ..., q são parâmetros a serem determinados. Observe que é uma convenção usual usar o sinal de menos na frente dos θ0s.

Por m, o processo ARMA(p, q) pode ser escrito como

Xt= α1Xt−1+ α2Xt−2+ · · · + αpXt−p+ εt− θ1εt−1− θ2εt−2− · · · − θqεt−q.

A função de autocorrelação (FAC) de um processo MA(q) corta depois da defasagem (lag) q. De fato, a FAC de um processo MA(q) é dada por

ρ(k) = γ(k) γ(0) =    −θk+θ1θk+1+···+θq−kθq 1+θ2 1+···+θq2 k= 1, 2, ...,q, 0 k>q.

Do mesmo modo, a FAC de um modelo AR(p) satisfaz as conhecidas equações de Yule-Walker dadas como

ρ(k) = p X

i=1

αiρ(k − i) k = 1, 2, ... (2.2)

A FAC do modelo ARMA está dada por

ρ(k) =        p P i=1 αiρ(i) − γ(k)γ(0) k=1,2,...,q, p P i=1 αiρ(k − i) k > q.

Deve-se observar que as equações em (2.2) são equações diferenciais lineares de p-ésima ordem. A solução da equação (2.2) é uma mistura de expressões com decaimento exponencial e senoidal que dependem dos α0

is. Também, a função de autocorrelação parcial (FACP) de um processo AR(p) vai cortar depois da defasagem p fazendo que os valores da FACP amostral estejam dentro dos limites de conança para as defasagens (lags) maiores que p (BISGAARD; KULAHCI, 2011).

Um resumo do comportamento da FAC e FACP para modelos ARMA é dado na Tabela

(15)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 6

AR(p) MA(q) ARMA(p, q)

Modelo Xt= α1Xt−1+ α2Xt−2 Xt= εt− θ1εt−1− θ2εt−2 Xt= α1Xt−1+ α2Xt−2+ · · · +

+ · · · + αpXt−p+ εt − · · · − θqεt−q αpXt−p− θ1εt−1− θ2εt−2−

· · · − θqεt−q+ εt

FAC Innita; exponenciais Finita; cortes depois Innita; exponenciais amortecidas e/ou de q lags defasagens amortecidas e/ou ondas senoidais; tails o ondas senoidais; tails o FACP Finita; cortes depois de Innita; exponenciais Innita; exponenciais

p lags amortecidas e/ou amortecidas e/ou senoidais; tails o senoidais; tails o Tabela 2.1: Propriedades dos processos (AR), (MA) e (ARMA).

(a) Time Z(t) 0 40 80 120 −2 1 3 (b) Time Z(t) 0 40 80 120 −4 0 (c) Time Z(t) 0 40 80 120 −2 2 0 5 10 20 30 −0.2 0.6 Lag A CF 0 5 10 20 30 −0.2 0.6 Lag A CF 0 5 10 20 30 −0.2 0.6 Lag A CF 0 5 10 15 20 25 30 0.0 0.6 Lag P ar tial A CF 0 5 10 15 20 25 30 −0.2 0.4 Lag P ar tial A CF 0 5 10 15 20 25 30 −0.4 0.2 Lag P ar tial A CF

Figura 2.1: (a) Processo AR(1) com α1 = 0.7; (b) Processo AR(2) com α1 = 0.5, α2 = 0.3; (c) Processo AR(2) com

α1= 0.7, α2= −0.5.

Observando a Tabela 2.1 e as Figuras 2.1 e 2.2, pode-se vericar que a FAC e FACP são excelentes ferramentas para identicar a ordem dos modelos MA e AR, respectivamente. Porém, para os modelos ARMA, essas ferramentas não são tão efetivas, pois a FAC e FACP oferecem poucas ajudas exceto para identicar que o modelo não é propriamente um modelo AR ou MA puro, como nos casos anteriores. De modo que, existem outras ferramentas além da FAC e FACP, tais como a função de autocorrelação amostra estendida (ESACF), função de autocorrelação parcial amostral generalizada (GPACF) e a função de autocorrelação inversa (IACF), que podem ser de ajuda para identicar a ordem do modelo ARMA (BISGAARD; KULAHCI, 2011).

(16)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 7 (a) Time Z(t) 0 40 80 120 −2 2 (b) Time Z(t) 0 40 80 120 −2 0 2 (c) Time Z(t) 0 40 80 120 −2 1 3 0 5 10 20 30 −0.2 0.6 Lag A CF 0 5 10 20 30 −0.4 0.4 Lag A CF 0 5 10 20 30 −0.2 0.6 Lag A CF 0 5 10 15 20 25 30 −0.4 0.2 Lag P ar tial A CF 0 5 10 15 20 25 30 −0.4 0.0 Lag P ar tial A CF 0 5 10 15 20 25 30 −0.15 0.10 Lag P ar tial A CF

Figura 2.2: (a) Processo MA(1) com θ1= 0.8; (b) Processo MA(2) com θ1= −0.3, θ2= −0.4; (c) Processo ARMA(1,1) com

α1= 0.6, θ1= −0.8.

Considere como caso particular, uma sequência de variáveis aleatórias {Xt}de um processo autorregressivo de ordem um, AR(1), baseado em (2.1) e dado pela seguinte equação

Xt = αXt−1+ εt, (2.3)

em que |α| < 1 e {εt} é uma sequência de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.).

Neste trabalho, serão estudados modelos de ordem um que assumam valores inteiros. Para tal m, considera-se α ∈ (0, 1) e Xt−1 assumindo valores inteiros em (2.3). Portanto, a di-culdade que existe é substituir o produto de αXt−1 através de uma operação adequada que garanta que o resultado seja um número inteiro, e que permita a εt ser independente de Xs para s < t, pois geralmente, o resultado desta operação é um número real. Uma forma de obter modelos para dados de valores inteiros é substituir a multiplicação usual de (2.3) por um operador apropriado, isto é, para garantir, que as variáveis aleatórias do processo assumam valores inteiros. O tipo de operador mais conhecido que se apresenta a seguir é o thinning ou renamento, proposto por Steutel e Harn (1979) e implementado por McKenzie (1985) e

(17)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 8

2.2 Operador thinning binomial

Denição 2.9 Seja X uma variável aleatória assumindo valores inteiros não negativos, α um número real tal que α ∈ [0, 1]. O operador thinning binomial “ ◦ ” é denido como

α ◦ X = X X i=1 Bi(α), (2.4) em que {Bi(α)}X

i=1 é uma sequência de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com distribuição Bernoulli de parâmetro α, independentes de X e com função de probabilidade dada por

P(Bi(α) = 1) = α = 1 − P(Bi(α) = 0).

Geralmente a sequência {Bi(α)}X

i=1 é chamada série de contagem, também observe que α ◦ X|X = x, tem distribuição binomial de parâmetros x e α, (α ◦ X|X = x ∼ Bin(x, α)). Depois de denir o operador thinning binomial, apresenta-se o seguinte lema com algumas propriedades que ele satisfaz.

Lema 2.1 Sejam X e Y variáveis aleatórias identicamente distribuídas que assumem valores inteiros não-negativos, αi (i = 1, 2)constantes reais em [0, 1], suponha que a série de contagem de αi◦ X é independente da série de contagem de αi◦ Y. Então o operador thinning binomial dado na Denição 2.9 apresenta as seguintes propriedades,1

i) 0 ◦ X = 0. ii) 1 ◦ X = X. iii) α1◦ (α2◦ X)

d

=(α1α2) ◦ X.

iv) Se X e Y são independentes, α1◦ (X + Y )=αd 1◦ X + α1◦ Y. v) E[α1◦ X] = α1E[X]. vi) E[α1◦ X|X] = α1X. vii) V ar(α1◦ X|X) = α1(1 − α1)X. viii) V ar(α1◦ X) = α2 1V ar(X) + α1(1 − α1)E[X]. 1O simbolo d

=nas seguintes propriedades, denota que as variáveis aleatórias da igualdade possuem a mesma distribuição.

(18)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 9 ix) E[(α1◦ X)2] = α2 1E[X2] + α1(1 − α1)E[X]. x) E[X(α1◦ Y )] = α1E[XY ]. xi) E[X(α1◦ Y )2] = α2 1E[XY2] + α1(1 − α1)E[XY ]. xii) E[(α1◦ X)(α2◦ Y )] = α1α2E[XY ].

xiii) E[(α1◦ X)2

2 ◦ Y )] = α21α2E[X2Y ] + α1(1 − α1)α2E[XY ]. xiv) Cov(α1◦ X, α2◦ Y ) = α1α2Cov(X, Y ).

Weiÿ (2008) concedeu a seguinte interpretação do operador thinning binomial, considera-se uma população de tamanho X em certo tempo t. Obconsidera-serva-considera-se a mesma população uma unidade de tempo depois, isto é, no tempo t + 1, então, a população pode ter sido diminuída porque alguns indivíduos morreram entre os tempos t e t + 1. Se os indivíduos morrem independentemente um do outro e se a probabilidade de morrer entre os tempos t e t + 1 é igual a 1 − α para todos os indivíduos, então o número de sobreviventes é dado por α ◦ X.

As provas das propriedades do Lema 2.1 são apresentadas no Apêndice A baseadas no conceito de esperança condicional e a Denição2.9. Já outras propriedades podem ser encon-tradas em Silva(2005) e algumas demonstrações em Barcelos (2008) e Gomes (2009).

De forma natural, depois de conhecer o operador thinning binomial, o modelo autorregres-sivo para valores inteiros de primeira ordem [INAR(1)], que foi proposto porAl-Osh e Alzaid

(1987) eMcKenzie(1985) pode ser introduzido. Particularmente, neste trabalho menciona-se o modelo Poisson INAR(1) e o modelo INARCH(1), mostrando só algumas generalidades.

2.2.1 Processo Poisson INAR(1)

Denição 2.10 Um processo discreto para valores inteiros não negativos {Xt}t≥1, Xt ∈ N0, é um processo INAR(1) se satisfaz a recursão

Xt = α ◦ Xt−1+ εt para t ≥ 1, (2.5) em que α ∈ [0, 1], N0 = {0, 1, ...}, “ ◦ ” é o operador thinning binomial dado na Denição

2.9, {εt}t≥1, εt∈ N0, é uma sequência de variáveis aleatórias i.i.d. para valores inteiros não negativos com média µε e variância σ2

ε, e a série de contagem de α ◦ Xt−1 é independente de εt.

(19)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 10

Observe que α ∈ (0, 1) implica uma série de tempo estacionária para valores inteiros, enquanto que α = 0 e α = 1, implica a independência e não estacionariedade para {Xt}t≥1, respectivamente. Para 0 ≤ α < 1, o processo {Xt}t≥1 satisfazendo (2.5) é um processo estacionário de segunda ordem, isto é, um processo com média e variância constante tal que a covariância entre Xte Xt+k depende só de k ((AL-OSH; ALZAID,1987), (JIN-GUAN; YUAN,

1991)).

A seguinte denição mostra o processo Poisson INAR(1).

Denição 2.11 Seja {Xt}t≥1 um processo INAR(1) dado por (2.5), se εt tem distribuição Poisson com parâmetro λ (εt ∼ P o(λ)), então {Xt}t≥1 é um processo Poisson INAR(1), em que E[εt] = µε = λ, V ar(εt) = σε2 = λ.

A média e variância marginal do modelo Poisson INAR(1) são dadas por

E[Xt] = λ

1 − α = V ar(Xt).

A média e variância condicional de Xt podem ser escritas como

E[Xt|Xt−1] = αXt−1+ λ. e

V ar(Xt|Xt−1) = α(1 − α)Xt−1+ λ.

Al-Osh e Alzaid (1987) mostraram que as funções de autocovariância e autocorrelação do modelo Poisson INAR(1) de defasagem k podem ser expressas por

γ(k) = Cov(Xt−k, Xt) = αkγ(0), para k = 0, 1, ..., e

ρ(k) = γ(k) γ(0) = α

k para k = 0, 1, ...,

Observe que a função de autocorrelação ρ(k) decai exponencialmente com a defasagem k. Uma possível interpretação do processo Poisson INAR(1) segundo Freeland (1998), pode ser como um processo de nascimento e morte, isto é, cada indivíduo no tempo t − 1 tem uma probabilidade α de continuar vivo no tempo t, e em cada tempo t, o número de nascimentos segue uma distribuição Poisson de parâmetro λ.

(20)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 11 Xt |{z} população no tempo t = α ◦ Xt−1 | {z } sobreviventes no tempo t + εt |{z} nascimentos .

Para mais detalhes do modelo Poisson INAR(1) pode-se consultar Al-Osh e Alzaid(1987).

2.3 Operador thinning Poisson

Nesta seção é introduzido o conceito do operador thinning Poisson com suas respectivas propriedades. Este operador foi proposto por Ferland, Latour e Oraichi (2006) e ajuda a mostrar uma forma alternativa para denir o modelo autorregressivo para valores inteiros com heteroscedasticidade condicional de primeira ordem [INARCH(1)].

Denição 2.12 Seja X uma variável aleatória assumindo valores inteiros não negativos, β um número real tal que β ≥ 0. O operador thinning Poisson “ ∗ ” é denido como

β ∗ X = X X i=1 Pi(β), (2.6) em que {Pi(β)}X

i=1 é uma sequência de variáveis aleatórias i.i.d. com distribuição Poisson de parâmetro β e independentes de X.

Geralmente a sequência {Pi(β)}Xi=1é chamada série de contagem de β ∗X, também observe que β ∗ X|X = x, tem distribuição Poisson de parâmetro βx, (β ∗ X|X = x ∼ P o(βx)).

A diferença entre as Denições 2.9 e 2.12 é a distribuição de probabilidade das séries de contagem. Isto é, na Denição 2.9 a série de contagem tem distribuição Bernoulli, portanto seu parâmetro pertence ao intervalo [0, 1], porém, na Denição2.12a série de contagem possui uma distribuição Poisson cujo parâmetro pertence ao intervalo [0, ∞). Dada a denição do operador thinning Poisson, apresenta-se a seguir suas respectivas propriedades.

Lema 2.2 Sejam Xi (i = 1, ..., m) uma sequência de variáveis aleatórias identicamente dis-tribuídas de valores inteiros, βi (i = 1, ..., m)uma sequência de constantes reais não negativas, suponha que as séries de contagem de βi∗ Xi, são mutuamente independentes e identicamente distribuídas de acordo com uma distribuição Poisson de parâmetro βi (P o(βi)), e independen-tes dos Xi. Então,2

2O simbolo d

(21)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 12

i) 0 ∗ X1 = 0. ii) β1∗ (X1+ X2)

d

=β1∗ X1+ β1∗ X2, se X1, X2 são independentes. iii) E[β1 ∗ X1] = β1E[X1].

iv) V ar(β1∗ X1) = β12V ar(X1) + β1E[X1]. v) E[β1 ∗ X1|X1] = β1X1.

vi) V ar(β1∗ X1|X1) = β1X1.

vii) Cov(β1∗ X1, β2∗ X2) = β1β2Cov(X1, X2). viii) E[(β1∗ X1)2] = β1E[X1] + β12E[X12].

ix) E[(β1∗ X1)r] = r P k=1 S(r, k)βk 1E[X1k], em que S(r, k) = 1 k! k P i=0 (−1)i(k i)(k − i)r é o número de Stirling de segunda espécie que conta o número de formas de particionar um conjunto de r objetos em k subconjuntos não vazios.

x) E[(β1∗ X1)X2] = β1E[X1X2].

xi) E[(β1∗ X1)2X2] = β1E[X1X2] + β12E[X12X2]. xii) E[(β1∗ X1)rX2] = r P k=1 S(r, k)βk 1E[X1kX2]. xiii) E  (β1∗ X1) m Q i=2 Xi  = β1E m Q i=1 Xi  . xiv) E  (β1∗ X1)r m Q i=2 Xi  = r P k=1 S(r, k)βk 1E  Xk 1 m Q i=1 Xi  . xv) E[(β1∗ X1)(β2∗ X2)] = β1β2E[X1X2]. xvi) E m Q i=1 (βi∗ Xi)  = m Q i=1 βi  E  m Q i=1 Xi  .

xvii) E[(β1∗ X1)2(β2∗ X2)] = β12β2E[X12X2] + β1β2E[X1X2]. xviii) E[(β1∗ X1)r(β2∗ X2)] = β2 r P k=1 S(r, k)βk 1E[X1kX2]. xix) E[β1 ∗ ...(β1∗ (β1∗ X1))] = β1rE[X1].

(22)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 13

Assim como menciona Fernández (2013) na sua tese de doutorado, o operador thinning Poisson pode ser interpretado como segue: considere uma população de tamanho X em certo tempo t. Suponha que nesta população cada indivíduo morre ou produz de forma independente descendentes de acordo com uma distribuição Poisson de parâmetro β (P oi(β)). Seja P oi(β) denido como P oi(β) =          0, se o individuo i morre,

1, se o individuo i não tem descendentes,

m, se o individuo i tem m − 1 descendentes, para m ≥ 2;

então, observando a mesma população no tempo t + 1, o tamanho da população é dado por β ∗ X.

As provas das propriedades do Lema 2.2 podem ser consultadas no Apêndice A e são baseadas no conceito de esperança condicional e a Denição 2.12, disponíveis também em

Fernández (2013).

2.3.1 Processo INARCH(1)

Os aspectos gerais do processo autorregressivo condicionalmente heteroscedástico para va-lores inteiros de primera ordem INARCH(1), denido de uma forma alternativa porFernández

(2013) baseado no operador thinning Poisson são apresentados a seguir.

Denição 2.13 Um processo discreto para valores inteiros não negativos {Xt}t≥1, Xt ∈ N0, é um processo INARCH(1) se satisfaz a seguinte equação recursiva

Xt = β ∗ Xt−1+ εt, para t ≥ 1, (2.7) em que β ≥ 0, “ ∗ ” é o operador thinning Poisson dado na Denição 2.12, {εt}t≥1, εt∈ N0, é uma sequência de variáveis aleatórias i.i.d. com distribuição Poisson de parâmetro λ (εt ∼ P o(λ)), assume-se que a série de contagem de β ∗ Xt−1 é independente de εt.

O processo INARCH(1) é um processo estacionário sempre que β < 1. Para garantir a estacionariedade e a superdispersão deve-se assumir β ∈ (0, 1). Da propriedade i) do Lema

2.2 observe que para β = 0, o processo é a sequência {εt}t≥1 e nesse caso o modelo não é superdisperso.

(23)

CAPÍTULO 2. PROCESSOS AUTORREGRESSIVOS PARA VALORES INTEIROS 14

Heinen (2003) e Ferland, Latour e Oraichi (2006), mostraram que a média e variância marginal do processo INARCH(1) são dadas por

E[Xt] = λ 1 − β. e V ar(Xt) = λ (1 − β)(1 − β2). A função de autocorrelação de defasagem (lag) k é dada por

ρ(k) = Corr(Xt−k, Xt) = βk para k = 0, 1, ... O processo pode ser interpretado como

Xt |{z} população no tempo t = β ∗ Xt−1 | {z } população do tempo t − 1 + εt |{z} novos membros .

As demonstrações destas propriedades probabilísticas não serão apresentadas neste traba-lho. Para mais detalhes do processo INARCH(1) pode-se consultarWeiÿ (2010).

(24)

Capítulo 3

PROCESSO POMINAR(1)

3.1 Construção do processo POMINAR(1)

Existem relativamente poucos modelos autorregressivos mistos no contexto das séries tem-porais para valores inteiros. De modo que, a principal contribuição desta dissertação é fornecer um novo processo que pertencerá a essa classe, inicialmente baseado no artigo deRisti¢ e Nas-ti¢(2012) que mostra um modelo misto INAR(p).

Para construir o processo autorregressivo misto para valores inteiros com inovações Poisson de ordem um (POMINAR(1)), as siglas signicam PO=Poisson, M=Mixed, INAR=Integer Autoregressive, dois operadores thinning são considerados. O operador thinning binomial “◦” dado na Denição 2.9 e o operador thinning Poisson “ ∗ ” dado na Denição 2.12. A ideia é fazer um processo misto, juntando dois processos autorregressivos para valores inteiros com inovações Poisson. Os processos Poisson INAR(1) e INARCH(1), descritos de forma geral no capítulo anterior, são casos particulares do processo idealizado. O processo proposto se apresenta a seguir.

3.1.1 Denição do Processo

Denição 3.1 O processo POMINAR(1) é denido pela seguinte equação recursiva:

Xt=    α ◦ Xt−1+ εt, com probabilidade p, β ∗ Xt−1+ εt, com probabilidade 1 − p, (3.1) 15

(25)

CAPÍTULO 3. PROCESSO POMINAR(1) 16

em que α, β ∈ [0, 1), p ∈ [0, 1], {εt} é uma sequência de variáveis aleatórias i.i.d. com distribuição Poisson de parâmetro λ, εt é independente de todo {Bi(α)} e de todo {Pi(β)} denidos em (2.4) e (2.6), respectivamente; {Bi(α)} e {Pi(β)} também são independentes entre si; os operadores thinnings no tempo t são realizados independentemente um do outro.

Este tipo de processo INAR(1) pode modelar vários tipos de casos. Como exemplo, supo-nha que Xt descreve o número total de casais num determinado país dentro de um período de tempo t, seja εt o número de novos casais no tempo t independente de Xt−1. Neste país existem incentivos nanceiros para que as pessoas adultas tenham lhos. Portanto, um casal, vai ter a possibilidade de ter ou não um lho. Caso não tenha um lho não receberá nenhum incentivo, se tiver um lho terá o incentivo. Nesse caso, (α ◦ Xt−1) será o total de casais que ainda existem no período [t − 1, t), e essa situação seguirá o modelo baseado no operador thinnning binomial. Entretanto, também é possível que o casal queira ter, nenhum lho ou, um lho ou, 2 ou, mais lhos, em cujo caso, receberá incentivos além de outros benefícios. Nesta última situação o uso do operador thinning Poisson pode ser apropriado, e (β ∗ Xt−1) signicará o número total de casais no tempo t − 1.

De forma análoga ao modelo de Li, Wang e Zhang (2015), o processo POMINAR(1) pode se reduzir aos seguintes casos:

i) Se p = 1 então Xt= α ◦ Xt−1+ εt.

O processo reduzido é chamado POMINAR(1)-I. ii) Se p = 0 então Xt= β ∗ Xt−1+ εt.

O processo reduzido é chamado POMINAR(1)-II.

iii) Se α = 0 então Xt =    εt, com probabilidade p, β ∗ Xt−1+ εt, com probabilidade 1 − p. O processo reduzido é chamado POMINAR(1)-III.

iv) Se β = 0 então Xt=    α ◦ Xt−1+ εt, com probabilidade p, εt, com probabilidade 1 − p. O processo reduzido é chamado POMINAR(1)-IV.

v) Se α = 0 e β = 0, ou p = 1 e α = 0, ou p = 0 e β = 0, então Xt = εt, para todo t. Assim, {Xt} é uma sequência de variáveis aleatórias i.i.d. com uma distribuição Poisson de parâmetro λ.

(26)

CAPÍTULO 3. PROCESSO POMINAR(1) 17

Note que os casos reduzidos i) e ii) do processo POMINAR(1) são os já conhecidos Poisson INAR(1) e INARCH(1), respectivamente.

O processo (3.1) pode ser reescrito pela seguinte equação,

Xt= S1,t(α ◦ Xt−1+ εt) + S2,t(β ∗ Xt−1+ εt), (3.2) em que St= (S1,t, S2,t)>, t ≥ 1 é um vetor aleatório com função de probabilidade dada por

P(St = (1, 0)>) = p, P(St = (0, 1)>) = 1 − p,

(3.3)

em que St é uma sequência de variáveis aleatórias Bernoulli independentes entre si, também St é independente de todo {Bi(α)}, {Pi(β)}, εt e Xt−l para l ≥ 1. Assim, a equação (3.2) é equivalente a equação (3.1).

A estacionariedade e ergodicidade estrita do processo POMINAR(1) são estabelecidas no seguinte teorema.

Teorema 3.1 Existe uma única série para valores inteiros aleatórios estritamente estacioná-ria {Xt} que satisfaz a equação (3.2) e Cov(Xs, εt) = 0, para s < t. Os momentos incondi-cionais de primeira e segunda ordem da série estritamente estacionária {Xt} existem, além disso o processo é ergódico.

A prova do Teorema 3.1 é dada no Apêndice B.

3.1.2 Propriedades probabilísticas do Processo POMINAR(1)

Nesta seção são consideradas algumas propriedades probabilísticas como a esperança con-dicional k passos à frente, a variância concon-dicional k passos à frente, a média, variância e as probabilidades de transição do processo {Xt}. Assim como se apresentam as anteriores propriedades em Li, Wang e Zhang(2015), segue-se a mesma ideia neste trabalho.

Teorema 3.2 Suponha que {Xt} segue o processo POMINAR(1), então a média condicional k passos à frente e a variância condicional k passos à frente são,

E[Xt+k|Xt] = C1kXt+

1 − C1k 1 − C1

(27)

CAPÍTULO 3. PROCESSO POMINAR(1) 18

e

V ar(Xt+k|Xt) = (C2k− C12k)Xt2+ (1 − C2k)E[Xt2] + (C12k− 1)(E[Xt])2 + C 4(C1k−C2k) C1−C2 − 2C k 1(1 − C1k)E[Xt]  (Xt− E[Xt]), t ≥ 1, em que C1 = pα+(1−p)β, C2 = pα2+(1−p)β2, C3 = pα(1−α)+(1−p)β, C4 = C 3+2E[εt]C1, E[Xt] = λ/(1 − C1), e E[Xt2] = (C4E[Xt] + E[ε2t])/(1 − C2).

Para que o processo POMINAR(1) seja estacionário de segunda ordem deve-se cumprir que a média e a variância não estejam em função do tempo, de modo que, estas expressões, além de existirem, devem ser constante como função de t. Assim, como se observa na demonstração do Teorema 3.1, E[Xt] = λ 1 − C1 , (3.4) E[Xt2] = C4E[Xt−1] + λ 2 + λ 1 − C2 , (3.5) V ar(Xt) = λ2[(1 − C 1)2− (1 − C2)] + λ(1 − C1)[C4+ (1 − C1)] (1 − C2)(1 − C1)2 . (3.6)

De modo que, para C1, C2 ∈ [0, 1), e com o Teorema 3.2, pode se observar que,

lim

k→∞E[Xt+k|Xt] = E[εt]/(1 − C1) = E[Xt], que é a média do processo, tal como

lim

k→∞V ar(Xt+k|Xt) = E[X 2

t] − (E[Xt])2 = V ar(Xt), que é a variância do processo.

Depois de conhecer E[Xt], E[X2

t] e a V ar(Xt),tem-se o seguinte teorema.

Teorema 3.3 Suponha que {Xt} segue o processo POMINAR(1), então a função de autoco-variância e função de autocorrelação, respectivamente são,

Cov(Xt+k, Xt) = p2αk λ 1 − α+ (1 − p) 2βk λ (1 − β)(1 − β2) e Corr(Xt+k, Xt) = p2αk1−αλ + (1 − p)2βk(1−β)(1−βλ 2) λ2[(1−C 1)2−(1−C2)]+λ(1−C1)[C4+(1−C1)] (1−C2)(1−C1)2 .

(28)

CAPÍTULO 3. PROCESSO POMINAR(1) 19

As demonstrações dos Teoremas 3.2 e Teorema 3.3 são dadas no ApêndiceC.

Em seguida tratar-se-ão as probabilidades condicionais, especicamente, as conhecidas probabilidades de transição de passo um, que são basicamente explicadas como a probabilidade do processo Xtser igual ao estado j no instante t, (Xt= j), dado que o processo Xt−1 assume o estado i no instante t−1. Do mesmo modo, note que, uma cadeia de Markov é denida como um processo estocástico (coleção de variáveis aleatórias que dependem do tempo), tal que se o estado atual de Xte os estados prévios são conhecidos, a probabilidade do estado futuro Xt+1 não dependerá dos estados anteriores a t, pois somente depende do estado atual Xt. Depois de mencionar os anteriores conceitos, evidentemente o processo proposto POMINAR(1) é um processo de Markov de primeira ordem, de modo que para obter as probabilidades de transição procede-se da seguinte forma:1

(29)

CAPÍTULO 3. PROCESSO POMINAR(1) 20 pij N = P(Xt= j|Xt−1= i) = P(St (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j|Xt−1 = i) = P([St (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j, St = (1, 0)] S [St (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j, St = (0, 1)]|Xt−1 = i) = P(St (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j, St = (1, 0)|Xt−1 = i)) +P(St (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j, St= (0, 1)|Xt−1= i)) = P(St (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j|St = (1, 0); Xt−1 = i))P(St = (1, 0)|Xt−1 = i) +P(St (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j|St= (0, 1); Xt−1= i))P(St= (0, 1)|Xt−1= i) = P((1, 0)  (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j|Xt−1 = i))P(St= (1, 0)) +P((0, 1)  (α ◦ Xt−1+ εt, β ∗ Xt−1+ εt) = j|Xt−1= i))P(St = (0, 1)) = P((α ◦ Xt−1+ εt) = j|Xt−1 = i)p + P((β ∗ Xt−1+ εt) = j|Xt−1= i)(1 − p) = p min(i,j) P k=0 P(α ◦ Xt−1= k, εt= j − k|Xt−1 = i) +(1 − p) j P k=0 P(β ∗ Xt−1= k, εt= j − k|Xt−1 = i) = p min(i,j) P k=0 P(α ◦ Xt−1= k|εt= j − k, Xt−1 = i)P(εt = j − k|Xt−1= i) +(1 − p) j P k=0 P(β ∗ Xt−1= k|εt= j − k, Xt−1 = i)P(εt = j − k|Xt−1= i) = p min(i,j) P k=0 P(α ◦ Xt−1= k|Xt−1 = i)P(εt = j − k) +(1 − p) j P k=0 P(β ∗ Xt−1= k|Xt−1 = i)P(εt = j − k) = p min(i,j) P k=0 i kα k(1 − α)i−k P(εt = j − k) + (1 − p) j P k=0 e−βi(βi)k k! P(εt = j − k) = p min(i,j) X k=0  i k  αk(1 − α)i−k e −λλj−k (j − k)!  + (1 − p) j X k=0 e−βi(βi)k k!  e−λλj−k (j − k)!  = p min(i,j) X k=0  i k  αk(1 − α)i−k e −λλj−k (j − k)!  +(1 − p)e −(βi+λ)(βi + λ)j j! ; i, j ≥ 0. (3.7)

(30)

CAPÍTULO 3. PROCESSO POMINAR(1) 21 p0j = P(XN t = j|Xt−1 = 0) = pP((α ◦ Xt−1) = k|Xt−1= 0)P(εt = j − k) +(1 − p)P((β ∗ Xt−1) = k|Xt−1 = 0)P(εt= j − k) = p 00 α0(1 − α)0P(εt= j) + (1 − p) e −β0(β0)0 0!  P(εt = j) = pP(εt= j) + (1 − p)P(εt= j) = p e −λλj j!  + (1 − p) e −λλj j!  = e −λλj j! ; j ≥ 0, (3.8) pi0 N = P(Xt = 0|Xt−1= i) = pP((α ◦ Xt−1) = 0|Xt−1= i)P(εt= 0) + (1 − p)P((β ∗ Xt−1) = 0|Xt−1 = i)P(εt = 0) = p i0 α0(1 − α)i−0e−λ+ (1 − p) e −βi(βi)0 0!  e−λ = p(1 − α)ie−λ+ (1 − p) e −βi(βi)0 0!  e−λ = p(1 − α)ie−λ+ (1 − p)e−βie−λ = p(1 − α)i+ (1 − p)e−βi e−λ; i ≥ 0. (3.9)

O resultado da segunda expressão em (3.7) se justica a seguir. j P k=0 e−βi(βi)k k! h e−λλj−k (j−k)! i = j P k=0 e−(βi+λ)(βi)kλj−k k!(j−k)! = e−(βi+λ) 1j! j P k=0 (βi)kλj−k k!(j−k)! j! (multiplicando por j! j!) = e−(βi+λ) 1j! j X k=0 j k  (βi)kλj−k | {z } binômio de Newton = e−(βi+λ)j!(βi+λ)j.

Também, para esclarecer um pouco a expressão (min(i, j)) nas probabilidades de transição, uma possível interpretação se apresenta a seguir considerando dois casos.

(31)

CAPÍTULO 3. PROCESSO POMINAR(1) 22

Lembrando-se inicialmente que,

Xt |{z} população no tempo t , α ◦ Xt−1 | {z } sobreviventes no tempo t , Xt−1 | {z } população no tempo t − 1 , εt |{z}

novos membros no tempo t .

Caso 1: j ≥ i em (Xt = j|Xt−1 = i). Para Xt−1 = i, signica que o tamanho da população no tempo t − 1 é igual a i. Logo α ◦ Xt−1, que são os sobreviventes de Xt−1 no período (t − 1, t], será uma quantidade k ≤ i. De modo que, o valor observado para os novos integrantes εt representará uma quantidade sucientemente maior que zero, e somada a k faz com que j ≥ i.

Caso 2: i < j em (Xt= j|Xt−1 = i). Aqui existe uma quantidade suciente de mortes para garantir o seguinte: não há sobreviventes (α ◦ Xt−1= 0), ou, sobreviva uma quantidade menor do que i (α◦Xt−1< i) entre os tempos (t−1, t], de tal maneira que os valores observados das inovações εt somado com os sobreviventes no tempo t − 1 faz com que j < i.

Analisando a expressão εt = j −k, pode-se observar que k (sobreviventes no tempo (t−1, t]) nunca será maior que j (tamanho da população no tempo t). Também porque εté uma variável aleatória que assume valores não negativos para este caso.

A justicativa formal da expressão min(i, j) se apresenta a seguir.

pP((α ◦ Xt−1+ εt) = j|Xt−1 = i) + (1 − p)P((β ∗ Xt−1+ εt) = j|Xt−1= i) = = pP k P(α ◦ Xt−1 = k, εt= j − k|Xt−1= i) +(1 − p)P k P(β ∗ Xt−1= k, εt= j − k|Xt−1 = i) = pP k P(α ◦ Xt−1 = k|εt = j − k, Xt−1= i)P(εt= j − k|Xt−1 = i) +(1 − p)P k P(β ∗ Xt−1= k|εt= j − k, Xt−1 = i)P(εt = j − k|Xt−1= i) = pP k P(α ◦ X t−1 = k|Xt−1= i)P(εt= j − k) +(1 − p)P k P(β ∗ Xt−1= k|Xt−1 = i)P(εt = j − k)

Como α ◦ Xt−1|Xt−1 = i ∼ Bin(i, α) e εt ∼ P o(λ), então 0 ≤ k ≤ i e j − k ≥ 0, isto é, 0 ≤ k ≤ i e j ≥ k, o que implica que k ≥ 0 e k ≤ min(i, j). Como consequência, sempre se escolhe o mínimo valor entre i e j, assim, com a interpretação anterior e o argumento formal, ca claro o porquê de utilizar essa expressão nas probabilidades de transição.

(32)

Capítulo 4

ESTIMAÇÃO DOS PARÂMETROS NO

PROCESSO POMINAR(1)

Existem vários métodos para a estimação de parâmetros. Para ns desta dissertação se contemplará inicialmente o método de máxima verossimilhança condicional (MVC) e, poste-riormente, o método de Yule-Walker (YW).

4.1 Estimadores por máxima verossimilhança condicional

O método MVC baseia-se no condicionamento da primeira observação da função de veros-similhança, e pode ser expresso conhecendo as probabilidades de transição, assim

L(α, β, λ, p|X) = T Y t=2

P(Xt = j|Xt−1 = i).

Portanto, com este método buscam-se as estimativas para os parâmetros do modelo baseando-se na distribuição conjunta do processo {Xt}.

Para estimar os parâmetros do modelo, procura-se o conjunto de valores que maximiza a probabilidade dada em (3.7). P(Xt = j|Xt−1 = i) = p min(i,j) X k=0  i k  αk(1 − α)i−k e −λλj−k (j − k)!  + (1 − p)e −(βi+λ)(βi + λ)j j! . 23

(33)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 24

A função log-verossimilhança condicional `(α, β, λ, p), para o processo POMINAR(1) está dada por `(α, β, λ, p) = log " T Y t=2 P(Xt= j|Xt−1= i) # = T X t=2 log[P(Xt = j|Xt−1 = i)] = T X t=2 log  p min(i,j) X k=0  i k  αk(1 − α)i−k e −λλj−k (j − k)!  + (1 − p)e −(βi+λ)(βi + λ)j j!  .

Os valores assumidos por α, bb β, bλ,pbque maximizam a função log-verossimilhança serão as estimativas de máxima verossimilhança condicional para os parâmetros α, β, λ, p. Assim, as estimativas de MVC serão obtidas numericamente, através da função optim do software R.

4.2 Estimadores de Yule-Walker

Os estimadores de Yule-Walker são obtidos a partir da autocorrelação amostral dada no Teorema 3.3 para k = 1, 2, 3, 4. Devido a que os estimadores não tem uma forma fechada.

Corr(Xt+1, Xt) = p2α1 λ 1−α + (1 − p) 2β1 λ (1−β)(1−β2) λ2[(1−C 1)2−(1−C2)]+λ(1−C1)[C4+(1−C1)] (1−C2)(1−C1)2 Corr(Xt+2, Xt) = p2α21−αλ + (1 − p)2β2(1−β)(1−βλ 2) λ2[(1−C 1)2−(1−C2)]+λ(1−C1)[C4+(1−C1)] (1−C2)(1−C1)2 Corr(Xt+3, Xt) = p2α3 λ 1−α + (1 − p) 2β3 λ (1−β)(1−β2) λ2[(1−C 1)2−(1−C2)]+λ(1−C1)[C4+(1−C1)] (1−C2)(1−C1)2 Corr(Xt+4, Xt) = p2α4 λ 1−α + (1 − p) 2β4 λ (1−β)(1−β2) λ2[(1−C 1)2−(1−C2)]+λ(1−C1)[C4+(1−C1)] (1−C2)(1−C1)2

Para encontrar os estimadores de YW do processo POMINAR(1) resolve-se o anterior sis-tema de equações para obter α, bb β, bλ,p.b Observa-se que não existe uma solução analítica para o sistema de equações não lineares, portanto, as estimativas de YW serão obtidas numerica-mente, através da função BBsolve do software R.

(34)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 25

4.3 Simulação

Nesta seção um estudo de simulação é desenvolvido para observar o comportamento do processo proposto.

Observa-se inicialmente o índice de dispersão do processo POMINAR(1), que é dado pela expressão σ2

X/µX, em que σX2 é a variância e µX é a média do processo, respetivamente. Com (3.4) e (3.6), se mostrará que V ar(Xt)/E[Xt] > 1, o que signica de forma geral, que o pro-cesso POMINAR(1) é um modelo para dados sobredispersos, isto é, a variância é maior que a média. Segue a Tabela 4.1 com diferentes valores para α, β, λ, p, e mostra-se o índice de dispersão em cada caso, vericando a sobredispersão.

α β λ p σ2 X/µX 0.3 0.3 2 0.3 1.06 0.4 0.6 3 0.4 1.38 0.4 0.5 5 0.5 1.18 0.6 0.9 7 0.6 2.87 0.7 0.9 9 0.4 4.03

Tabela 4.1: Índice de Dispersão do processo POMINAR(1).

Na Figura4.1 e Figura4.2 pode-se observar o comportamento do processo POMINAR(1). Nos casos (a) e (c) da Figura 4.1, observam-se séries com dados que se comportam de forma equi-dispersa, também, no caso (a) observa-se uma maior quantidade de zeros, nos casos (b), (d), (e) e (f), se xam α e λ com valores de 0.9 e 2, respectivamente. E observa-se que quando se acrescenta β e p, a média e a variância do processo também aumentam. Já, na Figura 4.2

mostram-se os diferentes casos reduzidos do processo POMINAR(1). Na parte (a) o POMI-NAR(1) tipo I, (b) POMIPOMI-NAR(1) tipo II, (c) POMIPOMI-NAR(1) tipo III, (d) POMIPOMI-NAR(1) tipo IV, (e) e (f) POMINAR(1) tipo V.

(35)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 26 0 50 100 150 200 0 1 2 3 4 5 (a) 0 50 100 150 200 0 5 10 15 20 (b) 0 50 100 150 200 5 10 15 (c) 0 50 100 150 200 0 2 4 6 8 (d) 0 50 100 150 200 5 10 15 (e) 0 50 100 150 200 10 15 20 25 30 35 (f)

Figura 4.1: Processo POMINAR(1) com (a) α = 0.1, β = 0.9, λ = 1, p = 0.8; (b) α = 0.9, β = 0.1, λ = 2, p = 0.8; (c) α = 0.3, β = 0.3, λ = 5, p = 0.5; (d) α = 0.9, β = 0.2, λ = 2, p = 0.2; (e) α = 0.9, β = 0.4, λ = 2, p = 0.6; (f) α = 0.9, β = 0.9, λ = 2, p = 0.9.

(36)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 27 0 50 100 150 200 10 15 20 25 (a) 0 50 100 150 200 0 5 10 15 20 (b) 0 50 100 150 200 0 1 2 3 4 5 6 (c) 0 50 100 150 200 5 10 15 (d) 0 50 100 150 200 0 2 4 6 8 10 (e) 0 50 100 150 200 0 2 4 6 8 10 12 (f)

Figura 4.2: Processo POMINAR(1) com (a) α = 0.9, β = 0.2, λ = 2, p = 1; (b) α = 0.1, β = 0.9, λ = 1, p = 0; (c) α = 0, β = 0.1, λ = 2, p = 0.8; (d) α = 0.3, β = 0, λ = 5, p = 0.5; (e) α = 0, β = 0, λ = 5, p = 0.5; (f) α = 0, β = 0, λ = 5, p = 0.7.

(37)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 28

A seguir, para simular o processo POMINAR(1) geram-se dados aleatórios da seguinte forma, gera-se um inteiro qualquer x0, depois usa-se a equação recursiva (3.1) para gerar um x1, continua assim sucessivamente até gerar x0, x1, ..., xn+N e pega-se os ultimos n dados gerados, para garantir que já está no processo estacionário. Utiliza-se o método de máxima verossimilhança condicional para estimar os parâmetros, com ajuda do método L-BFGS-B do software R.

Se fazem algumas combinações de valores dos parâmetros e encontram-se a média, o viés, a variância e o erro quadrático médio (EQM) das estimativas em cada combinação. Utiliza-se o método Monte Carlo na simulação com número de réplicas igual a 5000 e considera-Utiliza-se tamanhos das amostras com T = 100, T = 200 e T = 300. Os valores verdadeiros dos parâmetros usados na simulação são,

(a) α = 0.4, β = 0.5, λ = 2, p = 0.5; (b) α = 0.2, β = 0.8, λ = 1, p = 0.4; (c) α = 0.5, β = 0.8, λ = 1, p = 0.6; (d) α = 0.3, β = 0.1, λ = 2, p = 0.4.

A partir dos resultados apresentados na Tabela 4.2 e Tabela 4.3, Figuras 4.3,4.4,4.5 e4.6, com o método MVC, pode-se perceber que a maioria dos estimadores atingiram bons resul-tados, próximos dos verdadeiros parâmetros e erros quadráticos médios pequenos. Observa-se que, de forma geral, conforme aumenta o tamanho da amostra T , mais próximo do valor ver-dadeiro de cada parâmetro cam as estimativas, do mesmo modo, o EQM, o viés e a variância decrescem.

Da mesma forma com YW, mostra-se uma análise com os mesmos valores verdadeiros dos parâmetros utilizados anteriormente. Pelo fato das expressões dos estimadores de YW não serem simples nem fechadas, utiliza-se a função BBsolve do software R para obter o valor das estimativas. Observa-se que as estimativas não cam tão próximas dos verdadeiros valores xados anteriormente, também, o EQM e viés decrescem mas não como se esperava.

Assim, com os resultados obtidos, o método de estimação por MVC será considerado como o mais apropriado para os parâmetros do modelo POMINAR(1).

(38)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 29 bα b β b λ bp T média viés var EQM média viés var EQM média viés var EQM média viés var EQM (a) α = 0 .4 , β = 0 .5 , λ = 2 , p = 0 .5 100 0.3999 -0 .0 005 0.0011 0.0011 0.5022 0.00 16 0.0011 0.0011 2.0100 0. 0093 0.0359 0.0366 0.5000 0. 0003 0.0014 0.0014 200 0.3999 -0 .0 009 0.0009 0.0009 0.5022 0.00 24 0.0009 0.0009 2.0000 -0.0026 0.0266 0.0266 0.4999 -0.0008 0. 0013 0.0013 300 0.3999 -0 .0 007 0.0009 0.0009 0.5033 0.00 28 0.0007 0.0007 1.9999 -0.0057 0.0208 0.0208 0.4999 -0.0005 0. 0010 0.0010 (b) α = 0 .2 , β = 0 .8 , λ = 1 , p = 0 .4 100 0.2103 0.0103 0.0025 0.0026 0.7855 -0.0144 0.00 27 0.0029 1.0040 0. 0040 0.0201 0.0201 0.4040 0. 0040 0.0026 0.0026 200 0.2090 0.00921 0.0019 0.0020 0.7855 -0.0145 0.00 22 0.0024 0.9980 -0.0021 0.0144 0.0144 0.4030 0. 0034 0.0020 0.0020 300 0.2103 0.0103 0.0019 0.0020 0.7846 -0.0153 0.00 21 0.0024 0.9926 -0.0073 0.0124 0.0124 0.4047 0. 0047 0.0020 0.0020 (c) α = 0 .5 , β = 0 .6 , λ = 1 , p = 0 .6 100 0.4966 -0 .0 033 0.0015 0.0015 0.5987 -0.0012 0.00 13 0.0013 1.0171 0. 0171 0.0185 0.0188 0.5964 -0.0035 0. 0017 0.0017 200 0.4974 -0 .0 025 0.0010 0.0010 0.5989 -0.0010 0.00 09 0.0009 1.0097 0. 0097 0.0106 0.0107 0.5972 -0.0027 0. 0012 0.0012 300 0.4968 -0 .0 031 0.0009 0.0009 0.5995 -0.0004 0.00 07 0.0007 1.0098 0. 0098 0.0090 0.0091 0.5976 -0.0023 0. 0010 0.0010 (d) α = 0 .3 , β = 0 .1 , λ = 2 , p = 0 .4 100 0.3019 0.0019 0.0016 0.0016 0.1217 0.02 17 0.0040 0.0045 2.0149 0. 0149 0.0530 0.0532 0.4028 0. 0028 0.0021 0.0021 200 0.3009 0.0009 0.0014 0.0014 0.1207 0.02 07 0.0034 0.0039 2.0084 0. 0084 0.0389 0.0390 0.4026 0. 0026 0.0017 0.0017 300 0.3004 0.0004 0.0013 0.0013 0.1204 0.02 04 0.0031 0.0036 2.0053 0. 0053 0.0334 0.0334 0.4035 0. 0035 0.0017 0.0017

Tabela 4.2: Estimativas de MVC dos parâmetros provenientes dos resultados numéricos da simulação para valores verdadeiros de α, β, λ, p.

(39)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 30 bα b β b λ bp T média viés var EQM média viés var EQM média viés var EQM média viés var EQM (a) α = 0 .4 , β = 0 .5 , λ = 2 , p = 0 .5 100 0.5314 0.1314 0.0439 0.0612 0.6178 0. 1178 0.0304 0.0443 2.1119 0. 1119 0.2579 0.2704 0.3540 -0.1459 0.10 26 0.1239 200 0.5364 0.1364 0.0336 0.0522 0.5965 0. 0965 0.0224 0.0317 2.1769 0. 1769 0.1651 0.1964 0.2826 -0.2173 0.09 61 0.1434 300 0.5555 0.1555 0.0311 0.0553 0.5796 0. 0796 0.0189 0.0252 2.2182 0. 2182 0.1492 0.1968 0.2346 -0.2653 0.08 69 0.1573 (b) α = 0 .2 , β = 0 .8 , λ = 1 , p = 0 .4 100 0.3226 0.1226 0.0374 0.0525 0.6635 -0.1364 0.0224 0.0410 1.1496 0. 1496 0.1966 0.2190 0.3622 -0.0377 0.10 08 0.1023 200 0.3195 0.1195 0.0383 0.0526 0.6431 -0.1568 0.0157 0.0403 1.1874 0. 1874 0.1426 0.1778 0.2688 -0.1311 0.07 77 0.0949 300 0.3228 0.1228 0.0428 0.0579 0.6311 -0.1688 0.0137 0.0422 1.2260 0. 2260 0.1467 0.1978 0.2191 -0.1808 0.06 63 0.0990 (c) α = 0 .5 , β = 0 .6 , λ = 1 , p = 0 .6 100 0.4575 -0.0424 0.0413 0.0431 0.7159 0. 1159 0.0323 0.0457 1.0794 0. 0794 0.2393 0.2456 0.5780 -0.0219 0.11 17 0.1122 200 0.4409 -0.0590 0.0362 0.0397 0.7163 0. 1163 0.0310 0.0445 1.1630 0. 1630 0.3620 0.3886 0.5711 -0.0288 0.13 40 0.1348 300 0.4393 -0.0606 0.0378 0.0414 0.7135 0. 1135 0.0336 0.0465 1.1751 0. 1751 0.3125 0.3431 0.5729 -0.0270 0.14 63 0.1471 (d) α = 0 .3 , β = 0 .1 , λ = 2 , p = 0 .4 100 0.6829 0.3829 0.0763 0.2229 0.2621 0. 1621 0.0379 0.0642 1.8851 -0.1148 0. 7438 0.7570 0.3354 -0.0645 0.09 42 0.0984 200 0.6661 0.3661 0.0770 0.2111 0.2400 0. 1400 0.0303 0.0499 1.9158 -0.0841 0. 5086 0.5157 0.2999 -0.1000 0.08 09 0.0909 300 0.6701 0.3701 0.0760 0.2130 0.2259 0. 1259 0.0246 0.0404 1.9450 -0.0549 0. 3700 0.3730 0.2653 -0.1346 0.06 85 0.0867

Tabela 4.3: Estimativas de YW dos parâmetros provenientes dos resultados numéricos da simulação para valores verdadeiros de α, β, λ, p.

(40)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 31 alfa Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 5 10 15 20 (a) αM V C= 0.5 alfa Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.5 1.0 1.5 2.0 2.5 (b) αY W = 0.5 beta Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 5 10 15 20 (c) βM V C= 0.6 beta Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 (d) βY W = 0.6

Figura 4.3: Comportamento das estimativas dos parâmetros na simulação para valores verda-deiros de α, β, λ, p. Com os métodos MVC e YW.

(41)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 32 lambda Densidade 0 1 2 3 4 0 2 4 6 8 (a) λM V C= 1 lambda Densidade 0 5 10 15 20 0.0 0.2 0.4 0.6 0.8 1.0 (b) λY W = 1 p Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 2 4 6 8 10 (c) pM V C = 0.6 p Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 1 2 3 4 5 6 (d) pY W = 0.6

Figura 4.4: Comportamento das estimativas dos parâmetros na simulação para valores verda-deiros de α, β, λ, p. Com os métodos MVC e YW.

(42)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 33 alfa Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 5 10 15 20 (a) αM V C= 0.3 alfa Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 200 400 600 800 1000 1200 (b) αY W = 0.3 beta Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 2 4 6 8 10 (c) βM V C= 0.1 beta Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 200 400 600 800 (d) βY W = 0.1

Figura 4.5: Comportamento das estimativas dos parâmetros na simulação para valores verda-deiros de α, β, λ, p. Com os métodos MVC e YW.

(43)

CAPÍTULO 4. ESTIMAÇÃO DOS PARÂMETROS NO PROCESSO POMINAR(1) 34 lambda Densidade 0 1 2 3 4 0 1 2 3 4 (a) λM V C= 2 lambda Densidade 0 2 4 6 8 10 0 500 1000 1500 2000 (b) λY W = 2 p Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 2 4 6 8 10 (c) pM V C = 0.4 p Densidade 0.0 0.2 0.4 0.6 0.8 1.0 0 200 400 600 800 1000 (d) pY W = 0.4

Figura 4.6: Comportamento das estimativas dos parâmetros na simulação para valores verda-deiros de α, β, λ, p. Com os métodos MVC e YW.

(44)

Capítulo 5

APLICAÇÃO DO PROCESSO

POMINAR(1) EM DADOS REAIS

Nesta seção se apresenta uma aplicação do processo POMINAR(1) a um conjunto de dados reais, e compara-se com os processos INAR(1) (AL-OSH; ALZAID, 1987) e (MCKENZIE,

1985), INARCH(1) (FERLAND; LATOUR; ORAICHI,2006) e IGeoINAR(1) (LOPES,2016). A base de dados foi tomada da seção Crime Data do site Forecasting Principles1. Os dados

representam as contagens mensais de roubos reportados na estação de polícia número 44 em Pittsburgh - Estados Unidos, no período de Janeiro de 1990 até Dezembro de 2001, e consistem de 144 observações. Na Tabela 5.1 mostram-se as estatísticas descritivas dos dados analisados.

T Mínimo Média Mediana Máximo Variância

144 3 19.951 20 40 39.613

Tabela 5.1: Estatísticas descritivas dos dados de número de roubos na estação de polícia número 44 em Pittsburgh.

Nestes dados foram gerados os grácos da FAC e FACP, apresentados na Figura 5.1. Observa-se no gráco da FAC, que os valores decaem exponencialmente, e no FACP, somente o primeiro valor do gráco destaca-se do zero, sugerindo que modelos de ordem um são apro-priados para os dados. Para ns da dissertação espera-se que o POMINAR(1) ajuste-se melhor aos dados.

1http://www.forecastingprinciples.com

(45)

CAPÍTULO 5. APLICAÇÃO DO PROCESSO POMINAR(1) EM DADOS REAIS 36 0 20 40 60 80 100 120 140 10 20 30 40 Mês Número de roubos 0 5 10 15 20 −0.2 0.0 0.2 0.4 0.6 0.8 1.0 Defasagem F A C 5 10 15 20 −0.1 0.0 0.1 0.2 0.3 Defasagem F A CP

Figura 5.1: Grácos da série de tempo, FAC e FACP dos dados de roubos reportados na estação de polícia número 44 em Pittsburgh.

(46)

CAPÍTULO 5. APLICAÇÃO DO PROCESSO POMINAR(1) EM DADOS REAIS 37

e INARCH(1), usando os critérios AIC2 e RMS3 como medida comparativa. Nota-se que o

modelo POMINAR(1) obtém menor AIC que os outros modelos e RMS menor que o INAR(1) e o IGeoINAR(1).

Modelo Parâmetros AIC RMS

IGeoINAR(1) α = 0.615 π = 0.116 ρ = 0.010 969.777 6.191 INAR(1) α = 0.235 λ = 15.244 961.592 5.967 INARCH(1) β = 0.336 λ = 13.234 952.383 5.935 POMINAR(1) α = 0.383 β = 0.010 λ = 14.275 p = 0.721 940.387 5.945 Tabela 5.2: Parâmetros estimados, AIC e RMS.

Assim, de forma geral o modelo POMINAR(1) atinge melhores resultados em termos de AIC e RMS, e observa-se que o POMINAR(1) é o mais adequado para esse conjunto de dados.

2Akaike Information Criterium, pode ser encontrado com −2 ∗ loglikelihood + 2n em que n é o número de

parâmetros.

3Pode ser encontrado comq

(1/T − p)PT

t=p+1[Xt− E[Xt|Xt−1, ..., Xt−p]]2, em que utiliza-se a esperança

(47)

Capítulo 6

CONSIDERAÇÕES FINAIS

Para obter os resultados, inicialmente estudam-se as propriedades dos operadores thinning binomial e thinning Poisson e são fornecidas as demonstrações completas de cada uma delas, fazendo uso da mesma denição de cada thinning e o conceito de esperança condicional. No trabalho foi proposto um novo modelo autorregressivo misto com inovações Poisson chamado POMINAR(1). Seguindo a ideia de Li, Wang e Zhang (2015) se exibe a denição do modelo, também, são dados diferentes casos em que o processo proposto é reduzido a casos particula-res, alguns já conhecidos como o Poisson INAR(1) e o INARCH(1). Escreve-se o processo de uma forma análoga em (3.2) para facilitar o tratamento do modelo. A existência do processo é estabelecida. A estacionariedade e ergodicidade são provadas. Encontram-se a esperança e variância, como também, a esperança condicional e a variância condicional, que são pro-priedades probabilísticas demonstradas nos Teoremas3.1 e3.2. No Teorema 3.3, mostram-se a função de autocovariância e função de autocorrelação. Depois, as probabilidades de tran-sição são estudadas de forma detalhada. Estimam-se os parâmetros do processo por meio do método de máxima verossimilhança condicional e Yule-Walker. Realiza-se um estudo de simulação, e mostra-se que o POMINAR(1), de forma geral, comporta-se melhor em dados sobredispersos em um conjunto de dados especíco. Observa-se nos resultados da Tabela 4.2, cujos resultados foram bastante satisfatórios, que as estimativas caram próximas dos valores verdadeiros dos parâmetros; o EQM, o viés e a variância decrescem a medida que o tamanho da amostra aumenta. Realiza-se uma aplicação a dados reais comparando o processo proposto com outros modelos já conhecidos na literatura, e obteve-se que o POMINAR(1) teve melhor desempenho em relação aos modelos considerados baseando-se no critério AIC.

Para trabalhos futuros recomenda-se: Comparar o processo POMINAR(1) em dados reais com outros modelos mistos. Generalizar à ordem p o processo proposto. Fazer estimação dos parâmetros do POMINAR(1) pelo método de mínimos quadrados.

(48)

Apêndice A

Propriedades dos Operadores Thinning

Neste apêndice se apresentam as demonstrações das propriedades dos operadores thinning binomial e thinning Poisson.

Demonstração do Lema 2.1. Propriedades do operador thinning binomial.

i) 0 ◦ X = 0.

0 ◦ X = X P i=1

Bi tal que P(Bi = 1) = α = 0 = X P i=1 0 = 0  ii) 1 ◦ X = X. 1 ◦ X = X P i=1

Bi tal que P(Bi = 1) = 1 = X P i=1 1 = X  39

(49)

APÊNDICE A. PROPRIEDADES DOS OPERADORES THINNING 40

iii) α1◦ (α2◦ X) d

=(α1α2) ◦ X. Seja Y = α2◦ X,

GY(t) = E[tY] (denição função geradora de probabilidade) = E[tB1+B2+...+BX] = E[E[tB1+B2+...+BX|X]] = E[E[tB]X] = E[(GB(t))X] = GX(GB(t)) = GX(1 − α2+ α2t) Seja W = α1◦ Y, GW(t) = GY(GM(t)) = GX(GB(GM(t))) = GX(GB(1 − α1+ α1t)) = GX(1 − α2+ α2(1 − α1+ α1t)) = GX(1 − α2+ α2− α1α2+ α1α2t) = GX(1 − α1α2+ α1α2t) = Gα1α2◦X(t)  iv) Se X e Y são independentes, α1◦ (X + Y )=αd 1◦ X + α1◦ Y.

α1◦ (X + Y ) = X+Y P i=1 Bi = X P i=1 Bi+ X+Y P i=X+1 Bi = X P i=1 Bi+ Y P i=1 Bi+ X = α1◦ X + α1◦ Y 

(50)

APÊNDICE A. PROPRIEDADES DOS OPERADORES THINNING 41 v) E[α1◦ X] = α1E[X]. E[α1◦ X] = E[E[α1◦ X|X]] = E  E X P i=1 Bi X  = E X P i=1 E[Bi|X]  = E X P i=1 E[Bi]  = E[Xα1] = α1E[X]  vi) E[α1◦ X|X] = α1X. E[α1◦ X|X] = E X P i=1 Bi X  = X P i=1 E[Bi|X] = X P i=1 E[Bi] = Xα1 = α1X  vii) V ar(α1◦ X|X) = α1(1 − α1)X. V ar(α1◦ X|X) = V ar X P i=1 Bi X  = X P i=1 V ar(Bi|X) (independência) = X P i=1 V ar(Bi) = X(α1(1 − α1)) = α1(1 − α1)X 

(51)

APÊNDICE A. PROPRIEDADES DOS OPERADORES THINNING 42

viii) V ar(α1◦ X) = α2

1V ar(X) + α1(1 − α1)E[X].

V ar(α1 ◦ X) = V (E[α1◦ X|X]) + E[V (α1◦ X|X)] fazendo primeiro V (E[α1◦ X|X]) = V (Xα1) = α21V (X)

e depois E[V (α1◦ X|X)] = E[α1(1 − α1)X] = α1(1 − α1)E[X] ⇒ V ar(α1 ◦ X) = α21V (X) + α1(1 − α1)E[X]  ix) E[(α1◦ X)2] = α2 1E[X2] + α1(1 − α1)E[X]. E[(α1◦ X)2] = E[E[(α1◦ X)2|X]] = E " E " X P i=1 α1◦ X 2 X ## = E  E     X P i=1 Bi2+ X P j=1 X P k=1 k6=j BjBk   X     = E   X P i=1 E[B2 i|X] + X P j=1 X P k=1 k6=j E[BjBk|X]   = E   X P i=1 E[B2 i] + X P j=1 X P k=1 k6=j E[BjBk]   = E[X(α1(1 − α1) + (α1)2) + X(X − 1)α1α1] = E[α1(1 − α1)X + α21X + α21(X2− X)] = E[α1(1 − α1)X + α21X + α21X2− α21X] = E[α1(1 − α1)X] + E[α21X2] = α1(1 − α1)E[X] + α21E[X2] 

(52)

APÊNDICE A. PROPRIEDADES DOS OPERADORES THINNING 43 x) E[X(α1◦ Y )] = α1E[XY ]. E[X(α1◦ Y )] = E  X Y P i=1 Bi  = E[X(B1+ B2 + B3+ ... + BY)] = E[XB1+ XB2+ XB3+ ... + XBY]

= E[X]E[B1] + E[X]E[B1] + E[X]E[B3] + ... + E[X]E[BY] = E[X](E[B1] + E[B2] + ... + E[BY])

= E[X](E[B1+ B2+ B3+ ... + BY]) = E[X]E[α1◦ Y ] = E[X]α1E[Y ] = α1E[X]E[Y ] = α1E[XY ]  xi) E[X(α1◦ Y )2] = α2 1E[XY2] + α1(1 − α1)E[XY ]. E[X(α1◦ Y )2] = E " X Y P i=1 Bi 2# = E  E  X   Y P i=1 Bi2+ Y P j=1 Y P k=1 k6=j BjBk   σ(X, Y )     = E  E    X Y P i=1 B2 i + X Y P j=1 Y P k=1 k6=j BjBk   σ(X, Y )     = E  E  X Y P i=1 B2 i  σ(X, Y )  + E    X Y P j=1 Y P k=1 k6=j BjBk   σ(X, Y )     = E  X Y P i=1 E[B2 i|σ(X, Y )] + X Y P j=1 Y P k=1 k6=j E[BjBk|σ(X, Y )]   = E[XY E[Bi2] + XY (Y − 1)E[BjBk]]

= E[XY (V (Bi) + (E[Bi])2) + (XY2 − XY )(α1α1)] = E[XY (α1(1 − α1) + α21) + α21XY2− α2 1XY ] = E[α1(1 − α1)XY + α21XY + α21XY2− α2 1XY ] = α1(1 − α1)E[XY ] + α21E[XY2] 

(53)

APÊNDICE A. PROPRIEDADES DOS OPERADORES THINNING 44

xii) E[(α1◦ X)(α2◦ Y )] = α1α2E[XY ].

E[(α1◦ X)(α2 ◦ Y )] = E[E[(α1◦ X)(α2◦ X)|σ(X, Y )]] = E " E " X P i=1 Bi  Y P j=1 Bj ! σ(X, Y ) ## = E " X P i=1 Y P j=1 E[BiBj|σ(X, Y )] # = E " X P i=1 Y P j=1 E[BiBj] # = E[XY α1α2] = α1α2E[XY ]  xiii) E[(α1◦ X)2 2 ◦ Y )] = α21α2E[X2Y ] + α1(1 − α1)α2E[XY ]. E[(α1◦ X)2(α2◦ Y )] = E[E[(α1◦ X)2(α2◦ Y )|σ(X, Y )]] = E " E " X P i=1 Bi 2 Y P j=1 Bj ! σ(X, Y ) ## = E  E     X P i=1 B2 i + X P k=1 X P l=1 l6=k BkBl   Y P j=1 Bj ! σ(X, Y )     = E  E     X P i=1 Y P j=1 B2 iBj + X P k=1 X P l=1 l6=k Y P j=1 BkBlBj   σ(X, Y )     = E   X P i=1 Y P j=1 E[B2 iBj|σ(X, Y )] + X P k=1 X P l=1 l6=k Y P j=1 E[BkBlBj|σ(X, Y )]   = E   X P i=1 Y P j=1 E[Bi2Bj] + X P k=1 X P l=1 l6=k Y P j=1 E[BkBlBj]  

= E[XY E[Bi2]E[Bj] + X(X − 1)Y E[Bk]E[Bl]E[Bj]] = E[XY (V (Bi) + (E[Bi])2)E[Bj] + X(X − 1)Y α1α1α2] = E[XY (α1(1 − α1) + α21)α2+ X(X − 1)Y α21α2]

= E[α1(1 − α1)α2XY + α21α2XY + α21α2X2Y − α21α2XY ] = α1(1 − α1)α2E[XY ] + α21α2E[α2X2Y ]

(54)

APÊNDICE A. PROPRIEDADES DOS OPERADORES THINNING 45

xiv) Cov(α1◦ X, α2◦ Y ) = α1α2Cov(X, Y ).

Cov(α1◦ X, α2◦ Y ) = E[(α1◦ X)(α2◦ Y )] − E[(α1◦ X)]E[(α2◦ Y )]

= E[E[(α1◦ X)(α2◦ Y )|σ(X, Y )]] − E[(α1◦ X)]E[(α2◦ Y )] = E " E " X P i=1 Bi  Y P j=1 Bj ! σ(X, Y ) ## − E[α1◦ X]E[α2◦ Y ] = E " X P i=1 Y P j=1 E[BiBj|σ(X, Y )] # − E[α1◦ X]E[α2◦ Y ] = E " X P i=1 Y P j=1 E[BiBj] # − E[α1◦ X]E[α2◦ Y ] = E[XY E[Bi]E[Bj]] − α1E[X]α2E[Y ] = E[XY α1α2] − α1α2E[X]E[Y ] = α1α2E[XY ] − α1α2E[X]E[Y ] = α1α2(E[XY ] − E[X]E[Y ]) = α1α2Cov(X, Y )

(55)

APÊNDICE A. PROPRIEDADES DOS OPERADORES THINNING 46

Demonstração do Lema 2.2. Propriedades do operador thinning Poisson.

i) 0 ∗ X1 = 0.

0 ∗ X1 = X1

P i=0

Pi em que Pi ∼ Poisson(0) tal que P(Pi = 0) = 1, = X1 P i=0 0 = 0  ii) β1∗ (X1+ X2) d =β1∗ X1+ β1∗ X2, se X1, X2 são independentes. GX(t) = E[tX] Gβ1∗(X1+X2)(t) = E[t β1∗(X1+X2)] = E  t X1+X2P i=0 Pi   = E  t X1 P i=0 Pi+ X1+X2 P j=X1+1 Pj   = E  t X1 P i=0 Pi+ X2 P j=1 Pj+X1   = E  t X1 P i=0 Pi t X2P j=1 Pj   = E  t X1 P i=0 Pi  E  t X2 P j=0 Pj   = E[tβ1∗X1]E[tβ1∗X2] = Gβ1∗X1(t)Gβ1∗X2(t) = Gβ1∗X1+β1∗X2(t) 

Referências

Documentos relacionados

Este trabalho tem como objetivo geral avaliar a quantidade de água pluvial que pode ser aproveitada após infiltrar em um pavimento permeável de concreto

Ninguém quer essa vida assim não Zambi.. Eu não quero as crianças

Local de realização da avaliação: Centro de Aperfeiçoamento dos Profissionais da Educação - EAPE , endereço : SGAS 907 - Brasília/DF. Estamos à disposição

O SWAT (Soil and Water Assessment Tool) e um modelo matematico que permite que varios processos fisicos sejam simulados em bacias hidrograficas para avaliar os impactos do uso do

No caso de um plano ter um fundo de benefícios de reforma constituido, a quantia contribuída por uma entidade para o fundo, durante um período, não é necessariamente igual à

Desde a infância – fase em que algumas pessoas começam a apresentar os sintomas do transtorno – o convívio social é visto como um desafio e suas dificuldades de

Mostra-se na Figura 7d o balanço de água por meio da relação P-E, e nota-se que a maioria dos modelos simulam excesso de água nos meses de janeiro a maio e dezembro e déficit nos

A primeira etapa é referente a delimitação da expressão facial na imagem, para isto será utilizado o método baseado no algoritmo de modelagem AAM (Active Appearance Model) que