• Nenhum resultado encontrado

Estimadores do tipo núcleo para a densidade de transição de uma cadeia de markov com espaço de estados geral

N/A
N/A
Protected

Academic year: 2017

Share "Estimadores do tipo núcleo para a densidade de transição de uma cadeia de markov com espaço de estados geral"

Copied!
54
0
0

Texto

(1)

UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE CENTRO DE CIˆENCIAS EXATAS E DA TERRA PROGRAMA DE P ´OS-GRADUAC¸ ˜AO EM MATEM ´ATICA

APLICADA E ESTAT´ISTICA

Estimadores do Tipo N´

ucleo para Densidades de Transi¸

ao

de Cadeias de Markov com Espa¸

co de Estados Geral

Enai Taveira da Cunha

Orientadora

: Profa. Dra. Viviane Simioli Medeiros Campos

(2)

CENTRO DE CIˆENCIAS EXATAS E DA TERRA PROGRAMA DE P ´OS-GRADUAC¸ ˜AO EM MATEM ´ATICA

APLICADA E ESTAT´ISTICA

Estimadores do Tipo N´

ucleo para Densidades de Transi¸

ao

de Cadeias de Markov com Espa¸

co de Estados Geral

Enai Taveira da Cunha

Disserta¸c˜ao de Mestrado apresentada ao Programa de P´

os-Gradua¸c˜ao em Matem´atica Aplicada e Estat´ıstica da

Uni-versidade Federal do Rio Grande do Norte

(PPGMAE-UFRN) como parte dos requisitos necess´arios para obten¸c˜ao

do t´ıtulo de Mestre em Matem´atica Aplicada e Estat´ıstica.

Natal/RN

(3)

Dedicat´

oria

“Este trabalho ´e dedicado a pessoa que em momento algum deixou de acreditar em mim, aquela

que com seu exemplo de vida me ensinou a ter for¸ca e f´e para superar todos os meus obst´aculos.

(4)

A Deus que est´a presente em todas as minhas conquistas, mesmo eu me afastando Dele as vezes, sei que Ele nunca se afasta de mim, obrigada meu Senhor por nunca me abandonar.

A minha querida orientadora Viviane, se n˜ao fosse a ela eu n˜ao estaria onde estou, obrigada por toda confian¸ca e por toda for¸ca que me deu durante esses dois anos de mestrado e durante os meus quatro anos de gradua¸c˜ao, saiba que sua lembran¸ca irei levar para sempre em minha vida, aquela em quem me espelho em todos os trabalhos que fa¸co, compreensiva, paciente mas sempre respons´avel e acima de tudo um exemplo de dedica¸c˜ao. Obrigada minha querida professora.

Ao professor Andr´e Gustavo pelos seus conselhos e por todo apoio que sempre me deu na gradua¸c˜ao e na p´os gradua¸c˜ao, ´e uma pessoa que sempre ter´a meu respeito e considera¸c˜ao.

A meus familiares, minha irm˜a Janaina sempre preocupada comigo, quantas vezes foi me buscar tarde da noite na parada de ˆonibus para eu n˜ao chegar sozinha em casa, minha m˜ae sempre rezando e me aben¸coando para eu alcan¸car todos os meus objetivos, sempre me dedicando seu amor e aten¸c˜ao, saiba que isso me fortaleceu muito, aos meus dois irm˜aos, Neto e Janilson, pelo apoio e conselhos dados. Amo todos vocˆes.

A todos os meus colegas de turma, em especial:

A minhas amigas inesquec´ıveis: Aparecida, Camila, Tatiana Queiroz, sempre lembrarei com carinho de vocˆes, por todo aperto e sufˆoco que passamos juntas.

A meus queridos amigos: Mois´es, pelo ap´oio nos estudos e todas as brincadeiras que nos ajudou a descontrair, Francin´ario, Cec´ılio, Jo˜ao Batista, Daniel, Manass´es, Allan, Lenil-son, Felipe, AlysLenil-son, obrigada pela companhia que sempre nos fizeram e pela for¸ca que sempre nos passaram.

(5)

A meu querido cunhado Elvis, por sempre me divertir com seu jeito engra¸cado de ser.

A H´erica, Mariana, C´atia, com quem tive pouco contato, mas me mostraram seu jeito todo especial de ser.

A minhas amigas, Kaline Juliana, Kaline Andreza, Renata Santana, Renata Mendon¸ca, Kelly, Tatiana Farache, Ana Karla e a todos a quem n˜ao citei, pe¸co desculpas, obrigada por tornar um pouco mais f´aceis e mais divertidos todos esses dias que passei com vocˆes.

A meu querido amigo Cesar, uma das coisas boas que me aconteceu nesses dois anos foi ter te conhecido, sempre t˜ao amigo, carinhoso e afetuoso, vocˆe me cativou, obrigada por fazer parte da minha vida.

A meus queridos professores do PPGMAE, em especial:

Ao Professor Dami˜ao, sempre respons´avel e muito dedicado em todas as suas aulas, obri-gada por me ensinar a gostar de estat´ıstica.

A Professora Dione, sempre preocupada com todos n´os, quantas vezes me viu cansada e me parou no corredor pra perguntar se estava tudo bem, obrigada pela aten¸c˜ao e pelo aprendizado na disciplina de Inferˆencia.

Ao Professor Pledson, por todas as suas contribui¸c˜oes durante nossos semin´arios.

Ao professor Jaques, por todos os ensinamentos em probabilidade e em processos es-toc´asticos, por todos os conselhos que sempre nos deu.

A todos os funcion´arios do CCET, Liandra pela sua amizade e carinho, Alderi, Russinho, Val´eria, minha m˜ae N´ızia por todo o apoio que sempre me deu no departamento de matem´atica, a nosso querido secret´ario Rafael.

A professora C´atia e a professora D´ebora, por aceitarem o convite e estarem na minha banca de defesa, foi muito gratificante para mim a presen¸ca de vocˆes.

Ao comit´e gestor da bolsa Reuni e a todas as minhas colegas de bolsa, em especial Maron´ı, gostei muito de ter trabalhado contigo.

(6)

No presente trabalho estudamos a consistˆencia forte de uma classe de estimadores do tipo n´ucleo para a densidade de transi¸c˜ao de uma cadeia de Markov com espa¸co de estados geralERd. A

consistˆencia forte do estimador da densidade de transi¸c˜ao foi obtida a partir da consistˆencia forte dos estimadores do tipo n´ucleo para a densidade marginal da cadeia, pn(·), e da consistˆencia forte dos estimadores do tipo n´ucleo para a densidade conjunta,qn(·,·). Foi considerado que a cadeia ´e homogˆenea e uniformemente erg´odica com densidade inicial estacion´aria p(·).

(7)

Abstract

In this work, we studied the strong consistency for a class of estimates for a transition density of a Markov chain with general state spaceE Rd. The strong ergodicity of the estimates for the

density transition is obtained from the strong consistency of the kernel estimates for both the marginal densityp(.) of the chain and the joint densityq(., .). In this work the Markov chain is supposed to be homogeneous, uniformly ergodic and possessing a stationary density p(.,.).

(8)

Introdu¸c˜ao 9

1 Conceitos Preliminares 13

1.1 Cadeias de Markov com Espa¸co de Estados Geral . . . 13 1.2 Estimadores do Tipo N´ucleo . . . 19

2 Resultados Preliminares. 24

2.1 Condi¸c˜oes sobre a Cadeia {Xn}n≥0, a fun¸c˜ao pesoW e a sequˆenciahn. . . 25 2.2 Resultados utilizados nas demonstra¸c˜oes das consistˆencias . . . 29

3 Consistˆencia Forte dos Estimadores Tipo N´ucleo para Densidade de Transi¸c˜ao. 36

3.1 Estima¸c˜ao da Densidade Marginal . . . 38 3.2 Estima¸c˜ao da Densidade Conjunta . . . 44

Conclus˜ao 51

(9)

Introdu¸

ao

Na inferˆencia estat´ıstica geralmente se trabalha com um conjunto de dados, a fim de se modelar problemas encontrados em situa¸c˜oes reais e esse conjunto de dados pode ser visto como uma amostra aleat´oria de tamanho n {X1, X2, ..., Xn} de um determinado processo estoc´astico

{Xn}n≥0. Ao se trabalhar com esse conjunto de vari´aveis aleat´orias, algumas informa¸c˜oes s˜ao

importantes para o estudo do seu comportamento, como por exemplo, sua fun¸c˜ao densidade, se existe independˆencia entre as vari´aveis, se as vari´aveis envolvidas no processo s˜ao identicamente distribuidas, entre outras. Na maioria dos casos, as fun¸c˜oes densidade s˜ao desconhecidas, o que dificulta a an´alise dos dados, ent˜ao para resolver este problema usamos m´etodos para esti-mar essas densidades. Esses m´etodos podem ser param´etricos, nesse caso sup˜oe-se conhecida a densidade e se estima seus parˆametros ou n˜ao param´etricos onde a fun¸c˜ao de densidade ´e total-mente desconhecida. Esperamos dos estimadores utilizados nesses problemas boas propriedades, propriedades de convergˆencia como n˜ao-v´ıcio assint´otico, consistˆencia, entre outras.

A estima¸c˜ao n˜ao-param´etrica foi inicialmente estudada por Rosenblatt(1956), onde ele con-sidera uma amostra aleat´oria de tamanho n de uma sequˆencia de vari´aveis aleat´orias inde-pendentes e identicamente distribu´ıdas (i.i.d.) com fun¸c˜ao densidade cont´ınua f(y), estuda as propriedades de uma classe de estimadores e prop˜oe uma express˜ao para eles. Em seu estudo Rosenblatt mostra a n˜ao existˆencia de estimadores n˜ao viciados e a existˆencia de estimadores assintoticamente n˜ao viciados. A classe de estimadores proposta no seu artigo foi escrita, como sendo

fn(y) = 1 n

X

j=1

wn(y−XJ)

(10)

A partir da fun¸c˜ao de distribui¸c˜ao emp´ırica

Fn(x) = {

n´umero de observa¸c˜oesxdentreX1, X2,· · · , Xn} n

.

Parzen(1962) construiu a seguinte classe de estimadores

fn(x) = 1 nh

n

X

j=1 K

xXj h

,

chamados estimadores do tipo n´ucleo, tamb´em baseados em uma amostra de tamanho n de uma sequˆencia de vari´aveis aleat´orias i.i.d. . Essa classe de estimadores foi baseada nas fun¸c˜oes tipo n´ucleo K definidas por Parzen, o qual seria uma classe de fun¸c˜oes satisfazendo algumas condi¸c˜oes de regularidade, entre elas ser fun¸c˜ao densidade.

Motivado pelo estudo no caso i.i.d de tais estimadores, Roussas(1969) generaliza tais esti-madores no caso Markoviano, considerando {Xn}n≥0 uma cadeia de Markov estritamente esta-cion´aria, onde estimou a densidade marginal, a densidade conjunta e a densidade de transi¸c˜ao da cadeia. Algumas hip´oteses e condi¸c˜oes foram acrescentadas ao processo e propriedades desses estimadores, antes mostradas por Parzen no caso i.i.d., foram estendidas ao caso markoviano. Mais detalhes sobre esses estudos, tanto como suas hip´oteses, ser˜ao mostrados na Se¸c˜ao 1.2.

Prakasa Rao(1983) fez um estudo sobre estima¸c˜ao n˜ao-param´etrica no caso i.i.d. e tamb´em estima¸c˜ao para processos estoc´asticos. Dentro desse estudo fez uma abordagem geral sobre a teoria dos estimadores do tipo n´ucleo no caso univariado e multivariado.

Neste trabalho estamos interessados no estudo da consistˆencia forte de uma classe de esti-madores da fun¸c˜ao densidade de transi¸c˜ao de uma cadeia de Markov com espa¸co de estados geral. Neste estudo o m´etodo de estima¸c˜ao utilizado ser´a n˜ao param´etrico, pois estamos interessados em estimar uma fun¸c˜ao densidade desconhecida, para tanto usaremos a classe de estimadores do tipo n´ucleo.

Este trabalho ´e baseado em Dorea(2002) onde foi considerada {Xn}n≥1 uma cadeia de Markov estacion´aria e homogˆenea sobre o espa¸co de medida (E,E, ν), com E Rd espa¸co de

estados geral,νuma medidaσ - finita sob (E,E), com fun¸c˜ao densidade inicialp(·) estacion´aria, e n´ucleo de transi¸c˜ao dado por:

P(Xk+1∈A|Xk=x) =P(x, A) =

Z

A

(11)

Introdu¸c˜ao 11

Nesse trabalho foi considerado o Estimador do Tipo N´ucleo da densidade de transi¸c˜aot(y|x) da cadeia, dado por

tn(y|x) =

Pn

k=1(W(h, x, Xk)W(h, y, Xk+1))

Pn

j=1(W(h, x, Xj))

, da densidade marginal,

pn(x) = 1 n

n

X

k=1

W(h, x, Xk)

e da densidade conjunta

qn(x, y) = 1 n

n

X

k=1

W(h, x, Xk)W(h, y, Xk+1).

Dorea(2002) mostra que, sob condi¸c˜oes apropriadas para a fun¸c˜ao W e a sequˆencia hn, os estimadores pn(x) e qn(x, y) s˜ao assintoticamente n˜ao-viciados e fortemente consistentes. A partir da consistˆencia forte desses dois estimadores, verifica-se a consistˆencia forte do estimador da densidade de transi¸c˜ao da cadeiatn(y|x).

Este trabalho est´a dividido em trˆes partes. No Cap´ıtulo 1 introduzimos alguns conceitos preliminares para o entendimento do trabalho. Na Se¸c˜ao 1.1 fazemos uma breve introdu¸c˜ao sobre a teoria de cadeias de Markov com espa¸co de estados geral, pr´e-requisito para entender as defini¸c˜oes e nota¸c˜oes usadas ao longo do trabalho. Na Se¸c˜ao 1.2 ´e feito um referencial te´orico com respeito aos estimadores do tipo n´ucleo, para isso estudamos alguns artigos cl´assicos sobre essa classe de estimadores. Tamb´em ´e feita nessa se¸c˜ao a introdu¸c˜ao de alguns conceitos envolvidos na estima¸c˜ao n˜ao-param´etrica de densidades.

(12)
(13)

Cap´ıtulo 1

Conceitos Preliminares

Temos dois objetivos neste capitulo: o primeiro ´e caracterizar o processo estoc´astico para o qual estamos interessados em estimar a densidade limite, ou seja, uma cadeia de Markov estri-tamente estacion´aria com espa¸co de estados geral. E o segundo ´e fazer uma abordagem sobre o m´etodo utilizado para essa estima¸c˜ao, a saber: os estimadores do tipo n´ucleo. Alguns dos re-sultados nesta se¸c˜ao ser˜ao apresentados sem demonstra¸c˜ao, as mesmas podendo ser encontradas em Athreya e Lahiri(2006).

1.1

Cadeias de Markov com Espa¸

co de Estados Geral

Seja {Xn}n≥0 uma sequˆencia de vari´aveis aleat´orias assumindo valores em algum espa¸co de estados E Rd, n˜ao necessariamente finito ou enumer´avel. A propriedade de Markov diz

que condicionada a X0, X1,· · ·, Xn, a distribui¸c˜ao de Xn+1 depende somente de Xn e n˜ao do seu passado, isto ´e, {Xj;j ≤n−1}. De forma mais precisa, considere (E,E, ν) um espa¸co de medida; ondeν´e uma medidaσ-finita sob (E,E), o espa¸co de probabilidade (Ω;F;P) e{Xn}n≥0 uma sequˆencia de vari´aveis aleat´orias definidas em Ω com valores em E Rd. Vamos denotar por Fn ≡ σh{Xj; 0≤j≤n}i a sub-σ-´algebra de F gerada por {Xj; 0 ≤ j ≤ n} e σ(Xn) a sub-σ-´algebra de F gerada por Xn.

Defini¸c˜ao 1.1 (Cadeia de Markov Homogˆenea): A sequˆencia {Xn}n≥0 ´e uma Cadeia de

Markov se para todo A∈ E,

P Xn+1 ∈A|Fn

=P Xn+1 ∈A|σ(Xn)

(14)

para alguma distribui¸c˜ao de X0. Por simplifica¸c˜ao de nota¸c˜ao escreveremosP Xn+1 ∈ A|Xn

para denotarP Xn+1∈A|σ(Xn)

.

Dizemos ainda que{Xn}´e uma cadeia de Markov homogˆenea se

P(Xn+1 ∈A|Xn) =P(X1 ∈A|X0),∀n≥0. escrevendo

P(Xn+1∈A|Xn) =P(Xn, A), podemos verificar que

P : E× E −→ [0,1] (x, A) 7−→ P(x, A) ´e um n´ucleo de transi¸c˜ao, ou seja, satisfaz:

i) Para cada xE, P(x,·) ´e uma medida de probabilidade sobre (E,E); ii) Para cadaA∈ E, P(·, A) ´e uma fun¸c˜aoE-mensur´avel de (E,E) em [0,1].

Definido o n´ucleo de transi¸c˜ao P(Xn, A) e dada a distribui¸c˜ao de X0 temos uma cadeia de Markov completamente determinada, ou seja, podemos calcular todas as probabilidades de interesse.

Proposi¸c˜ao 1.1 Uma sequˆencia {Xn}n≥0 satisfaz (1.1) se, para algum n∈N e A0, A1,· · · , An∈ E,

P(Xj ∈Aj, j= 0,1,2,· · ·, n) =

Z

A0

· · ·

Z

An−2

Z

An−1

P(xn−1, An)P(xn−2, dxn−1)

(15)

1.1 Cadeias de Markov com Espa¸co de Estados Geral 15

Vejamos dois exemplos de cadeias de Markov com n´ucleo de transi¸c˜ao P(x, A).

Exemplo 1.1 (sequˆencia de v.a.´s i.i.d)Seja{Xn}n≥0 sequˆencia de vari´aveis aleat´orias i.i.d com valores em algum espa¸co E com distribui¸c˜aoµ. Ent˜ao {Xn}n≥0 ´e uma cadeia de Markov com n´ucleo de transi¸c˜aoP(x, A)µ(A) e distribui¸c˜ao inicialµ. De fato, temos

P(Xn+1 ∈A|Fn) =P(Xn+1∈A|σh{Xj : 0≤j≤ni}).

Como as vari´aveis aleat´orias {X1, X2,· · · , Xn} s˜ao independentes e P(Xn+1 ∈A) =µ(A) para todo n, segue

P(Xn+1∈A|Fn) =P(Xn+1 ∈A) =P(Xn+1 ∈A|σhXni) =µ(A).

Exemplo 1.2 (caminho aleat´orio em Rk) Sejam {ηj}j1 vari´aveis aleat´orias i.i.d com

va-lores em Rk e distribui¸c˜ao comum ν. Seja X0 uma vari´avel aleat´oria com valores em Rk inde-pendente de {ηj}j≥1 e com distribui¸c˜ao µ, onde (A−x) = {y ∈ Rk : y = z−xcomz ∈ A} . Defina

Xn+1 = Xn+ηn+1 = X0+

n+1

X

j=1

ηj, n≥0.

Temos que {Xn}n≥0 ´e uma cadeia de Markov com n´ucleo de transi¸c˜ao P(x, A)≡ν(A−x) e distribui¸c˜ao inicialµ.

(16)

Defini¸c˜ao 1.2 (N´ucleo de transi¸c˜ao de n-passos)SejaP(·,·) um n´ucleo de transi¸c˜ao sobre (E,E). Para cadan0, defina uma sequˆencia de fun¸c˜oes{P(n)(·,·)}

n≥0, como sendo, P(n+1)(x, A) =

Z

E

P(n)(y, A)P(x, dy), n0 eP(0)(x, A)IA(x).

P(n)(·,·) definida como acima ´e chamada n´ucleo de transi¸c˜ao de n-passos gerada porP(·,·). Pode-se mostrar, usando indu¸c˜ao, que se X0 =x q.c., ent˜ao,

P(Xn∈A) =P(n)(x, A),∀n≥0 (1.3)

Proposi¸c˜ao 1.2 (Equa¸c˜oes de Chapman-Kolmogorov) SejaP(·,·) uma fun¸c˜ao de proba-bilidade de transi¸c˜ao sobre (E,E) e seja P(n)(·,·) fun¸c˜ao de transi¸c˜ao de n-passos. Ent˜ao para n, m0 e xE

P(n+m)(x, A) =

Z

E

P(n)(y, A)P(m)(x, dy);n0. Vejamos agora a demonstra¸c˜ao da proposi¸c˜ao.

Demonstra¸c˜ao: Seja Ex, Px a esperan¸ca e a distribui¸c˜ao de probabilidade de {Xn}n≥0 quando X0 =x com probabilidade 1.

Sabemos por (1.3) que,

P(n+m)(x, A) = Px(Xn+m ∈A) =

Z

E

I{Xn+m∈A}dPx

. Por defini¸c˜ao de esperan¸ca condicional, temos

P(n+m)(x, A) =

Z

E

I{Xn+m∈A}dPx

. =

Z

E

Ex(I{Xn+m∈A}|Fm)dPx

(17)

1.1 Cadeias de Markov com Espa¸co de Estados Geral 17

e pela propriedade de Markov,

P(n+m)(x, A) = Ex Px(Xn+m ∈A|Fm) = Ex P(Xn+m ∈A|σhXmi) = Ex P(n)(Xm, A)

=

Z

E

P(n)(y, A)P(m)(x, dy)

Para continuarmos a caracteriza¸c˜ao da nossa cadeia de Markov, precisamos dos conceitos de processo estritamente estacion´ario e de distribui¸c˜ao de probabilidade estacion´aria.

Defini¸c˜ao 1.3 (Processo Estritamente Estacion´ario)Seja{Xn}n≥0um processo estoc´astico. Se paras >0, as distribui¸c˜oes conjuntas das fam´ılias de vari´aveis aleat´orias (Xt1+s, Xt2+s,· · ·, Xtn+s)

e (Xt1,· · ·, Xtn) s˜ao as mesmas para todas as escolhas arbitr´arias det1,· · ·, tn, ent˜ao o processo

´e dito estritamente estacion´ario.

por facilidade, ao longo do texto, escreveremos apenas processo estacion´ario.

Defini¸c˜ao 1.4 (Distribui¸c˜ao Estacion´aria) Sejaπ uma fun¸c˜ao de probabilidade absoluta-mente cont´ınua com rela¸c˜ao a uma medidaν definida em E com densidade tamb´em chamadaπ. Dizemos que a distribui¸c˜ao π ´e estacion´aria para a cadeia de Markov com n´ucleo de transi¸c˜ao P, se

π(A) =

Z

E

π(x)P(x, A)ν(dx),para todoA∈ E (1.4) Observa¸c˜ao 1.1 Suponha que a distribui¸c˜ao de probabilidade de X0,π(A) =π(X0 ∈A), A∈

E, ´e uma distribui¸c˜ao estacion´aria, ent˜ao por (1.2) e (1.4) temos que

P(X1 ∈A) = P(X1 ∈A, X0∈E) =

Z

E

P(x0, A)π(dx0) =

Z

E

P(x0, A)π(x0)ν(dx0) = π(A).

(18)

P(Xn∈A) = P(Xn∈A, Xn−1∈E) =

Z

E

P(xn−1, A)π(dxn−1) =

Z

E

P(xn−1, A)π(xn−1)ν(dxn−1) = π(A)

Ou seja, se a distribui¸c˜ao de probabilidade inicial da cadeia ´e uma distribui¸c˜ao estacion´aria, ent˜ao todas as vari´aveisXn tˆem a mesma distribui¸c˜ao, ou ainda, a probabilidade de um determinado evento A ´e a mesma independente de qual momento se encontre o processo.

Observa¸c˜ao 1.2 Se a distribui¸c˜ao de probabilidade inicial do processo ´e estacion´aria, e sendo a cadeia de Markov homogˆenea segue, pela observa¸c˜ao 1.1, que para m 0, o vetor aleat´orio (Xn, Xn+1,· · · , Xn+m) tem a mesma distribui¸c˜ao conjunta para cada n, ou seja,{Xn}n≥0 ´e um processo estacion´ario. De fato, temos que

P(Xt1 ∈A1, Xt2 ∈A2) =P(Xt2 ∈A2|Xt1 ∈A)P(Xt1 ∈A1)

Mas a cadeia ´e homogˆenea e a distribui¸c˜ao inicial ´e estacion´aria, ent˜ao usando a observa¸c˜ao 1.1

P(Xt2 ∈A2|Xt1 ∈A1)P(Xt1 ∈A1) = P(Xt2+s ∈A2|Xt1+s ∈A1)P(Xt1+s ∈A1)

= P(Xt1+s ∈A1, Xt2+s ∈A2),

ou seja,

P(Xt1 ∈A1, Xt2 ∈A2) =P(Xt1+s ∈A1, Xt2+s ∈A2). (1.5)

Agora, supondo que (1.5) ´e valida para n=k, ou seja

(19)

1.2 Estimadores do Tipo N´ucleo 19

vamos mostrar que ´e v´alida para n =k+ 1. Usando a propriedade de Markov e a hip´otese de indu¸c˜ao, temos

P(Xtk+1 ∈Ak+1|Xt1 ∈A1,· · · , Xtk ∈Ak)P(Xt1 ∈A1,· · · , Xtk ∈Ak)

= P(Xtk+1 ∈Ak+1|Xtk ∈Ak)P(Xt1+s ∈A1, Xt2+s ∈A2,· · ·, Xtk+s ∈Ak)

= P(Xtk+1+s ∈Ak+1|Xtk+s ∈Ak)P(Xt1+s ∈A1, Xt2+s ∈A2,· · ·, Xtk+s ∈Ak).

Logo

P(Xt1 ∈A1,· · ·, Xtk ∈Ak, Xtk+1 ∈Ak+1) =P(Xtk+1+s ∈Ak+1|Xtk+s ∈Ak)·

P(Xt1+s ∈A1, Xt2+s ∈A2,· · ·, Xtk+s ∈Ak)

e usando novamente a propriedade de Markkov

P(Xt1 ∈A1,· · · , Xtk ∈Ak, Xtk+1 ∈Ak+1)

= P(Xtk+1+s ∈Ak+1|Xt1+s ∈A1,· · ·, Xtk+s ∈Ak)P(Xt1+s ∈A1,· · · , Xtk+s ∈Ak)

= P(Xt1+s ∈A1,· · · , Xtk+s ∈Ak, Xtk+1+s ∈Ak+1)

1.2

Estimadores do Tipo N´

ucleo

Um dos problemas encontrados ao se trabalhar numa situa¸c˜ao real com uma sequˆencia de vari´aveis aleat´orias ´e que na maioria dos casos, as fun¸c˜oes densidade dessas vari´aveis s˜ao descon-hecidas, n˜ao se sabe nada do seu comportamento, ent˜ao s˜ao usados m´etodos para estimar tais fun¸c˜oes de densidades.

Existem dois tipos de estima¸c˜ao:

• Estima¸c˜ao param´etrica: o tipo da fun¸c˜ao de densidade ´e supostamente conhecida, mas tem-se que estimar o valor dos parˆametros envolvidos. Por exemplo, uma sequˆencia de vari´aveis aleat´orias com distribui¸c˜ao comum N(µ, σ2), onde µ e σ2 s˜ao os parˆametros desconhecidos a serem estimados.

(20)

essa sequˆencia converge, em algum sentido, paraf(x). O m´etodo de estima¸c˜ao estudado nesse trabalho ´e um m´etodo de estima¸c˜ao n˜ao-param´etrica, por isso nossa aten¸c˜ao ser´a voltada para as propriedades desses estimadores.

A sequˆencia de estimadores{fn(x)}n≥1 ´e dita ser I. consistente em m´edia quadr´atica se, para cadax,

lim

n→∞E[fn(x)−f(x)]

2 = 0.

II. consistente em probabilidade ou fracamente consistente se, para todo ǫ > 0 e para cada x,

lim n→∞P

|fn(x)−f(x)| ≤ǫ = 1. Nota¸c˜ao: fn(x)

p

→f(x).

III. fortemente consistente se, para cadax P{lim

n→∞fn(x) =f(x)}= 1.

Nota¸c˜ao: fn(x) q.c

→f(x).

IV. assintoticamente n˜ao viciada se, para cadax, lim

n→∞E[fn(x)] =f(x).

Rosenblatt em 1956, em um trabalho pioneiro, propˆos uma classe de estimadores para fun¸c˜ao densidade atrav´es do estudo do quociente diferencial da fun¸c˜ao de distribui¸c˜ao amostral.

Seja X1, X2,· · · , Xn uma amostra aleat´oria de tamanho n de uma popula¸c˜ao com fun¸c˜ao de distribui¸c˜aoF(x) e fun¸c˜ao densidade f(x). Como f(x) ´e a derivada de F(x), um estimador natural para f(x) seria,

fn(x) =

Fn(x+h)−Fn(x−h)

2h (1.7)

sendo h = hn uma fun¸c˜ao do tamanho da amostra n, hn → 0 quando n → ∞ e a fun¸c˜ao de Distribui¸c˜ao Amostral.

(21)

1.2 Estimadores do Tipo N´ucleo 21

fn(y) =

Z ∞ −∞

wn(y−u)dFn(u) efn(y) = 1 n

X

j=1

wn(y−XJ)

ondewn satisfaz algumas condi¸c˜oes entre elas ser uma fun¸c˜ao densidade.

Parzen em 1962, seguindo a ideia de Rosenblatt, considerou X1, X2,· · ·, Xn uma sequˆencia de vari´aveis aleat´orias independentes e identicamente distribu´ıdas, com fun¸c˜ao de distribui¸c˜ao F(x) =P[Xx] absolutamente cont´ınua, com fun¸c˜ao densidade desconhecidaf(x).

Usando o estimador natural para a fun¸c˜ao densidade, o quociente diferencial,

fn(x) =

Fn(x+h)−Fn(x−h)

2h (1.8)

ondeFne a fun¸c˜ao de Distribui¸c˜ao Emp´ırica Fn ´e definida como sendo,

Fn(x) = {

n´umero de observa¸c˜oesxdentreX1, X2,· · · , Xn} n

e considerando a fun¸c˜aoK(y) definida por

K(y) =

 

1

2, |y| ≤1 0, |y|>1

(1.9)

reescreveu o estimador dado em (1.8), como sendo

fn(x) = 1 nh

n

X

j=1 K

xXj h

. (1.10)

Parzen observou que o estimador obtido com a fun¸c˜ao particularK(y), dada em (1.9), tamb´em poderia ser obtido usando outras fun¸c˜oes, desde que estas fun¸c˜oes satisfizessem as seguintes propriedades de regularidade:

i) sup

−∞<y<∞|K(y)|<∞;

ii)

Z ∞ −∞|

K(y)|dy <; iii) lim

(22)

Estas fun¸c˜oes foram chamadas fun¸c˜oes tipo n´ucleo e deram nome aos estimadores definidos em (1.10). Exemplos de fun¸c˜oes do tipo n´ucleo podem ser encontradas em Parzen(1962).

Os estimadores tipo n´ucleo propostos por Parzen possuem a propriedade de serem assinto-ticamente n˜ao-viciados e consistentes em m´edia quadr´atica.

Roussas(1967), motivado pelos trabalhos que estavam sendo desenvolvidos sobre estima¸c˜ao n˜ao-param´etrica, estudou os estimadores tipo N´ucleo proposto por Parzen no caso em que a amostra aleat´oria faz parte de um processo de Markov Estacion´ario.

Baseando-se nasn+ 1 vari´aveis aleat´oriasXj, j = 1..., n+ 1 do processo de Markov, Roussas considerou os seguintes estimadores, para a densidade marginal,

pn(x) = 1 nh1(n)

n

X

j=1

K1((x−Xj)h−11(n)) e para a densidade conjunta bidimensional,

qn(x, y) = 1 nh2

2 n

X

j=1

K2((x, y)−(Xj, Xj+1)h−21(n))

sendoh1 =h1(n) eh2 =h2(n) s˜ao sequˆencias que tendem a zero eK1 e K2 fun¸c˜oes tipo n´ucleo. Roussas no seu trabalho mostrou o n˜ao-vicio assint´otico e a consistˆencia em m´edia quadr´atica de pn(x) e qn(x, y). A partir desses estimadores, Roussas obteve um estimador n˜ao-viciado e consistente em m´edia quadr´atica para a densidade de transi¸c˜ao do processo.

Campos e Dorea (2001) generalizaram os estimadores tipo n´ucleo no caso i.i.d para a fun¸c˜ao densidadep(·) com respeito a uma medidaσ-finitaνsobre um espa¸co (E,E) ondeE Rd. Nesse

trabalho al´em de ser mostrado o n˜ao-v´ıcio assint´otico e a consistˆencia em m´edia quadr´atica, esta classe de estimadores foi mostrada ser fortemente consistente. A classe de estimadores trabalhados nesse artigo foram escritos como,

pn(x) = 1 n

n

X

k=1

W(h, x, Xk), h=hn. (1.11)

Dorea(2002) generalizou os estimadores do tipo n´ucleo para a densidade estacion´ariap(·) de um processo de Markov com espa¸co de estados geral ERd.

(23)

1.2 Estimadores do Tipo N´ucleo 23

(24)

Resultados Preliminares.

Neste cap´ıtulo temos por objetivo estabelecer as condi¸c˜oes e enunciar os resultados utiliza-dos em Dorea(2002) para a obten¸c˜ao da consistˆenia forte utiliza-dos Estimadores do Tipo N´ucleo da densidade de transi¸c˜ao da cadeia.

Seja{Xn}n≥1 uma cadeia de Markov estacion´aria sob o espa¸co de medida (E,E, ν), ondeν ´e uma medidaσ - finita sob (E,E) com de transi¸c˜ao dado por:

P(Xk+1 ∈A|Xk=x) =P(x, A) =

Z

A

t(x, y)ν(dy),xE,A∈ E. Vamos denotar por p(·) a densidade estacion´aria do processo, isto ´e,

Z

A

p(x)ν(dx) =

Z

E

Pn(y, A)p(y)ν(dy),A∈ E, n= 1,2, . . . Para estimar t(·,·), Dorea(2002) considerou o estimador tipo n´ucleo

tn(x, y) =

Pn

k=1(W(h, x, Xk)W(h, y, Xk+1))

Pn

j=1(W(h, x, Xj))

, (2.1)

sendo W(h, x,·) uma fun¸c˜ao satisfazendo algumas condi¸c˜oes de regularidade.

Para demonstrar a consistˆencia forte de (2.1), Dorea(2002) mostrou a consistˆencia forte do estimador da densidade marginal

pn(x) = 1 n

n

X

k=1

(25)

2.1 Condi¸c˜oes sobre a Cadeia {Xn}n0, a fun¸ao peso W e a sequˆencia hn. 25 e a consistˆencia forte do estimador da densidade conjunta,

qn(x, y) = 1 n

n

X

k=1

W(h, x, Xk)W(h, y, Xk+1). (2.3)

Obtendo desta forma, usando propriedades b´asicas de convergˆencia de vari´aveis aleat´orias(ver Magalh˜aes, pg 319), a consistˆencia forte do estimador da densidade de transi¸c˜ao.

2.1

Condi¸

oes sobre a Cadeia

{

X

n

}

n0

, a fun¸

ao peso

W

e a sequˆ

encia

h

n

.

Nessa se¸c˜ao, com o objetivo de entendermos as condi¸c˜oes impostas a Cadeia e a fun¸c˜ao W, estudamos conceitos importantes como a norma da varia¸c˜ao total eν-continuidade.

Sejaµ uma medida, definimos a norma da varia¸c˜ao total,k·k, como sendo

k= sup A∈E

µ(A) inf B∈Eµ(B)

Defini¸c˜ao 2.1 Dizemos que uma cadeia ´euniformemente erg´odicase existe uma probabilidade P∞sobre (E,E) tal que

sup x∈Ek

Pn(x,·)P∞(·)k

n→∞

→ 0, ondeP∞(A) =RAp(y)ν(dy) ek·k´e a norma de varia¸c˜ao total.

No estudo cl´assico dos Estimadores do Tipo N´ucleo, onde E = Rd e ν ´e a medida de

Lebesgue(ver Prakasa Rao), os resultados de consistˆencia foram obtidos em pontos de con-tinuidade da densidade. Dorea(2002) ao trabalhar com uma medida geralν, precisou da seguinte defini¸c˜ao,

Defini¸c˜ao 2.2 Seja g uma fun¸c˜ao a valores reais sob E, dizemos que x ´e um ponto de ν continuidadede g ouxCν(g), se dadoǫ >0 existeδ >0 tal que

(26)

Para a obten¸c˜ao da consistˆencia forte dos estimadores (2.2) e (2.3) Dorea(2002) impˆos as seguintes condi¸c˜oes sobre a fun¸c˜ao pesoW e a sequˆencia hn:

Condi¸c˜ao 2.1 a) A cadeia ´e uniformemente erg´odica com densidade inicial estacion´ariap(·).

b) Para h=hn>0 eγh(x) =ν{y:|y−x| ≤h} temos, lim

n→∞hn= 0 e limn→∞γh(x) =γ(x)<∞. (2.4)

c) W(h, x,·) ´e uma densidade com respeito a medidaν e satisfaz:

dadoδ >0 paraWδ(h, x, y) =W(h, x, y)I{z:|z−x|>δ}(y) (2.5)

temos

lim

n→∞Wδ(h, x, y) = 0 eWδ(h, x, y)≤Kδ(x)<∞ (2.6)

Mais ainda, parangrande

γh(x)W(h, x, y)≤L(x)<∞. (2.7)

No caso cl´assico quando ν ´e a medida de Lebesgue, consideramosγh(x) = h e γ(x) = 0. A fun¸c˜ao peso ´e tomada como sendo,

W(h, x, y) = 1 hK(

xy h ),

(27)

2.1 Condi¸c˜oes sobre a Cadeia {Xn}n0, a fun¸ao peso W e a sequˆencia hn. 27 Veremos agora alguns exemplos de fun¸c˜oes W que satisfazem as hip´oteses da Condi¸c˜ao 2.1.

Exemplo 2.1 SejaE=Ze ν a medida contadora. Seja,

W(h, i, j) =

    

   

(1−h)h|j−i|

2 , se|j−i| ≥1

1h, sej=i temos que W(h, i, j) ´e uma densidade. De fato,

X

j∈Z

W(h, i, j) = W(h, i, i) +X j6=i

W(h, i, j)

= 1h+1−h 2

X

j6=i h|j−i| = 1h+1−h

2 · 2h 1h = 1

Agora, dado δ > 0, temos que, se |ji| ≤ δ ent˜ao Wδ(h, i, j) = 0, o que implica que lim

n→0Wδ(h, i, j) = 0, nesses pontos. Agora, se |ji|> δ,

Wδ(h, i, j) = W(h, i, j)I{j:|j−i|>δ}

= (1−h)h

|j−i|

2

n→0

−→0,δ >0, e al´em do mais,

Wδ(h, i, j)≤W(h, i, j)≤1 =Kδ(i) Para h pequeno temos γh(i) = 1 e

(28)

Exemplo 2.2 SejaE=Re ν=µ(medida de Lebesgue), considere

W(h, x, y) = 1 h√2πexp

−(x−y)

2

2h2

,

W(h, x,·) ´e a densidade de uma distribui¸c˜ao normal com m´ediax e variˆanciah2. Portanto

Z

R

W(h, x, y)dy= 1 Dado δ >0, para |xy|> δ, temos

xy h > δ h

h→0

→ ∞

Assim, para os pontos onde |xy|> δ

0Wδ(h,x,y) = W(h, x, y)I{y:|x−y|>δ}

= 1

h√2πexp

−(x−y)

2

2h2

I{y:|x−y|>δ}

≤ 1

h√2πexp

− δ 2 2h2 = 1

h√2πe

−δ2

2h2 n→∞→ 0

Para {y :|xy|> δ}, derivandoWδ(h, x, y) em rela¸c˜ao a h,

W′(h, x, y) =e−(x2−hy2)2 ·

(xy)2h2 h4√

>0, parah < δ. Assim, Wδ(h, x, y) ´e crescente para h < δ.

Tomando h0 < δ, temos para 0< h≤h0

Wδ(h, x, y) = 1 h√2πexp

−(x−y)

2

2h2

I{y:|x−y|>δ}(y)

< 1 h0√2πexp

−(x−y)

2

2h2 0

I{y:|x−y|>δ}(y)

< 1 h0√2πexp

− δ 2 2h2 0

(29)

2.2 Resultados utilizados nas demonstra¸c˜oes das consistˆencias 29

Finalmente,

γh(x)W(h, x, y) = 2

2πexp

− (x−y)

2

2h2

≤ √2

2π =L(x).

2.2

Resultados utilizados nas demonstra¸

oes das

con-sistˆ

encias

Um dos resultados mais importantes no estudo dos Estimadores do Tipo N´ucleo ´e o chamado Teorema de Bochner, utilizado em sua vers˜ao inicial emRem Parzen(1962), e estendido para o Rm em Roussas(1967). A vers˜ao desse teorema para um espa¸co de estados geral E foi

estabele-cida em Campos e Dorea(2001).

Lema 2.1 (Campos e Dorea (2001)) Seja g uma fun¸c˜ao integr´avel sob (E,E) e xCν(g). Assuma queW(h, x,·) satisfaz a Condi¸c˜ao 2.1, ent˜ao

lim h→0

Z

E

W(h, x, y)g(y)ν(dy)g(x)

Z

E

W(h, x, y)ν(dy)

= 0 (2.8)

Demonstra¸c˜ao:

SejaxCν(g). Dado ǫ >0 existe δ >0, tal que,

ν{y:|yx| ≤δ;|g(y)g(x)|> ǫ}= 0 Considere A={y:|yx| ≤δ}. Podemos escrever:

Z

E

W(h, x, y)[g(y)g(x)]ν(dy) =

Z

A∪AC

W(h, x, y)[g(y)g(x)]ν(dy) =

Z

A

W(h, x, y)[g(y)g(x)ν(dy) +

Z

AC

W(h, x, y)g(y)ν(dy)g(x)

Z

AC

(30)

Sabemos que, dadaf uma fun¸c˜ao integr´avel, ent˜ao |RBf(x)ν(dx)| ≤RB|f(x)|ν(dx) e assim Z E

W(h, x, y)[g(y)g(x)]ν(dy)

= = Z A

W(h, x, y)[g(y)g(x)ν(dy) +

Z

AC

W(h, x, y)g(y)ν(dy)g(x)

Z

AC

W(h, x, y)ν(dy)

≤ Z A|

W(h, x, y)[g(y)g(x)]|ν(dy) +

Z

AC|

W(h, x, y)g(y)|ν(dy) +|g(x)|

Z

AC|

W(h, x, y)|ν(dy).

Na ´ultima desigualdade chamemosI1 a primeira integral,I2 a segunda eI3 a terceira. Observe que A={y :|yx| ≤δ;|g(y)g(x) ǫ|} ∪ {y :|yx| ≤δ;|g(y)g(x)|> ǫ} e podemos reescrever I1:

Z

A|

W(h, x, y)[g(y)g(x)]|ν(dy) =

Z

{y:|y−x|≤δ;|g(y)−g(x)|≤ǫ|}|

W(h, x, y)[g(y)g(x)]|ν(dy) +

Z

{y:|y−x|≤δ;|g(y)−g(x)>ǫ|}|

W(h, x, y)[g(y)g(x)]|ν(dy) Mas, pela Condi¸c˜ao 2.1, W ´e uma densidade e sendo xCν(g), temos pela Defini¸c˜ao 2.2:

Z

A|

W(h, x, y)[g(y)g(x)]|ν(dy) =

Z

{y:|y−x|≤δ;|g(y)−g(x)≤ǫ|}|

W(h, x, y)[g(y)g(x)]|ν(dy) +

Z

{y:|y−x|≤δ;|g(y)−g(x)>ǫ|}|

W(h, x, y)[g(y)g(x)]|ν(dy)

≤ ǫ+ 0 como ǫfoi qualquer,I1 −→0

Para I2, observe que|W(h, x, y)IAC(y)g(y)|=|Wδ(h, x, y)g(y)| ≤Kδ(x)|g(y)|

ent˜ao, pelo Teorema da Convergˆencia Dominada, temos

lim h→0

Z

AC|

W(h, x, y)g(y)|ν(dy) =

Z

AC

lim

h→0|W(h, x, y)g(y)|ν(dy). Mas pela Condi¸c˜ao 2.1 temos lim

(31)

2.2 Resultados utilizados nas demonstra¸c˜oes das consistˆencias 31

Para I3, j´a queν ´e σ-finita, existe uma sequˆencia En que converge para E comν(En) <∞ e existe n0 tal que,

Z

AC|

Wδ(h, x, y)|ν(dy)−

Z

ACE n0

|Wδ(h,x,y)|ν(dy)≤ǫ.

Pela Condi¸c˜ao 2.1, |Wδ(h, x, y)| ≤ Kδ(x) e desde que ν(AC ∩En0) <∞, pelo Teorema da Convergˆencia Dominada, obtemos

lim h→0

Z

ACE n0

|Wδ(h, x, y)|ν(dy) =

Z

ACE n0

lim

h→0|Wδ(h, x, y)|ν(dy) = 0 Como ǫ´e arbitr´ario, quandoh0, teremos

lim h→0

Z

AC|

Wδ(h, x, y)|ν(dy) = 0 Assim, como 0 Z E

W(h, x, y)g(y)ν(dy)g(x)

Z

E

W(h, x, y)ν(dy)

≤I1+I2+I3

obtemos, pelo Teorema do Sanduiche

lim h→0

Z E

W(h, x, y)g(y)ν(dy)g(x)

Z

E

W(h, x, y)ν(dy)

= 0

Observa¸c˜ao 2.1 Como, pela Condi¸c˜ao 2.1, W ´e uma densidade sobre E, ent˜ao temos

lim h→0

Z

E

W(h, x, y)g(y)ν(dy) =g(x) (2.9)

Observa¸c˜ao 2.2 Se g ´e uma fun¸c˜ao integr´avel sobre Ed e W, definida em Ed, satisfaz as correspondentes hip´oteses da Condi¸c˜ao 2.1, teremos (2.9) comνd=ν× · · · ×ν

| {z }

d vezes

a medida produto

(32)

Observa¸c˜ao 2.3 Em particular, se W′(h,(x, y),(u, v)) = W(h, x, u)W(h, y, v) e γ

h(x, y) = ν2{(u, v) :|(u, v)(x, y)| ≤h}com as fun¸c˜oesW e γh satisfazendo a Condi¸c˜ao 2.1, ent˜ao W′ ´e uma densidade com respeito a ν2 e lim

h→0γ

h(x, y) =γ(x, y)<∞. De fato,

Z

E2

W′(h,(x, y),(u, v))ν2(dudv) =

Z

E

h Z

E

W(h, x, u)W(h, y, v)ν(du)iν(dv) =

Z

E

W(h, y, v)ν(dv) = 1.

Para mostrarmos que lim h→0γ

h(x, y) =γ(x, y)<∞ utilizamos a hip´otese que a fun¸c˜ao γh(·) satisfaz a Condi¸c˜ao 2.1 e provamos a seguinte desigualdade:

γh

2 (x)γh

2

(y)γh′(x, y)γh(x)γh(y). (2.10) Definindo os conjuntosA={u;|ux| ≤ h

2},B={v;|v−y| ≤ h

2}eC={(u, v);|(u, v)−(x, y)| ≤h} n˜ao ´e dif´ıcil mostrar queA×B C. De fato,

dadosuAevBtemos|ux|2 h 2

2 e|v−y| 2 h2

2 , o que implica em|u−x|

2+|vy|2h2, ou seja (u, v) C. Mas se A×B C, ent˜ao ν(A)ν(B) = ν2(A×B) ν2(C) e portanto γh

2 (x)γh

2

(y)γh′(x, y).

Considerando o mesmo conjuntoCe os conjuntosA′ ={u;|ux| ≤h}eB′ ={v;|vy| ≤h}, n˜ao ´e dif´ıcil mostrar queC A×B e desta forma: ν2(C)ν2(A′×B′) =ν(A)ν(B), ou seja, γh′(x, y)γh(x)γh(y), o que prova (2.10).

Temos, a partir da desigualdade

Wδ′(h,(x, y),(u, v))Wδ

2

(h, x, u) +Wδ

2

(h, y, v)

e usando a hip´otese de que a fun¸c˜aoW δ

√ 2

satisfaz (2.6) e queW′(h,(x, y),(u, v)) =W(h, x, u)W(h, y, v) satisfaz:

lim n→∞W

δ(h,(x, y),(u, v)) = 0 eWδ′(h,(x, y),(u, v))≤Kδ(x, y)<∞. sendo Wδ′(h,(x, y),(u, v)) =W′(h,(x, y),·)I{|(u,v)−(x,y)|>δ}(·) e Kδ(x, y) =Kδ

2

(x) +Kδ

2 (y). Mais ainda, por (2.7) temos:

(33)

2.2 Resultados utilizados nas demonstra¸c˜oes das consistˆencias 33

Portanto, se (x, y) pertence ao conjunto dos pontos de ν continuidade da g, Cν2(g) temos pelo Lema 2.1 que

lim h→0

Z

E2

W(h, x, u)W(h, y, v)g(u, v)ν2(dudv) =g(x, y). (2.11) Para a conclus˜ao do teorema que garante a consistˆencia forte do estimador da densidade de transi¸c˜ao que ´e o principal resultado de Dorea(2002), foi feito uso da seguinte proposi¸c˜ao que ´e consequˆencia direta do lema de Borel-Cantelli, onde se trata da convergˆencia quase certa de uma sequˆencia de vari´aveis aleat´orias. Enunciamos a seguir a proposi¸c˜ao e sua demonstra¸c˜ao.

Proposi¸c˜ao 2.1 Seja{Xn}n1uma sequˆencia de vari´aveis aleat´orias sob algum espa¸co de prob-abilidade (Ω,F, P).

a) Se

X

n=1

P(|Xn|> ǫ)<∞ para cada ǫ >0 ent˜ao P( lim

n→∞Xn= 0) = 1

b) Se{Xn}n≥1 s˜ao duas a duas independentes e P( limn→∞Xn= 0) = 1 ent˜ao

X

n=1

P(|Xn|> ǫ)<∞para cadaǫ >0.

Demonstra¸c˜ao:

a) Fixadoǫ >0 sejaAn={|Xn|> ǫ}. Como, por hip´otese,

X

n=1

P(|Xn|> ǫ)<∞, ent˜ao pelo lema de Borel-Cantelli P(limAn) =P(limn→∞Xn) = 0.

Sabemos que,

limAn={ω, tais queωpertence a um numero infinito deAn}

(limAn)C = {ω; existen(ω)<∞tal que para todon≥n(ω), ω /∈An} = {ω; existen(ω)<tal que para todon n(ω),|Xn(ω)|< ǫ} = Bǫ

Assim, temos que,

X

n=1

(34)

Agora, sejaB =

\

r=1 B1

r e note que,

\

r=1 B1

r ={ω; limn→∞|Xn(w)|= 0}.

Como,

0P(BC) =P(

[

r=1 BC1

r

)

X

r=1 P(BC1

r

) = 0

temos que,P(B) = 1, ou seja,

P{ω: lim

n→∞|Xn(ω)|= 0}= 1

o que conclui a demonstra¸c˜ao do item (a) do lema.

b) Suponha, por absurdo, que

X

n=1

P(|Xn|> ǫ0) =∞ para algum ǫ0 >0. SejaAn={|Xn|> ǫ0}, desde que{Xn}n≥1 s˜ao duas a duas independentes, ent˜ao{An}n≥1 tamb´em s˜ao. Pelo Lema de Borel-Cantelli, P(limAn) = 1.

Mas, ωlimAn⇒lim sup

n→∞|Xn| ≥ǫ0. Ent˜ao, P( limn→∞|Xn|= 0) = 0,

o que ´e um absurdo, pois P( lim

n→∞|Xn|= 0) = 1.

Defina Fk=σh{X1,· · · , Xk}ie Fk∞=σh{Xk, Xk+1,· · · }i.

O Teorema 16.0.2 de Meyn e Tweedie(1994), entre as suas v´arias equivalˆencias, mostra que uma Cadeia de Markov uniformemente erg´odica converge com velocidade geom´etrica, ou seja,

kPn(x,·)P∞(·)k ≤βρn. (2.12)

sendo β e ρ constantes com 0ρ <1.

A partir desse resultado temos, para o caso particular da fun¸c˜ao η = IA com A ∈ Fk∞, a demonstra¸c˜ao do seguinte resultado:

(35)

2.2 Resultados utilizados nas demonstra¸c˜oes das consistˆencias 35

E(η|Fj)− Z

ηdP∞

≤βρ

k−j, j = 1,2, . . . , k, (2.13) sendo P∞(A) =

Z

A

p(y)ν(dy) ep a densidade estacion´aria.

A demonstra¸c˜ao das consistˆencias das densidades marginal e conjunta tem por roteiro a verifica¸c˜ao das hip´oteses do seguinte Lema:

Lema 2.3 (Devroye(1991)) SejaG0 ={⊘, E} ⊂ G1 ⊂. . .⊂ Gnuma sequˆencia deσ- ´algebras encaixadas. Seja U uma vari´avel aleat´oriaGn- mensur´avel e integr´avel. Defina a Doob Martin-galeUk=E(U|Gk). Assuma que existe uma vari´avel aleat´oriaGk−1 - mensur´avelVke constantes ak tais queVk≤Uk ≤Vk+ak. Ent˜ao, dadoǫ >0,

P(|U EU| ≥ǫ)4exp

− 2ǫ

2

Pn k=1ak2

(36)

Consistˆ

encia Forte dos Estimadores

Tipo N´

ucleo para Densidade de

Transi¸

ao.

Seja{Xn} uma cadeia de Markov homogˆenea uniformemente erg´odica com densidade inicial estacion´ariap(·). Nosso objetivo neste cap´ıtulo ´e o estudo da demonstra¸c˜ao da consistˆencia forte dos estimadores da densidade inicial,

pn(x) = 1 n

n

X

k=1

W(h, x, Xk) (3.1)

e do estimador da densidade conjunta,q(x, y) =t(y|x)p(x) qn(x, y) =

1 n

n

X

k=1

W(h, x, Xk)W(h, y, Xk+1). (3.2)

Para, finalmente, chegarmos na consistˆencia forte do estimador da densidade de transi¸c˜aot(y|x),

tn(x, y) =

Pn

k=1(W(h, x, Xk)W(h, y, Xk+1))

Pn

j=1(W(h, x, Xj))

. (3.3)

(37)

37

Teorema 3.1 SejaxCν(p) com p(x)>0 e seja (x, y)∈Cν2(t). Assuma que

X

n≥1

exp{−h2(x)γh2(y)α}<, α >0 (3.4)

e queW(h, x,·) e W(h, y,·) satisfazem a Condi¸c˜ao 2.1. Ent˜ao

P( lim

n→∞tn(y|x) =t(y|x)) = 1. (3.5)

Definindo

pn(x) = n1 n

X

k=1

W(h, x, Xk) e qn(x, y) = n1 n

X

k=1

W(h, x, Xk)W(h, y, Xk+1).

Para provar (3.5) Dorea(2002) mostrou que,

P lim

n→∞pn(x) =p(x)

= 1 eP lim

n→∞qn(x, y) =p(x)t(y|x)

= 1. (3.6)

Primeiramente, vamos estudar o n˜ao-v´ıcio assint´otico de pn e qn.

Considerando p(·) a densidade inicial do processo e sendo p(·) a densidade estacion´aria, temosX1, X2,· · · , Xn identicamente distribu´ıdas com densidade marginalp. Assim

E pn(x)

= E1 n

n

X

k=1

W(h, x, Xk)

= 1

n n

X

k=1

E W(h, x, Xk)

= E W(h, x, X1) =

Z

W(h, x, u)p(u)ν(du) e, pelo Lema 2.1, para cadaxCν(p)

(38)

Seguindo o mesmo racioc´ınio,

E qn(x, y)

= E1 n

n

X

k=1

W(h, x, Xk)W(h, y, Xk+1)

= 1

n n

X

k=1

E W(h, x, Xk)W(h, y, Xk+1)

= E W(h, x, X1)W(h, y, X2) =

Z

E2

W(h, x, u)W(h, y, v)p(u)t(u, v)ν2(dudv) e por (2.11), para cada (x, y)Cν2(g) temos

E qn(x, y)

−→p(x)t(y|x) quandon→ ∞. (3.8)

3.1

Estima¸

ao da Densidade Marginal

Estudaremos nesta se¸c˜ao a consistˆencia forte do Estimador da Densidade Marginal. Para provar quepn(x)

q.c

→p(x) ´e suficiente mostrar que

pn(x)−E pn(x) q.c

→0. (3.9)

De fato, observe que

0≤ |pn(x)−p(x)| = |pn(x)−E pn(x)+E pn(x)−p(x)|

≤ |E pn(x)−p(x)|+|pn(x)−E pn(x)|.

e sabemos por (3.7) quepn(x) ´e um estimador assintoticamente n˜ao viciado, ou seja,E pn(x)

p(x)

Mostraremos (3.9) verificando as hip´oteses da Proposi¸c˜ao 2.1 para a sequˆenciapn(x)−E(pn(x)). Note que, pelo item (b) da Condi¸c˜ao 2.1, lim

h→0γh(y) =γ(y), segue que γh(y) ´e uma sequˆencia limitada e portanto existe M > 0 tal que γh(y) ≤ M. Assim, para uma constante αǫ > 0 podemos escrever

(39)

3.1 Estima¸c˜ao da Densidade Marginal 39

e fazendoαǫM2 =α, temos junto com (3.4) a seguinte convergˆencia:

X

n≥1

exp{−nγ2h(x)αǫ} ≤

X

n≥1

exp{−h2(y)γh2(x)α}<

Assim, se provarmos que para ǫ >0 existe αǫ e n0 tal que∀n≥n0 P |pn(x)−E(pn(x))| ≥ǫ

≤4exp{−h2(x)αǫ} (3.10) teremos

X

n=1

P |pn(x)−E(pn(x))| ≥ǫ = n0−1

X

n=1

P |pn(x)−E(pn(x))| ≥ǫ+

X

n=n0

P |pn(x)−E(pn(x))| ≥ǫ

n0−1

X

n=1

P |pn(x)−E(pn(x))| ≥ǫ+

X

n=n1

4exp{−h2(x)αǫ} < .

Logo,

X

n≥1

P|pn(x)−E pn(x)| ≥ǫ

<

e considerando Zn =pn(x)−E(pn(x)), pelo item (a) da Proposi¸c˜ao 2.1, temos a convergˆencia desejada.

Seja

µn=γh(x)E W(h, x, Xk)

(3.11)

e paras0 defina

As(Xj) =

X

r≥s

[E γh(x)W(h, x, Xj+r)|Fj−µn]. (3.12)

Observe que da Condi¸c˜ao 2.1(c), por (2.7)

γh(x)W(h, x, y)≤L(x)<∞.

Sabemos tamb´em que a cadeia satisfaz a Condi¸c˜ao 2.1(a), considerandoη=γh(x)W(h, x, Xj+r), 0sr, temos pelo Lema 2.2, que existem constantes β e 0ρ <1, tais que

E γh(x)W(h, x, Xj+r)|Fj− Z

γh(x)W(h, x, u)p(u)ν(du)

(40)

o que implica em

|E γh(x)W(h, x, Xj+r)|Fj

−γh(x)E W(h, x, Xk)

| ≤βρr, ou seja,

|E γh(x)W(h, x, Xj+r)|Fj−µn| ≤βρr, e portanto:

|As(Xj)| ≤

X

r≥s

βρr =A <. (3.13)

Note que,

A0(Xj)−A1(Xj) =

X

r≥0

[E γh(x)W(h, x, Xj+r)|Fj

−µn]

− X

r≥1

[E γh(x)W(h, x, Xj+r)|Fj−µn] = E γh(x)W(h, x, Xj)|Fj−µn = γh(x)W(h, x, Xj)−µn. Assim definindo U =

n

X

j=2

[A0(Xj)−A1(Xj−1)] e, usando (3.1) e (3.11), podemos escrever: U =

n

X

j=2

[A0(Xj)−A1(Xj−1)]

= [A0(X2)−A1(X1)] + [A0(X3)−A1(X2)] +· · ·+ [A0(Xn−1)−A1(Xn−2)] + [A0(Xn)−A1(Xn−1)] = [A0(X2)−A1(X2)] + [A0(X3)−A1(X3)] +· · ·+ [A0(Xn−1)−A1(Xn−1)]−[A1(X1)−A0(Xn)] =

n−1

X

j=2

[A0(Xj)−A1(Xj)]−[A1(X1)−A0(Xn)]

= n

X

j=1

[A0(Xj)−A1(Xj)]−[A0(X1)−A1(Xn)]

= γh(x) n

X

j=1

W(h, x, Xj)−nµn−[A0(X1)−A1(Xn)] = nγh(x)[pn(x)−E pn(x)

][A0(X1)A1(Xn)]. Assim,

U =nγh(x)[pn(x)−E pn(x)

(41)

3.1 Estima¸c˜ao da Densidade Marginal 41

Vamos agora verificar queU satisfaz as hip´oteses do Lema 2.3 ondeGk =Fk,Vk=Uk−1−2A e ak = 4A.

Pela maneira que foi definida, temos que a vari´avel aleat´oria

U = n

X

j=2

[A0(Xj)−A1(Xj−1)] =nγh(x)[pn(x)−E pn(x)

][A0(X1)−A1(Xn)] (3.15)

´eFn- mensur´avel eVk=Uk−1−2A=E(U|Fk−1)−2A´eFk−1- mensur´avel.

Usando as defini¸c˜oes (3.11) e (3.12) e as propriedades da esperan¸ca condicional temos para k > j

E As(Xj)|Fk = E

X

r≥s

[E γh(x)W(h, x, Xj+r)|Fj−µn]|Fk

= X

r≥s

[E γh(x)W(h, x, Xj+r)|Fj

−µn]

= As(Xj) (3.16)

e, para kj

E As(Xj)|Fk

= E X

r≥s

[E γh(x)W(h, x, Xj+r)|Fj

−µn]|Fk

= X

r≥s

[E γh(x)W(h, x, Xj+r)|Fk−µn]

Observe que, como r s, temos jk+r jk+s. Seja r1 = jk+r > 0, assim, j+r=jk+k+r=r1+k e podemos reescrever

E As(Xj)|Fk

= X

r≥s

[E γh(x)W(h, x, Xj+r)|Fk

−µn]

= X

r1≥j−k+s

[E γh(x)W(h, x, Xk+r1)|Fk

−µn]

(42)

Sendo Uk=E(U|Fk), temos por (3.16) e (3.17) que para 2≤k≤n, Uk = E(U|Fk)

= E n

X

j=2

[A0(Xj)−A1(Xj−1)]|Fk = n

X

j=2

E[A0(Xj)−A1(Xj−1)|Fk] =

k−1

X

j=2

E[A0(Xj)−A1(Xj−1)|Fk] + n

X

j=k

E[A0(Xj)−A1(Xj−1)|Fk] =

k−1

X

j=2

E[A0(Xj)−A1(Xj−1)] +A0(Xk)−A1(Xk−1) + n

X

j=k+1

[Aj−k(Xk)−Aj−1−k+1(Xk)] =

k

X

j=2

[A0(Xj)−A1(Xj−1)]

Por (3.13), temos que|As(Xj)| ≤A ou seja,−A≤As(Xj)≤A e podemos escrever

Uk = k

X

j=2

[A0(Xj)−A1(Xj−1)] =

k−1

X

j=2

[A0(Xj)−A1(Xj−1)] + [A0(Xk)−A1(Xk−1)]

k−1

X

j=2

[A0(Xj)−A1(Xj−1)]−2A = Uk−1−2A

e tamb´em

Uk = k

X

j=2

[A0(Xj)−A1(Xj−1)] =

k−1

X

j=2

[A0(Xj)−A1(Xj−1)] + [A0(Xk)−A1(Xk−1)]

k−1

X

j=2

[A0(Xj)−A1(Xj−1)] + 2A

= Uk−1+ 2A.

(43)

3.1 Estima¸c˜ao da Densidade Marginal 43

Usando (3.14) e propriedades da esperan¸ca temos queU tamb´em satisfazEU = 0. De fato,

EU = E{ n

X

j=2

[A0(Xj)−A1(Xj−1)]} =

n

X

j=2

E[A0(Xj)−A1(Xj−1)] = nγh(x)E[Pn(x)−E Pn(x)

]E[A0(X1)A1(Xn)] = E[A0(X1)A1(Xn)].

CalculandoE[A1(Xn)]−E[A0(X1)], teremos E[A1(Xn)]−E[A0(X1)] =

X

r≥1

E[E γh(x)W(h, x, Xn+r)|Fn−µn]−

X

r≥0

E[E γh(x)W(h, x, X1+r)|F1−µn]

= X

r≥1

[E(γh(x)W(h, x, Xn+r))−µn]−

X

r≥0

[E(γh(x)W(h, x, Xr+1))−µn] = 0.

Portanto podemos escrever a conclus˜ao do Lema 2.3 da seguinte forma:

P(|U EU| ≥ǫ)4exp −2ǫ 2

n16A2 . (3.18)

Com o objetivo de concluirmos (3.9), usando (3.14), podemos escrever

P|pn(x)−E(pn(x))| ≥ǫ

=P|U + [A0(X1)A1(Xn)]| ≥nγh(x)ǫ

≤P|A0(X1)A1(Xn)| ≥

nγh(x)ǫ 2

+P|U EU| ≥ nγh(x)ǫ 2

, mas |A0(·)−A1(·)|´e limitada, portanto existe n0 tal que para todon≥n0 temos P|A0(X1)A1(Xn)| ≥

nγh(x)ǫ 2

= 0 e por (3.18)

P|U EU| ≥ nγh(x)ǫ 2

≤4expnnγ 2 h(x)ǫ2 32A2

o

.

Considerando αǫ = ǫ2

32A2, temos que para todo n≥n0

P|U| ≥ nγh(x)ǫ 2

≤4expnnγh2(x)αǫ

o

(44)

3.2

Estima¸

ao da Densidade Conjunta

Nosso objetivo nesta se¸c˜ao ´e estudar a consistˆencia forte do estimador da densidade conjunta bidimensional e com isso, tendo a consistˆencia forte do estimador da densidade marginal, teremos um estimador fortemente consistente para a densidade de transi¸c˜ao do processo.

Queremos verificar que:

P lim

n→∞qn(x, y) =p(x)t(y|x)

= 1 (3.19)

ou seja,

qn(x, y) q.c.

→ p(x)t(y|x) (3.20)

onde, como j´a definido

qn(x, y) = 1 n

n

X

k=1

W(h, x, Xk)W(h, y, Xk+1). (3.21)

Para isso, como na demonstra¸c˜ao da consistˆencia da densidade marginal, ´e suficiente mostrar que

qn(x, y)−E qn(x, y) q.c

→0. (3.22)

De fato, temos que

0≤ |qn(x, y)−p(x)t(y|x)| ≤ |E qn(x, y)

−p(x)t(y|x)|+|qn(x, y)−E qn(x, y)

|

e sabemos por (3.8) queqn(x, y) ´e um estimador assintoticamente n˜ao viciado, ou seja, E(qn(x, y))

q.c

→p(x)t(y|x). Mostraremos (3.22) verificando as hip´oteses da Proposi¸c˜ao 2.1 para a sequˆenciaqn(x, y)−E qn(x, y)

.

Se verificarmos que, dado ǫ >0, existeβǫ >0 en0, tal que para todon≥n0

P(|qn(x, y)−Eqn(x, y)| ≥ǫ)≤4exp{−nγh2(x)γh2(y)βǫ}. (3.23) teremos, junto com (3.4)

X

n=1

P |qn(x, y)−Eqn(x, y)| ≥ǫ

= n0−1

X

n=1

P |qn(x, y)−Eqn(x, y)| ≥ǫ

+

X

n=n0

P |qn(x, y)−Eqn(x, y)| ≥ǫ

n0−1

X

n=1

P |qn(x, y)−Eqn(x, y)| ≥ǫ

+

X

n=n0

(45)

3.2 Estima¸c˜ao da Densidade Conjunta 45

E novamente, considerando Zn =qn(x, y)−Eqn(x, y), pelo item (a) da Proposi¸c˜ao 2.1, temos (3.19).

Seja

ρn=γh(x)γh(y)E{W(h, x, Xk)W(h, y, Xk+1)} (3.24) e paras0 ej1 defina,

Bs(Fj+1) =

X

r≥s

[E γh(x)γh(y)W(h, x, Xj+r)W(h, y, Xj+1+r)|Fj+1

−ρn] (3.25) Verificaremos agora queBs(·) est´a bem definida. Para s= 0: observe que

|B0(Fj+1)| = |

X

r≥0

[E γh(x)γh(y)W(h, x, Xj+r)W(h, y, Xj+1+r)|Fj+1

−ρn]| = |[E γh(x)γh(y)W(h, x, Xj)W(h, y, Xj+1)|Fj+1−ρn] +B1(Fj+1)|

≤ |[E γh(x)γh(y)W(h, x, Xj)W(h, y, Xj+1)|Fj+1|+|ρn]|+|B1(Fj+1)|. Da Condi¸c˜ao 2.1(c) temos γh(x)W(h, x,·)≤L(x)<∞, ent˜ao

γh(x)W(h, x, u)γh(y)W(h, y, v)≤L(x)L(y). Logo temos

E γh(x)γh(y)W(h, x, Xj)W(h, y, Xj+1)|Fj+1

≤ E L(x)L(y)|Fj+1

= L(x)L(y) e tamb´em

|ρn| ≤L(x)L(y). Assim,

|B0(Fj+1)| ≤2L(x)L(y) +|B1(Fj+1)|. Agora, para s= 1, temos

|B1(Fj+1)| = |

X

r≥0

[E γh(x)γh(y)W(h, x, Xj+r)W(h, y, Xj+1+r)|Fj+1−ρn]| = |[E γh(x)γh(y)W(h, x, Xj)W(h, y, Xj+1)|Fj+1−ρn] +B2(Fj+1)|

(46)

Agora, novamente pela Condi¸c˜ao 2.1(c) temos que γh(x)W(h, x, Xj+1)≤L(x) e γh(y)W(h, y, Xj+2)≤L(y).

Assim

E γh(x)γh(y)W(h, x, Xj+1)W(h, y, Xj+2)|Fj+1 ≤ E[L(x)L(y)|Fj+1] = L(x)L(y).

Desse modo, teremos

|B1(Fj+1)| = |[E γh(x)γh(y)W(h, x, Xj+1)W(h, y, Xj+2)|Fj+1

−ρn] +B2(Fj+1)|

≤ |L(x)L(y)|+|ρn|+|B2(Fj+1)|

≤ |L(x)L(y)|+|L(x)L(y)|+|B2(Fj+1)| = 2|L(x)L(y)|+|B2(Fj+1)|

= 2L(x)L(y) +|B2(Fj+1)|. Logo, paras <2, temos que

|Bs(Fj+1)| ≤ 2L(x)L(y) +|Bs+1(Fj+1)|.

Assim, vemos que paras <2, a limita¸c˜ao deBs(Fj+1) depende da limita¸c˜ao de Bs+1(Fj+1). Estudaremos agora o que ocorre com Bs(Fj+1) quandos≥2.

Para s2, temos, Bs(Fj+1) =

X

r≥s

Z

E2

γh(x)γh(y)W(h, x, u)W(h, y, v)[Pr−1(Xj+1, du)−P∞(du)]P(u, dv).

Da Condi¸c˜ao 2.1(c) e usando 2.13, temos existem constantesβ e ρ,0ρ <1 tais que

|Bs(Fj+1)| ≤ L(y)

X

r≥s

Z

E2

γh(x)W(h, x, u)[Pr−1(Xj+1, du)−P∞(du)]

≤ L(x)L(y)X r

βρr < .

Seja B tal que,

|Bs(Fj+1)| ≤B <∞ (3.26) Note que

(47)

3.2 Estima¸c˜ao da Densidade Conjunta 47

Definindo U =Pnj=2[B0(Fj+1)−B1(Fj)] e de (3.2) e (3.28) podemos escrever,

U = n

X

j=2

[B0(Fj+1)−B1(Fj)]

= [B0(F3)−B1(F2)] + [B0(F4)−B1(F3)] +· · ·+ [B0(Fn)−B1(Fn−1)] + [B0(Fn+1)−B1(Fn)] = [B0(F3)−B1(F3)] + [B0(F4)−B1(F4)] +· · ·+ [B0(Fn−1)−B1(Fn−1)] + [B0(Fn)−B1(Fn)] +

[B0(Fn+1)−B1(F2)] =

n+1

X

j=2

[B0(Fj+1)−B1(Fj+1)] + [B1(Fn+1)−B0(F2)]

= n

X

j=1

[B0(Fj+1)−B1(Fj+1)] + [B1(Fn+1)−B0(F2)] = nγh(x)γh(y)[qn(x, y)−E qn(x, y)

][B0(F2)B1(Fn+1)]. Assim,

U = nγh(x)γh(y)[qn(x, y)−E qn(x, y)]−[B0(F2)−B1(Fn+1)]. (3.27) Verificaremos agora queU satisfaz as hip´oteses do Lema 2.3 ondeGk =Fk+1,Vk=Uk−1−2B e ak = 4B.

Temos que a vari´avel aleat´oria

U = n

X

j=2

[B0(Fj+1)−B1(Fj+1)] =nγh(x)γh(y)[qn(x, y)−Eqn(x, y)]−[B0(F2)−B1(Fn+1)] ´eFn+1- mensur´avel pela maneira que foram definidas e que Vk =Uk−2B =E(U|Fk−1)−2B ´eFk−1- mensur´avel.

Agora, para k > j, usando as defini¸c˜oes (3.28), (3.29) e propriedades de esperan¸ca condi-cional, temos

E Bs(Fj+1)|Fk+1 = E

X

r≥s

[E γh(x)γh(y)W(h, x, Xj+r)W(h, y, Xj+1+r)|Fj+1−ρn]|Fk+1

= X

r≥s

[E γh(x)γh(y)W(h, x, Xj+r)W(h, y, Xj+1+r)|Fj+1

−ρn]

= Bs(Fj+1) (3.28)

e, para kj E Bs(Fj+1)|Fk+1

= E X

r≥s

[E γh(x)γh(y)W(h, x, Xj+r)W(h, y, Xj+1+r)|Fj+1−ρn]|Fk+1

= X

r≥s

(48)

Observe que, como r s, temos j k+r j k+s. Seja r1 = j−k+r > 0, ent˜ao j+r=jk+k+r=r1+k. Logo, na ultima igualdade reescrevemos

E Bs(Fj+1)|Fk+1 =

X

r≥s

[E γh(x)γh(y)W(h, x, Xj+r)W(h, y, Xj+1+r)|Fk+1−ρn]

= X

r1≥j−k+s

[E γh(x)γh(y)W(h, x, Xk+r1)W(h, y, Xk+1+r1)|Fk+1

−ρn]

= Bj−k+s(Fk+1). (3.29)

Assim, sendo Uk=E(U|Fk+1), usando (3.28) e (3.29), para 2≤k≤n, temos

Uk = E(U|Fk+1) = E{

n

X

j=2

[B0(Fj+1)−B1(Fj)]|Fk+1}

= k−1

X

j=2

E[B0(Fj+1)−B1(Fj)|Fk+1] + n

X

j=k

E[B0(Fj+1)−B1(Fj)|Fk+1]

= k−1

X

j=2

[B0(Fj+1)−B1(Fj)] +B0(Fk+1)−B1(Fk) + n

X

j=k+1

[Bj−k(Fk+1)−Bj−1−k+1(Fk+1)] =

k

X

j=2

[B0(Fj+1)−B1(Fj)]. (3.30)

Usando (3.26) e (3.30), ´e de f´acil verifica¸c˜ao que

Uk−1−2B ≤Uk≤Uk−1+ 2B. Logo,

(49)

3.2 Estima¸c˜ao da Densidade Conjunta 49

Temos que, usando (3.27) e propriedades de probabilidade condicional tamb´em ´e v´alido que EU = 0. De fato

EU = E{ n

X

j=2

[B0(Fj+1)−B1(Fj)]}

= n

X

j=2

E[B0(Fj+1)−B1(Fj)]

= nγh(x)γh(y)E[qn(x, y)−E qn(x, y)

]E[B0(F2)B1(Fn+1)] = E[B0(F2)−B1(Fn+1)].

Mas, temos que,

E[B0(F2)] =

X

r≥0

E[E γh(x)γh(y)W(h, x, X1+r)W(h, y, X2+r)|F2

−ρn]

= X

r≥1

E[ γh(x)γh(y)W(h, x, X1+r)W(h, y, X2+r)

−ρn] = 0

e tamb´em

E[B1(Fn+1)] =

X

r≥1

E[ γh(x)γh(y)W(h, x, Xn+r)W(h, y, Xn+1+r)−ρn] = 0.

Portanto o resultado do Lema 2.3 pode ser reescrito como,

P(|U| ≥ǫ)4exp{ −2ǫ 2

n32B2}. (3.31)

Assim, para concluirmos (3.29), usando (3.34) temos que

P|qn(x, y)−E(qn(x, y))| ≥ǫ

=P|U+ [B0(F2)−B1(Fn+1)]| ≥nγh(x)γh(y)ǫ

≤P|B0(F2)−B1(Fn+1)| ≥

nγh(x)γh(y)ǫ 2

+P|UEU| ≥ nγh(x)γh(y)ǫ 2

. Como|B0(·)−B1(·)|´e limitada, existen0 tal que para todon≥n0

P|B0(F2)−B1(Fn+1)| ≥

nγh(x)γh(y)ǫ 2

(50)

e por (3.31),

P|U| ≥ nγh(x)γh(y)ǫ 2

≤4expnnγ 2

h(x)γh2(y)ǫ2 32B2

o

.

Considerando βǫ = ǫ2 32B2,

P|U| ≥ nγh(x)γh(y)ǫ 2

≤4expnh2(x)γh2(y)βǫ

o

Como queriamos verificar. Assim, comopn(x)

q.c.

→ p(x) eqn(x, y) q.c

→p(x)t(y|x), pelo teorema de Slutsky, temostn(y|x) q.c

(51)

Conclus˜

ao

Neste trabalho, baseados em Dorea(2002), estudamos a consistˆencia forte do estimador do tipo n´ucleo para a densidade de transi¸c˜ao de uma cadeia de Markov uniformemente erg´odica, com densidade inicial estacion´aria e espa¸co de estados geralE Rd. O estimador da densidade

de transi¸c˜ao do processo foi definido como sendo

tn(x, y) =

Pn

k=1(W(h, x, Xk)W(h, y, Xk+1))

Pn

j=1(W(h, x, Xj))

.

com a fun¸c˜ao pesoW(h,·,·) e a sequˆenciah satisfazendo certas condi¸c˜oes de regularidade. Para verificar a consistˆencia forte de tal estimador foi verificada a consistˆencia forte do estimador da densidade marginal, definido como sendo

pn(x) = 1 n

n

X

k=1

W(h, x, Xk)

e a consistˆencia forte do estimador da densidade conjunta definido por

qn(x, y) = 1 n

n

X

k=1

W(h, x, Xk)W(h, y, Xk+1). .

Foi verificado que tanto o estimador da densidade marginal, como o estimador da densidade conjunta s˜ao assintoticamente n˜ao viciados, ou seja

lim

n→∞E[pn(x)] =p(x),∀x∈Cν(p)

(52)

lim

n→∞E[qn(x, y)] =p(x)t(y|x).

A partir da consistˆencia forte desses dois estimadores, usando propriedades b´asicas de con-vergˆencia de sequˆencias de vari´aveis aleat´orias, fica verificada a consistˆencia forte do estimador da densidade de transi¸c˜ao da cadeia.

(53)

Referˆ

encias Bibliogr´

aficas

[1] ATHREYA, K. B.; LAHIRI, S. N. Measure Theory and Probability Theory, Ed. Springer,2006.

[2] CAMPOS, V.S.M.;DOREA, C.C.Y. Kernel estimation for stationary density of Markov chains with general state space. Ann. Inst. Statist. Math.. vol.57, p. 443-453, 2005.

[3] DASGUPTA, A. Asymptotic Theory of Statistics and Probability. Ed. Springer, 2008.

[4] DOREA, C.C.Y.Strong consistency of Kernel estimators for Markov transition densities.

Bull Braz. Math Society. vol. 33, p. 409 - 418, 2002.

[5] DURRETT, R. Essentials of Stochastic Processes. Ed.Springer, 1999.

[6] DURRETT, R. Probability: Theory and Examples. Thomson Brooks/Cole. 3a ed. 2005.

[7] MAGALH ˜AES, M. N.Probabilidade e Vari´aveis Aleat´orias.2a edi¸c˜ao. Edusp. S˜ao Paulo. 2006.

[8] PARZEN, E. On estimation of a probability density function and mode. Annals of the Institute of Statistical mathematics, vol. 33, p. 1065 - 1076, 1962.

[9] PRAKASA RAO, B.L.S. Nonparametric Functional Estimation. Academic Press. 1983.

[10] ROSENBLAT, M. Remarks on some nonparametric estimates of a density function. The Annals of Mathematical Statistics, vol. 27, p. 832 - 837, 1956.

[11] ROSS, S. M. Stochastic Processes. 2a ed. J. Wiley. 1967.

(54)

Referências

Documentos relacionados

O relatório encontra-se dividido em 4 secções: a introdução, onde são explicitados os objetivos gerais; o corpo de trabalho, que consiste numa descrição sumária das

psicológicos, sociais e ambientais. Assim podemos observar que é de extrema importância a QV e a PS andarem juntas, pois não adianta ter uma meta de promoção de saúde se

Este estudo tem como objetivos identificar os níveis de trauma manifestados e de estratégias de coping utilizadas pelos TEPH; caracterizar os incidentes mais

forficata recém-colhidas foram tratadas com escarificação mecânica, imersão em ácido sulfúrico concentrado durante 5 e 10 minutos, sementes armazenadas na geladeira (3 ± 1

The efficiency of extraction of phenolic compounds with water was demonstrated once more by the fact that the aqueous extract, under the same conditions of concentration and reaction

Dessa forma, a partir da perspectiva teórica do sociólogo francês Pierre Bourdieu, o presente trabalho busca compreender como a lógica produtivista introduzida no campo

Os supercondutores magnéticos, volantes de inércia e os condensadores são apropriados para aplicações que necessitam de grande potência de saída em pouca

In this work, alginate microspheres containing α-tocopherol were produced and evaluated for encapsulation efficiency and release profiles at different pH conditions