• Nenhum resultado encontrado

Estrutura de Covariância Espacial Multivariada Não Separável

N/A
N/A
Protected

Academic year: 2021

Share "Estrutura de Covariância Espacial Multivariada Não Separável"

Copied!
65
0
0

Texto

(1)

Estrutura de covariˆ

ancia espacial

multivariada n˜

ao separ´

avel

Rafael Santos Erbisti

Universidade Federal do Rio de Janeiro

Instituto de Matem´

atica

Departamento de M´etodos Estat´ısticos

2015

(2)

Estrutura de covariˆ

ancia espacial multivariada n˜

ao

separ´

avel

Rafael Santos Erbisti

Disserta¸c˜ao de Mestrado submetida ao Programa de P´os-Gradua¸c˜ao em Estat´ıstica do Instituto de Matem´atica da Universidade Federal do Rio de Janeiro - UFRJ, como parte dos requisitos necess´arios `a obten¸c˜ao do t´ıtulo de Mestre em Estat´ıstica.

Aprovada por:

Tha´ıs Cristina Oliveira da Fonseca DME/IM - UFRJ - Orientadora.

Mariane Branco Alves DME/IM - UFRJ - Coorientadora.

Alexandra Mello Schmidt DME/IM - UFRJ.

Juliano Junqueira Assun¸c˜ao Dpto. Economia - PUC Rio.

Rio de Janeiro, RJ - Brasil 2015

(3)

CIP - Catalogação na Publicação

Elaborado pelo Sistema de Geração Automática da UFRJ com os dados fornecidos pelo(a) autor(a).

E65e

Erbisti, Rafael Santos

Estrutura de covariância espacial multivariada não separável / Rafael Santos Erbisti. -- Rio de Janeiro, 2015.

53 f.

Orientadora: Thaís Cristina Oliveira da Fonseca. Coorientadora: Mariane Branco Alves.

Dissertação (mestrado) - Universidade Federal do Rio de Janeiro, Instituto de Matemática, Programa de Pós-Graduação em Estatística, 2015. 1. geoestatística. 2. funções de covariância cruzada. 3. funções de covariância espacial multivariada não separáveis. 4. dimensões latentes. 5. inferência bayesiana. I. Fonseca, Thaís Cristina Oliveira da, orient. II. Alves, Mariane Branco, coorient. III. Título.

(4)

Aos meus pais, pela educa¸c˜ao, exemplo e incentivo que sempre deram.

(5)

Agradecimentos

A todos que contribu´ıram para a realiza¸c˜ao deste trabalho, fica expresso aqui minha gratid˜ao, especialmente:

As minhas orientadoras, Thais Fonseca e Mariane Alves, pela disponibilidade e de-dica¸c˜ao. Agrade¸co por poder trabalhar com t˜ao excelentes profissionais. O conhecimento e experiˆencia transmitidos por vocˆes foram essenciais para meu desenvolvimento.

Aos meus pais, Renzo Erbisti e Bellanir Erbisti, por sempre acreditarem e me apoia-rem em todos os momentos. Sem vocˆes nada disso seria poss´ıvel.

A minha irm˜a, Juliana Erbisti, pelo companheirismo e amizade de toda a vida. A Paloma Rocha, por me apoiar em todos os momentos, me ajudando no que fosse preciso, sempre com muito amor, carinho e paciˆencia.

Agrade¸co aos amigos Caroline Ponce, Juliana Freitas e Luiz Fernando Costa, que me acompanharam durante esses dois anos de mestrado. Dividimos experiˆencias, preo-cupa¸c˜oes e madrugas em claro, mas tamb´em dividimos alegrias, muitas risadas e bons momentos, principalmente `as ter¸cas-feiras, quando, depois de horas de estudo, ped´ıamos pizza para aliviar o estresse.

A Paulo Tafner e Carolina Botelho, por todo apoio e colabora¸c˜ao.

A professora Alexandra Schmidt, pelo apoio e incentivo que recebi desde a conversa que tivemos ao final do processo seletivo do mestrado.

Agrade¸co a todos os professores do programa de p´os-gradua¸c˜ao em Estat´ıstica da UFRJ que, de alguma forma, contribu´ıram para a minha forma¸c˜ao.

(6)

Resumo

A aplica¸c˜ao de modelos espaciais tem crescido substancialmente em diversas ´areas, como, por exemplo, nas ciˆencias ambientais, ciˆencias clim´aticas e agricultura. O obje-tivo deste trabalho ´e introduzir uma nova classe de fun¸c˜oes de covariˆancia n˜ao separ´avel para dados espaciais multivariados. Com isso, precisamos especificar uma fun¸c˜ao de co-variˆancia cruzada v´alida, que define a dependˆencia entre componentes do vetor resposta entre as localiza¸c˜oes. Entretanto, sabemos que fun¸c˜oes de covariˆancia cruzada n˜ao s˜ao simples de serem especificadas. A fun¸c˜ao de covariˆancia n˜ao separ´avel proposta ´e base-ada na combina¸c˜ao convexa de fun¸c˜oes de covariˆancia separ´aveis e em dimens˜oes latentes que representam as componentes. A partir de algumas proposi¸c˜oes foi observado que a estrutura de covariˆancia encontrada ´e v´alida e flex´ıvel. Al´em disso, utilizamos apro-xima¸c˜oes de matrizes de covariˆancia cheia a partir do produto de Kronecker de duas matrizes separ´aveis de menor dimens˜ao. Essas aproxima¸c˜oes foram aplicadas apenas na fun¸c˜ao de verossimilhan¸ca para que a interpreta¸c˜ao do modelo n˜ao fosse desconsiderada. Analisamos o caso mais simples do modelo proposto e encontramos resultados bastante satisfat´orios. Vimos tamb´em que h´a a necessidade de estudar outras especifica¸c˜oes da fun¸c˜ao proposta.

Palavras-Chaves: geoestat´ıstica, modelos espaciais multivariados, fun¸c˜oes de covariˆancia cruzada, fun¸c˜oes de covariˆancia espacial multivariada n˜ao separ´aveis, dimens˜oes latentes, inferˆencia bayesiana.

(7)

Abstract

Spatial models have been increasingly applied in several areas, such as environmental science, climate science and agriculture. This work aimed to introduce a new class of non-separable covariance functions for multivariate spatial data. Therefore, we have to specify a valid cross-covariance function, which defines the dependency of the response vector components between the locations. However, we know that cross-covariance functions are not easily specified. In this work, we propose a nonseparable covariance function that is based on the convex combination of separable covariance functions and on the latent dimensions that represent the components. Based on some propositions, it was observed that this covariance structure is valid and flexible. Moreover, we use approximations of full-covariance matrices from the Kronecker product of two separable matrices of minor dimensions. These approximations have been applied only to the likelihood function in order to not disregard the interpretation of the model. We analyzed the simplest case of the proposed model and satisfactory results were obtained. Furthermore, we observed that it is necessary to study other specifications of the proposed function.

Keywords: geostatistics, multivariate spatial models, cross covariance functions, non-separable multivariate spatial covariance, functions, latent dimensions, bayesian infe-rence.

(8)

Sum´

ario

1 Introdu¸c˜ao 1

2 Modelos para an´alise geoestat´ıstica 4

2.1 Introdu¸c˜ao . . . 4

2.2 Modelo univariado . . . 6

2.3 Modelo multivariado . . . 7

2.3.1 Modelos separ´aveis . . . 8

2.3.1.1 Limita¸c˜oes dos modelos separ´aveis . . . 8

2.3.2 Algumas propostas de modelos multivariados. . . 10

3 Modelo proposto 14 3.1 Introdu¸c˜ao . . . 14

3.2 Representa¸c˜ao por mistura . . . 14

3.2.1 Introdu¸c˜ao. . . 14

3.2.2 Representa¸c˜ao por mistura proposta . . . 15

3.2.3 Estrutura de covariˆancia n˜ao separ´avel . . . 16

3.2.4 Fun¸c˜ao proposta . . . 18

3.2.4.1 Reparametriza¸c˜ao . . . 18

3.2.4.2 Alguns modelos . . . 20

3.2.5 Conclus˜oes. . . 22

4 Procedimento de inferˆencia 23 4.1 Introdu¸c˜ao . . . 23

(9)

4.2 Inferˆencia Bayesiana . . . 24

4.2.1 Especifica¸c˜oes . . . 24

4.2.2 Previs˜ao . . . 25

5 Aproxima¸c˜oes separ´aveis 27 5.1 Introdu¸c˜ao . . . 27

5.2 Solu¸c˜ao do problema PPKCC . . . 28

5.3 Erro de aproxima¸c˜ao . . . 29

5.3.1 Comportamento do erro de aproxima¸c˜ao . . . 30

5.4 Utilizando a aproxima¸c˜ao separ´avel . . . 30

6 Exemplos simulados 39 6.1 Introdu¸c˜ao . . . 39

6.2 Simula¸c˜ao 1 . . . 39

6.3 Simula¸c˜ao 2 . . . 42

6.4 Coment´arios . . . 43

(10)

Lista de Tabelas

5.1 Resumo das distribui¸c˜oes a posteriori de cada modelo. . . 34

(11)

Lista de Figuras

5.1 Erro de Aproxima¸c˜ao por Separabilidade variando o valor do parˆametro de separabilidade α0. Linha vermelha avalia o erro utilizando duas

compo-nentes (p = 2) e a linha preta com trˆes componentes (p = 3). (a) Mesmos alcances espaciais. (b) Alcances espaciais diferentes para cada componente. 31

5.2 Resumo das observa¸c˜oes simuladas: (a) localiza¸c˜oes. (b) matriz de co-variˆancia. (c) histograma da componente 1. (d) histograma da compo-nente 2. . . 32

5.3 Curvas de contorno da fun¸c˜ao de verossimilhan¸ca. (1) curvas em preto: estrutura de covariˆancia n˜ao separ´avel. (2) curvas em vermelho: estrutura de covariˆancia aproximada. . . 36

5.4 Curvas a posteriori e curva a priori. (1) curva vermelha: posteriori estru-tura aproximada. (2) curva preta: posteriori estruestru-tura n˜ao separ´avel. (3) curva azul tracejada: priori. . . 37

5.5 Previs˜oes e erro quadr´atico m´edio (EQM). (1) pontos vermelhos: valores observados. (2) pontos pretos: valores preditos. . . 38

6.1 Cadeias da distribui¸c˜ao a posteriori. (1) linha azul: valor verdadeiro. . . 44

6.2 Histograma da distribui¸c˜ao a posteriori. (1) linha vermelha: verdadeiro valor. . . 45

6.3 Fun¸c˜oes de covariˆancia: mediana a posteriori (linha azul cheia), intervalo de credibilidade de 95% (linha azul tracejada), fun¸c˜ao do modelo original (linha verde cheia). . . 46

(12)

6.5 Fun¸c˜oes de covariˆancia: mediana a posteriori (linha azul cheia), intervalo de credibilidade de 95% (linha azul tracejada), fun¸c˜ao do modelo original (linha verde cheia). . . 48

(13)

Cap´ıtulo 1

Introdu¸

ao

A estat´ıstica espacial ´e a ´area da estat´ıstica que estuda m´etodos para a coleta, des-cri¸c˜ao, visualiza¸c˜ao, modelagem e an´alise de dados que possuem coordenadas geogr´aficas, ou seja, ´e a ´area na qual se considera a importˆancia do arranjo espacial na an´alise ou inter-preta¸c˜ao dos resultados. De fato, na avalia¸c˜ao de certos tipos de fenˆomenos a utiliza¸c˜ao da dimens˜ao espacial pode trazer resultados mais realistas do que quando a ignoramos. Por exemplo, ao tratarmos dados sobre pre¸cos de im´oveis na cidade do Rio de Janeiro fica clara a importˆancia de considerar informa¸c˜oes sobre localiza¸c˜oes geogr´aficas na mo-delagem, j´a que muitos fatores espaciais podem influenciar o pre¸co de um im´ovel, tais como proximidade de regi˜oes de favela, tipos de transportes p´ublicos no entorno etc.

Os diferentes tipos de dados espaciais s˜ao geralmente classificados de acordo com sua natureza. De maneira geral, podemos dizer que a estat´ıstica espacial pode ser dividida em trˆes grandes ´areas: processos pontuais, dados de ´area e geoestat´ıstica (Cressie,1993). Neste trabalho iremos nos concentrar em dados georreferenciados, que segundo Sch-midt e Sans´o(2006), s˜ao obtidos a partir de localiza¸c˜oes fixas ao longo de uma regi˜ao de interesse, possivelmente em diferentes instantes do tempo. Ao analisar observa¸c˜oes desse tipo, espera-se que medidas feitas em localiza¸c˜oes pr´oximas entre si sejam altamente correlacionadas, enquanto que para localiza¸c˜oes separadas por grandes distˆancias, ocorra um comportamento mais independente. Como exemplo, podemos considerar a tempera-tura medida nas esta¸c˜oes meteorol´ogicas de Copacabana, Ipanema e Bangu. ´E razo´avel pensar que haja um comportamento semelhante entre as temperaturas de Copacabana e

(14)

Ipanema, por´em, as temperaturas de Copacabana e Bangu tendem a ser independentes, devido `a distˆancia entre essas duas regi˜oes. Com isso, ´e natural pensar que o principal in-teresse na modelagem de dados georreferenciados ´e especificar uma fun¸c˜ao que capte essa dependˆencia espacial. Neste contexto, a fun¸c˜ao que desempenha esse papel ´e a fun¸c˜ao de covariˆancia.

A utiliza¸c˜ao de fun¸c˜oes de covariˆancia estacion´arias e isotr´opicas ´e bastante comum. Segundo Schmidt e Sans´o (2006) estacionariedade exige que as fun¸c˜oes de m´edia e co-variˆancia sejam invariantes sob transla¸c˜oes e isotropia corresponde a uma simetria radial onde a dependˆencia entre localiza¸c˜oes ´e determinada, simplesmente, pela distˆancia entre elas.

A aplica¸c˜ao de modelos espaciais tem crescido substancialmente em diversas ´areas. Frequentemente, as observa¸c˜oes s˜ao multivariadas, isto ´e, h´a um vetor de respostas em diversas localiza¸c˜oes ao longo do espa¸co. Em outras palavras, dada a localiza¸c˜ao, ´e poss´ıvel obter informa¸c˜oes sobre diferentes componentes, por exemplo, esta¸c˜oes de moni-toramento do ar podem medir n´ıveis de diversos poluentes, tais como ozˆonio, mon´oxido de carbono, ´oxidos de nitrogˆenio, material particulado etc.

A literatura sobre abordagens capazes de modelar dados espaciais multivariados ´e extensa. Banerjee et al. (2004) apresentam alguns m´etodos de modelagem para dados dessa natureza. Um deles est´a baseado na ideia de separabilidade. De fato, o uso de modelos separ´aveis ´e conveniente, pois a matriz de covariˆancia pode ser expressa como um produto de Kronecker de matrizes menores vindas da dimens˜ao espacial e do vetor de respostas e, assim, determinantes e inversas s˜ao facilmente obtidos, fornecendo consi-der´avel ganho computacional. Entretanto, essa abordagem possui algumas desvantagens que ser˜ao discutidas neste trabalho.

Outro m´etodo bastante conhecido ´e o modelo de coregionaliza¸c˜ao linear (MCL), que permite modelar dados multivariados utilizando alcances diferentes e estrutura de co-variˆancia n˜ao separ´avel. Este modelo e suas generaliza¸c˜oes est˜ao descritos e muito bem definidos em Banerjee et al. (2004).

Apanasovich e Genton (2010) apresentam uma classe geral de modelos flex´ıveis e computacionalmente vi´aveis. Um dos objetivos do artigo ´e representar o vetor de

(15)

com-ponentes a partir de dimens˜oes latentes (pontos) no espa¸co k-dimensional, 1 ≤ k ≤ p, p sendo o n´umero de componentes.

O objetivo deste trabalho ´e introduzir uma classe de modelos de covariˆancia n˜ao separ´avel para dados multivariados espaciais baseada na ideia de Fonseca e Steel (2011) e tamb´em na representa¸c˜ao do vetor de componentes apresentada por Apanasovich e Genton (2010). A partir de algumas proposi¸c˜oes ´e poss´ıvel observar que a estrutura de covariˆancia encontrada ´e v´alida e flex´ıvel. Ademais, a matriz de covariˆancia n˜ao necessariamente ser´a sim´etrica.

Este trabalho est´a organizado em sete cap´ıtulos, incluindo este. O segundo cap´ıtulo especifica os modelos univariado e multivariado com estrutura separ´avel. Al´em disso, faz uma breve revis˜ao sobre as princiais caracter´ısticas dos modelos de coregionaliza¸c˜ao linear e da proposta de Apanasovich e Genton (2010). O cap´ıtulo 3 introduz uma nova classe de modelos de covariˆancia n˜ao separ´avel baseado na ideia de Fonseca e Steel(2011) e na defini¸c˜ao de dimens˜oes latentes proposta por Apanasovich e Genton (2010). O quarto cap´ıtulo apresenta o procedimento de inferˆencia feito na estima¸c˜ao do modelo proposto. O cap´ıtulo 5 mostra como encontrar aproxima¸c˜oes separ´aveis para a matriz de covariˆancia cheia com estrutura n˜ao separ´avel. O pen´ultimo cap´ıtulo apresenta simula¸c˜oes que ana-lisam o desempenho do modelo proposto em captar e gerar estruturas separ´aveis. Por fim, o cap´ıtulo 7 apresenta as conclus˜oes e trabalhos futuros desta pesquisa.

(16)

Cap´ıtulo 2

Modelos para an´

alise geoestat´ıstica

2.1

Introdu¸

ao

Segundo Cressie (1993), os dados geoestat´ısticos podem ser considerados uma rea-liza¸c˜ao de um processo estoc´astico {Y (s) : s ∈ D}, onde D ´e um subconjunto de <d com volume d-dimensional positivo. Em outras palavras, o ´ındice espacial s varia continu-amente ao longo da regi˜ao D. Geralmente d = 2 (latitude e longitude) ou d = 3 (por exemplo, latitude, longitude e altitude).

A principal discuss˜ao sobre a an´alise de dados espaciais se refere ao modo de se fazer inferˆencia sobre o processo espacial Y (s) e, posteriormente, prever em localiza¸c˜oes novas ou n˜ao medidas (Banerjee et al., 2004).

Antes de definir os modelos utilizados para tratar dados geoestat´ısticos, apresenta-remos os conceitos de estacionaridade e isotropia descritos em Banerjee et al. (2004). Assim, assuma que o processo espacial tenha m´edia µ(s) = E[Y (s)] e que a variˆancia de Y (s) exista para todo s ∈ D. Portanto, o processo ´e dito fracamente esta-cion´ario se a m´edia ´e constante para toda localiza¸c˜ao s ∈ D (isto ´e, µ(s) = µ) e se Cov(Y (s), Y (s0)) = C(s − s0), para todo s, s0 ∈ D. Note que essa ´ultima condi¸c˜ao implica que a covariˆancia entre quaisquer duas localiza¸c˜oes s e s0 pode ser resumida a partir de uma fun¸c˜ao de covariˆancia que depende apenas da distˆancia entre s e s0. Baseado em

Schmidt e Sans´o (2006), a isotropia ´e uma restri¸c˜ao mais forte, pois corresponde a uma simetria radial onde a fun¸c˜ao que define a dependˆencia entre localiza¸c˜oes ´e determinada

(17)

pela distˆancia entre elas. Em outras palavras, C(s, s0) = C(ks − s0k), onde ks−s0k denota

a distˆancia euclidiana entre s e s0.

Observe que quando um processo ´e estacion´ario e isotr´opico, sua variˆancia ´e constante e os elementos da matriz de covariˆancia podem ser escritos como a multiplica¸c˜ao de σ2

(variˆancia) e uma fun¸c˜ao de correla¸c˜ao v´alida (isto ´e, positiva definida) que depende da distˆancia euclidiana das localiza¸c˜oes e de um vetor param´etrico. ´E de se esperar que a fun¸c˜ao de correla¸c˜ao seja mon´otona n˜ao-crescente e que exista algum parˆametro que controle seu decaimento, j´a que ´e ela a respons´avel pela suavidade do processo.

H´a diversas fun¸c˜oes de correla¸c˜ao v´alidas existentes na literatura. Aqui, vamos listar duas delas:

1. Fam´ılia exponencial potˆencia

ρ(h; Θ) = exp ( − h θ1 θ2) (2.1)

onde h ´e a distˆancia euclidiana entre dois pontos no espa¸co, θ2 ∈ (0, 2]. Quando

θ2 = 2 temos um caso particular da fun¸c˜ao de correla¸c˜ao gaussiana. Quando θ2 = 1

obtemos a fun¸c˜ao de correla¸c˜ao exponencial.

2. Fam´ılia cauchy

ρ(h; Θ) = 1 + h θ1

θ2!−θ3

(2.2)

onde h ´e a distˆancia euclidiana entre dois pontos no espa¸co, θ1 > 0 , θ2 ∈ (0, 2] e

θ3 > 0.

Frequentemente, Y (s) segue um processo gaussiano e com isso, precisamos especificar apenas o primeiro e o segundo momentos da distribui¸c˜ao. Neste trabalho, todos os processos espaciais analisados s˜ao gaussianos.

Antes de come¸carmos a apresentar os modelos geoestat´ısticos ´e importante definir o conceito de alcances espaciais. Para tratar disso, voltaremos ao exemplo citado no cap´ıtulo 1. Vimos que ´e natural assumir que as temperaturas medidas nas esta¸c˜oes meteorol´ogicas de Copacabana e Ipanema tendem a ter uma maior correla¸c˜ao do que as temperaturas de Copacabana e Bangu, pois os dois primeiros bairros s˜ao vizinhos e

(18)

est˜ao localizados pr´oximos ao mar e tamb´em porque h´a uma grande distˆancia geogr´afica entre Bangu e a Zona Sul, sendo Bangu um bairro afastado da orla da cidade. Assim, ´

e razo´avel pensar que a correla¸c˜ao diminui conforme a distˆancia aumenta, por´em, como saber qual ´e o valor da distˆancia na qual a correla¸c˜ao cai para valores desprez´ıveis? O alcance espacial ´e justamente o valor dessa distˆancia.

Nas pr´oximas se¸c˜oes s˜ao apresentados alguns m´etodos para an´alise de dados geoes-tat´ısticos.

2.2

Modelo univariado

Esta se¸c˜ao introduz a an´alise de processos espaciais a partir do caso mais simples, isto ´e, processos que analisam a dependˆencia espacial de apenas uma componente.

Para isso, considere o processo espacial {Y (s) : s ∈ D}, onde D ⊂ <d. Normalmente,

em geoestat´ıstica, dadas as observa¸c˜oes do processo de interesse em n localiza¸c˜oes, Y = [Y (s1), Y (s2), ..., Y (sn)]T, assume-se que

Y|µ, Σ ∼ Nn(µ, Σ)

onde µ ´e um vetor de dimens˜ao n representando a m´edia do processo e Σ ´e uma matriz n × n que representa a estrutura de covariˆancia.

A partir disso, podemos descrever o processo Y(.) atrav´es do modelo

Y = Xβ + ε (2.3)

onde X representa a matriz das vari´aveis explicativas, β ´e o vetor de parˆametros das regressoras e ε ´e o erro aleat´orio tal que ε ∼ Nn(0, Σ). Sabe-se que cada elemento da

matriz de covariˆancia depende somente da variˆancia do processo e de uma fun¸c˜ao de correla¸c˜ao espacial v´alida. Considerando um processo estacion´ario de segunda ordem (fracamente estacion´ario), temos que

Cov[Y (s), Y (s0)] = C(s − s0) = C(h), ∀s, s0 ∈ D

depende apenas das distˆancias entre as localiza¸c˜oes s e s0, h = s - s0. Portanto, a matriz de covariˆancia ser´a dada por

(19)

onde σ2 ´e a variˆancia do processo e ρ(., Φ) ´e uma fun¸c˜ao de correla¸c˜ao v´alida. Observe que Φ ´e o vetor param´etrico que descreve a fun¸c˜ao de correla¸c˜ao.

2.3

Modelo multivariado

Quando se faz inferˆencia com base em dados multivariados, como por exemplo, dife-rentes fatores clim´aticos mensurados em esta¸c˜oes meteorol´ogicas, o objetivo principal ´e identificar a dependˆencia entre as vari´aveis medidas em todas as localiza¸c˜oes.

Para isso, denotaremos Y(s) como o vetor de vari´aveis aleat´orias na localiza¸c˜ao s, de dimens˜ao p × 1, ou seja, Y = [Y(s1), Y(s2), ..., Y(sn)]T, onde Yi(s) representa a i-´esima

vari´avel, i = 1, 2, ..., p, na localiza¸c˜ao s ∈ D. Deste modo, se Y ´e dito um processo gaussiano, para defini-lo, precisamos determinar apenas dois objetos de an´alise: a fun¸c˜ao de m´edia e as fun¸c˜oes de covariˆancia cruzada (Apanasovich et al., 2012).

A fun¸c˜ao de covariˆancia cruzada v´alida ir´a definir a dependˆencia entre as componentes do vetor resposta. Entretanto, sabe-se que fun¸c˜oes de covariˆancia cruzada n˜ao s˜ao simples de serem especificadas, pois para qualquer n´umero de localiza¸c˜oes e qualquer escolha dessas localiza¸c˜oes, a matriz de covariˆancia resultante deve ser positiva definida (Gelfand e Banerjee, 2010).

De acordo com Banerjee et al. (2004), o objeto crucial ´e a covariˆancia cruzada C(s, s0) ≡ Cov(Y(s), Y(s0)), que ´e uma matriz de dimens˜ao p × p e n˜ao necessariamente sim´etrica (isto ´e, Cov(Yi(s), Yj(s0)) n˜ao precisa ser igual a Cov(Yj(s), Yi(s0))).

De acordo com Wackernagel (1995), as fun¸c˜oes de covariˆancia cruzada Cij(h), do

conjunto de p vari´aveis aleat´orias Yi(s), podem ser definidas da seguinte maneira:

Se

E[Yi(s)] = mi, s ∈ D; i = 1, 2, ..., p

ent˜ao, a estrutura de covariˆancia cruzada ´e definida como

E[(Yi(s) − mi)(Yj(s + h) − mj)] = Cij(h), s, s + h ∈ D; i, j = 1, 2, ..., p

onde a m´edia de cada vari´avel Yi(s), em cada localiza¸c˜ao do dom´ınio, ´e igual `a constante

(20)

2.3.1

Modelos separ´

aveis

Para modelar dados dessa natureza podemos utilizar uma forma bem simples, baseada na ideia de separabilidade. Para definir a estrutura de covariˆancia de modo separ´avel vamos considerar {Y(s) : s ∈ D ⊂ <2; Y ∈ <p} sendo um campo aleat´orio multivariado.

Por exemplo, Y(s) pode ser formado pelas componentes (Temperatura, Umidade)(s). A fun¸c˜ao de covariˆancia cruzada para duas componentes i e j do vetor Y, entre duas localiza¸c˜oes quaisquer s e s0, pode ser descrita por

Cij(s, s0) = aijρ(s, s0) (2.4)

onde A = {aij} ´e uma matriz positiva definida p × p e ρ(s, s0) ´e uma fun¸c˜ao de correla¸c˜ao

v´alida.

Como Y ´e formado por um empilhamento das observa¸c˜oes nas n localiza¸c˜oes, a matriz de covariˆancia resultante ´e

Σ = R ⊗ A (2.5)

onde Rij = ρ(si, sj) e ⊗ denota o produto de Kronecker. Note que Σ ser´a positiva

definida desde que R e A tamb´em sejam.

A utiliza¸c˜ao de modelos espaciais com estrutura separ´avel ´e bastante comum. A justificativa ´e simples. A matriz de covariˆancia cheia Σ, de dimens˜ao np × np, pode ser escrita a partir do produto de Kronecker de duas matrizes de menor dimens˜oes (p × p e n × n). A partir das propriedades do produto de Kronecker, ´e poss´ıvel calcular a inversa e o determinante de Σ da seguinte maneira:

Σ−1 = R−1⊗ A−1 |Σ| = |R|p|A|n

De fato, ´e mais conveniente em termos computacionais utilizar a estrutura definida na equa¸c˜ao2.4, por´em, este tipo de modelagem possui algumas limita¸c˜oes.

2.3.1.1 Limita¸c˜oes dos modelos separ´aveis

Banerjee et al.(2004) apresentam algumas limita¸c˜oes associadas ao modelo separ´avel. Segundo os autores, a estrutura de covariˆancia ser´a sim´etrica, ou seja, Cov(Yi(s), Yj(s0)) =

(21)

Cov(Yj(s), Yi(s0)) para todo i, j, s e s0. Al´em disso, se ρ for estacion´ario, a correla¸c˜ao

generalizada ´e dada por

Cov(Yi(s), Yj(s + h))

pCov(Yi(s), Yi(s + h))Cov(Yj(s), Yj(s + h))

= √aij aiiajj

independente de s e h. A ´ultima restri¸c˜ao citada pelos autores ´e que se a correla¸c˜ao espacial ρ for isotr´opica e estritamente decrescente, ent˜ao o alcance espacial ser´a idˆentico para cada componente de Y(s).

Essa ´ultima limita¸c˜ao apresentada pode ser entendida de outra maneira. Consi-dere os processos espaciais univariados {Y (s) : s ∈ D} e {X(s) : s ∈ D}, onde D ⊂ <2, conforme definido na se¸c˜ao 2.2. Logo, s˜ao obtidos os seguintes vetores Y =

[Y (s1), Y (s2), ..., Y (sn)]T e X = [X(s1), X(s2), ..., X(sn)]T.

Sabe-se que ´e poss´ıvel representar a rela¸c˜ao linear espacial abaixo para qualquer ponto no dom´ınio

E[Y|X] = β0+ β1X (2.6)

Para garantir a rela¸c˜ao definida em (2.6), considere o vetor empilhado (X, Y)T, de dimens˜ao 2n × 1, com distribui¸c˜ao Normal Multivariada e estrutura de covariˆancia se-par´avel, como definido em 2.4, isto ´e,

  X Y  ∼ N2n(µ, Σ), Σ = A ⊗ R

Dada esta distribui¸c˜ao, note que X ∼ Nn(µx, a11R) e Y ∼ Nn(µy, a22R). Assim,

a partir das propriedades da distribui¸c˜ao normal multivariada, ´e poss´ıvel observar que Y|X ∼ Nn(µ∗, Σ∗), onde µ∗ = µy + (a12R)(a11R)−1(X − µx) = µy +a12 a11 RR−1(X − µx) = µy +a12 a11 (X − µx) = µy − a12 a11 µx+a12 a11 X

(22)

e Σ∗ = a22R − (a12R)(a11R)−1(a12R) = a22R − a2 12 a11 RR−1R = a22R − a2 12 a11 R =  a22− a212 a11  R

Portanto, a distribui¸c˜ao de Y|X pode ser escrita da seguinte maneira: Y|X ∼ Nn(β0+

β1X, σ2R), onde β0 = µy − a12 a11 µx β1 = a12 a11 σ2 = a22− a2 12 a11

Entretanto, fazendo a an´alise de maneira contr´aria, ou seja, se partirmos do ponto em que definimos X ∼ Nn(µx, a11R) e Y|X ∼ Nn(β0+ β1X, σ2S), onde S ´e uma matriz

qualquer que determina a dependˆencia espacial, teremos que a estrutura de covariˆancia de Y ser´a Cov[Yi, Yj] = σ2Sij + β12a11Rij = a22Sij − a2 12 a11 Sij+ a2 12 a11 Rij (2.7)

Neste caso, ´e f´acil observar que para obtermos o caso separ´avel devemos fazer uma restri¸c˜ao quanto `a estrutura de S. De fato, a equa¸c˜ao 2.7 ser´a igual a a22R, isto ´e,

equivalente ao caso separ´avel se, e somente se, S = R, ou seja, se a dependˆencia espacial de Y|X for a mesma de X.

2.3.2

Algumas propostas de modelos multivariados

Nesta se¸c˜ao, ser˜ao apresentadas, de maneira resumida, algumas abordagens utiliza-das no procedimento de estima¸c˜ao de processos espaciais multivariados. Iremos descrever duas propostas j´a exitentes na literatura com o objetivo de analisar suas principais ca-racter´ısticas para, posteriormente, relacion´a-las com as propriedades do modelo proposto neste trabalho.

(23)

Inicialmente, descreveremos os modelos de coregionaliza¸c˜ao especificados emBanerjee et al. (2004). O modelo mais simples de coregionaliza¸c˜ao linear (MCL)1 ´e da forma

Y(s) = Aw(s), onde A ´e uma matriz p×p e as componentes de w(s), wj(s), j =

1, 2, ..., p, s˜ao processos espaciais independentes e identicamente distribu´ıdos. Assim, se os processos wj(s) tˆem m´edia igual a zero, s˜ao estacion´arios com variˆancia igual a um

e cov(wj(s), wj(s0)) = ρ(s − s0), ent˜ao E(Y(s)) = 0 e a matriz de covariˆancia cruzada

associada a Y(s) ´e dada por

ΣY(s),Y(s0) ≡ C(s − s0) = ρ(s − s0)AAT

´

E poss´ıvel observar que se fizermos AAT = T obtemos a especifica¸c˜ao da estrutura de covariˆancia separ´avel, conforme equa¸c˜ao 2.4.

Ainda baseado em Banerjee et al. (2004), podemos descrever um MCL mais geral se novamente especificarmos Y(s) = Aw(s), por´em, desta vez, considerando os processos wj(s) independentes mas n˜ao identicamente distribu´ıdos. Portanto, sejam wj(s) processos

com m´edia µj, variˆancia 1 e fun¸c˜ao de correla¸c˜ao estacion´aria ρj(h). Ent˜ao, temos que

E[Y(s)] = Aµ, onde µ = {µ1, ..., µp}T, e a matriz de covariˆancia cruzada obtida agora ´e

ΣY(s),Y(s0) ≡ C(s − s0) =

p

X

j=1

ρj(s − s0)Tj

onde Tj = ajaTj, com aj sendo a j-´esima coluna de A. Segundo os autores, uma

ob-serva¸c˜ao importante a ser feita ´e que essa combina¸c˜ao linear produz processos esta-cion´arios.

Por fim, utilizando fun¸c˜oes de correla¸c˜ao mon´otonas e isotr´opicas, ser´a poss´ıvel obter um alcance para cada componente do processo. Portanto, essa abordagem permite mo-delar as componentes utilizando diferentes alcances2, diferentemente do modelo separ´avel apresentado na se¸c˜ao 2.3.1. Vale ressaltar que existem outras especifica¸c˜oes do modelo de coregionaliza¸c˜ao que acomodam estruturas de covariˆancia n˜ao estacion´arias3.

A segunda abordagem que ser´a apresentada ´e a descrita por Apanasovich e Genton

(2010). Os autores prop˜oem uma metodologia baseada em dimens˜oes latentes e modelos

1Chamado de especifica¸ao intr´ınseca.

2Detalhes mais precisos podem ser vistos emBanerjee et al.(2004). 3VerBanerjee et al.(2004).

(24)

de covariˆancia j´a existentes na literatura. O objetivo ´e desenvolver uma classe de fun¸c˜oes de covariˆancia cruzada que sejam interpret´aveis e vi´aveis computacionalmente.

A ideia principal de Apanasovich e Genton ´e representar o vetor de componentes como pontos num espa¸co k-dimensional, para um inteiro 1 ≤ k ≤ p, ou seja, fazer com que a i-´esima componente possa ser representada como ξi = {ξi1, ..., ξik}T.

J´a sabemos que se assumirmos que Y ´e gaussiano, precisamos apenas descrever as fun¸c˜oes de m´edia e de covariˆancia. Portanto, estamos interessados na caracteriza¸c˜ao de Cov[Yi(s), Yj(s0)] = Cij(s, s0). Assim, Apanasovich e Genton garantem que, baseado nas

dimens˜oes latentes, a matriz de covariˆancia Σij = C{(s, ξi), (s0, ξj)} ´e positiva definida,

pois suas entradas s˜ao obtidas a partir de uma covariˆancia v´alida. De fato, segundo os autores, para qualquer s, s0 existe Cs,s0(.) tal que Cij(s, s0) = Cs,s0(ξi, ξj) para algum ξi,

ξj ∈ <k.

´

E importante lembrar que ao inv´es de especificarmos os ξi’s, podemos trat´a-los como

parˆametros. Al´em disso, h´a a possibilidade de trabalhar apenas com a distˆancia entre as componentes do vetor, δij = kξi − ξjk. Segundo Apanasovich e Genton, essa ideia

de modelagem ´e semelhante `a escala multidimensional (Cox e Cox, 2000) com distˆancias latentes δij’s, onde para localiza¸c˜oes fixas s e s0, grandes δij’s s˜ao convertidos para

cor-rela¸c˜oes cruzadas pequenas entre as i-´esima e j-´esima componentes do vetor.

Em uma das simula¸c˜oes, os autores comparam o desempenho do modelo proposto por eles com o MCL. Para mostrar a flexibilidade extra que o modelo deles permite, eles ajustam o modelo proposto e o MCL, quando, na verdade, a estrutura gerada ´e do mo-delo proposto. Nessa simula¸c˜ao, geram amostras de um processo espacial bidimensional gaussiano, com m´edia zero e especifica¸c˜ao da covariˆancia Cov[Yi(s), Yj(s0)]

Cij(khk) = C(khk, δij) =                  a211exp(−α1khk) (i = j = 1) a221exp(−α1khk) + a222exp(−α2khk) (i = j = 2) a11a21 δ12+ 1 exp ( − α1khk (δ12+ 1) β 2 ) (i 6= j)

onde h = s − s0. Observe que o MCL ´e um caso especial da especifica¸c˜ao acima quando δ12 = β = 0. A partir dos resultados da simula¸c˜ao os autores afirmam que o modelo de

(25)

coregionaliza¸c˜ao n˜ao ´e suficientemente flex´ıvel para fornecer estimativas sem vi´es para os alcances. Al´em dessa simula¸c˜ao os autores utilizam outras especifica¸c˜oes para mostrar a flexibilidade do modelo proposto.

Apanasovich e Genton (2010) tamb´em avaliam a escolha do valor de k a partir de simula¸c˜oes. Segundo eles, valores pequenos de k, como por exemplo, k = 1 ou k = 2, s˜ao geralmente suficientes4. Al´em disso, esses modelos possuem extens˜oes que acomodam a

falta de simetria. Uma poss´ıvel fraqueza dessa abordagem ´e que se o n´umero de vari´aveis p for grande, ent˜ao o n´umero inteiro 1 ≤ k ≤ p de dimens˜oes latentes poderia tornar-se grande demais.

De fato, a ideia de dimens˜oes latentes apresentada em Apanasovich e Genton (2010) ser´a aplicada ao modelo proposto no cap´ıtulo 3. Vale ressaltar que para as estima¸c˜oes do modelo proposto realizadas neste trabalho utilizamos k = 1.

(26)

Cap´ıtulo 3

Modelo proposto

3.1

Introdu¸

ao

O objetivo deste cap´ıtulo ´e apresentar uma classe de fun¸c˜oes de covariˆancia multi-variada n˜ao separ´aveis a partir da ideia de misturas apresentada por Fonseca e Steel

(2011). Tamb´em iremos introduzir a ideia de dimens˜oes latentes para representar o vetor de componentes, como proposto emApanasovich e Genton(2010). Fonseca e Steel(2011) consideram fun¸c˜oes de covariˆancia espa¸co-temporais. Neste trabalho, a fun¸c˜ao proposta ´

e avaliada no espa¸co multivariado, sem considerar o tempo.

Algumas caracter´ısticas importantes ser˜ao analisadas. A classe de fun¸c˜oes gerada ´e v´alida, flex´ıvel e permite diferentes especifica¸c˜oes. Al´em disso, ser´a visto que ´e poss´ıvel obter alcances espaciais distintos para diferentes componentes, o que n˜ao ocorre nos modelos separ´aveis.

3.2

Representa¸

ao por mistura

3.2.1

Introdu¸

ao

Fonseca e Steel (2011) apresentaram uma classe geral de modelos espa¸co-temporais n˜ao separ´aveis baseada em misturas de fun¸c˜oes de covariˆancia separ´aveis. Segundo os autores, a formula¸c˜ao de mistura pode gerar uma grande variedade de modelos de

(27)

co-variˆancia n˜ao separ´avel v´alidos.

Para definir o modelo proposto emFonseca e Steel(2011), suponha que (s, t) ∈ D ×T , D ⊆ <d, T ⊆ <, sejam coordenadas espa¸co-tempo que variam continuamente em D × T e defina o processo espa¸co-temporal {Z(s, t) : s ∈ D, t ∈ T }, onde Z(s, t) = Z1(s)Z2(t),

(s, t) ∈ D × T , {Z1(s) : s ∈ D} ´e um processo aleat´orio puramente espacial com fun¸c˜ao

de covariˆancia C1(s) e {Z2(t) : t ∈ T } ´e um processo aleat´orio puramente temporal com

fun¸c˜ao de covariˆancia C2(t). Sendo Z1(s) e Z2(t) n˜ao correlacionados.

A representa¸c˜ao por mistura da fun¸c˜ao de covariˆancia de Z(s, t) ´e definida porFonseca e Steel(2011) da seguinte maneira: Seja (U, V ) um vetor aleat´orio bivariado n˜ao negativo com distribui¸c˜ao G(u, v) e independente de {Z1(s) : s ∈ D} e {Z2(t) : t ∈ T }, ent˜ao a

fun¸c˜ao de covariˆancia correspondente a Z(s, t) ´e uma combina¸c˜ao convexa de fun¸c˜oes de covariˆancia separ´aveis. Esta fun¸c˜ao ´e v´alida e geralmente n˜ao separ´avel, e ´e dada por

C(s, t) = Z Z

C(s; u)C(t; v)g(u, v)dudv (3.1)

A ideia proposta neste trabalho ´e modificar a equa¸c˜ao3.1 para o caso espacial multi-variado. Neste momento, o interesse n˜ao est´a em avaliar o tempo e sim, as componentes. A subse¸c˜ao seguinte apresenta esta nova fun¸c˜ao de covariˆancia baseada na equa¸c˜ao3.1.

3.2.2

Representa¸

ao por mistura proposta

Nesta subse¸c˜ao, iremos considerar a mesma representa¸c˜ao apresentada pelos autores e descrita na equa¸c˜ao 3.1, por´em, avaliada no espa¸co multivariado. Para isso, seja um vetor aleat´orio bivariado n˜ao negativo (U, V ) com distribui¸c˜ao G(u, v) e independente do processo Y(s). De maneira similar ao artigo de Fonseca e Steel (2011), temos que a fun¸c˜ao de covariˆancia correspondente a Y(s) ´e uma combina¸c˜ao convexa de fun¸c˜oes de covariˆancia separ´aveis. Esta fun¸c˜ao ´e v´alida e, geralmente, n˜ao separ´avel e ´e dada por

Cij(s, ξ) =

Z Z

C(s; u)Cij(ξ; v)g(u, v)dudv (3.2)

onde ξ representa a dimens˜ao latente proposta no artigo deApanasovich e Genton(2010) e apresentada na se¸c˜ao 2.3.2 e s a localiza¸c˜ao no espa¸co. ´E f´acil observar que a fun¸c˜ao

(28)

(3.2) ´e definida por fun¸c˜oes de covariˆancia v´alidas e pelo vetor aleat´orio (U, V ) com distribui¸c˜ao conjunta G(u, v).

SegundoFonseca e Steel(2011), o passo fundamental na defini¸c˜ao da classe de fun¸c˜oes est´a na representa¸c˜ao da dependˆencia entre U e V , pois ´e isso que ir´a gerar a intera¸c˜ao entre o espa¸co e as componentes.

Vamos definir os variogramas γ1(s) ≡ γ1 e γ2(ξ) ≡ γ2 como fun¸c˜oes cont´ınuas de

s ∈ <d e ξ ∈ <p, respectivamente. A partir da especifica¸c˜ao acima, uma maneira de resolver a integral em (3.2) de forma fechada e garantir que a estrutura de covariˆancia gerada seja positiva definida ´e definindo C(s; u) = exp{−γ1u} e C(ξ; v) = exp{−γ2v}.

Com isso, obtemos a seguinte proposi¸c˜ao.

Proposi¸c˜ao 3.2.1 Considere um vetor aleat´orio bivariado n˜ao negativo (U, V ) com fun¸c˜ao geradora de momentos conjunta M (., .). Se os variogramas γ1(s) ≡ γ1 e γ2(ξ) ≡ γ2 s˜ao

fun¸c˜oes cont´ınuas de s ∈ <d e ξ ∈ <p, respectivamente, e C(s; u) = exp{−γ 1u} e

C(ξ; v) = exp{−γ2v}, ent˜ao, a partir da fun¸c˜ao (3.2) segue

Cij(s, ξ) = M (−γ1, −γ2) (3.3)

que ´e uma fun¸c˜ao de covariˆancia v´alida.

Majumdar e Gelfand (2007) utilizam integra¸c˜ao de Monte Carlo para resolver uma integral similar a (3.2), o que seria invi´avel em aplica¸c˜oes com muitas observa¸c˜oes. Apa-nasovich et al.(2012) consideram uma vers˜ao multivariada da Mat´ern, apresentando um modelo flex´ıvel que permite diferentes comportamentos para diferentes componentes. De fato, o modelo em (3.2) tamb´em tem essas caracter´ısticas e que ser˜ao apresentadas mais adiante.

A seguir, definiremos a representa¸c˜ao do vetor (U, V ) de maneira semelhante `a definida porFonseca e Steel(2011). Essa especifica¸c˜ao leva a fun¸c˜oes n˜ao separ´aveis e que possuem propriedades bastante ´uteis.

3.2.3

Estrutura de covariˆ

ancia n˜

ao separ´

avel

A partir da Proposi¸c˜ao 3.2.1 ´e poss´ıvel construir uma estrutura de covariˆancia n˜ao separ´avel, basta definir a distribui¸c˜ao do vetor bivariado n˜ao negativo (U, V ). Assim,

(29)

considere a seguinte proposi¸c˜ao.

Proposi¸c˜ao 3.2.2 Considere as vari´aveis aleat´orias n˜ao negativas e independentes X0,

X1 e X2, com respectivas fun¸c˜oes geradoras de momentos M0, M1 e M2. Defina U e V

da seguinte maneira: U = X0+ X1 e V = X0+ X2. Se C(s; u) = exp{−γ1u} e C(ξ; v) =

exp{−γ2v}, como na Proposi¸c˜ao 3.2.1, ent˜ao a fun¸c˜ao de covariˆancia resultante a partir

de (3.2) ´e

Cij(s, ξ) = M0(−γ1 − γ2)M1(−γ1)M2(−γ2) (3.4)

Observe que se U e V forem n˜ao correlacionados, isto ´e, U = X1 e V = X2, ent˜ao o

caso separ´avel ´e obtido, pois a fun¸c˜ao de covariˆancia ser´a representada como Cij(s, ξ) =

M1(−γ1)M2(−γ2). Observe que essa especifica¸c˜ao ´e semelhante `a da equa¸c˜ao 2.4, pois

a estrutura ´e gerada a partir de uma fun¸c˜ao que depende apenas das componentes, M2(−γ2), e outra que depende apenas das localiza¸c˜oes, M1(−γ1).

A classe gerada na Proposi¸c˜ao 3.2.2 permite diferentes representa¸c˜oes param´etricas, de acordo com as distribui¸c˜oes de X0, X1 e X2. Note que precisamos apenas atribuir

distribui¸c˜oes univariadas n˜ao negativas para essas vari´aveis para especificar a fun¸c˜ao de covariˆancia cruzada. Como consequˆencia da constru¸c˜ao, qualquer correla¸c˜ao entre U e V diferente de zero ser´a positiva.

Ao analisar a fun¸c˜ao gerada pela Proposi¸c˜ao 3.2.2, observou-se que Cij(0) = 1, ou

seja, a fun¸c˜ao Cij(s, ξ) ´e, na verdade, uma fun¸c˜ao de correla¸c˜ao cruzada v´alida. Para

transformar essa fun¸c˜ao de correla¸c˜ao numa fun¸c˜ao de covariˆancia, definimos, conforme

Majumdar e Gelfand(2007),

ρij(s, ξ) =

Cij(s, ξ)

[Cii(0)Cjj(0)]1/2

(3.5)

Note que temos que ρii(0) = 1. Considere Dcov como uma matriz diagonal com

entradas [Dcov]ii = Cii(0). Se Rij(s, ξ) = D −1/2

cov Cij(s, ξ)D −1/2

cov , ent˜ao Rij(s, ξ) ser´a uma

fun¸c˜ao de correla¸c˜ao cruzada v´alida. De fato, definindo Dσ1/2 = diag(σ1, ..., σp), σi > 0,

pode-se obter uma fun¸c˜ao de covariˆancia cruzada v´alida, que ser´a dada pela matriz Cσ = D

1/2

σ Rij(s, ξ)D 1/2 σ .

Observe que a equa¸c˜ao3.5´e a pr´opria defini¸c˜ao de correla¸c˜ao que conhecemos. Como a estrutura encontrada trata-se de uma fun¸c˜ao de correla¸c˜ao cruzada v´alida, basta fazermos

(30)

a conta inversa para encontrar a fun¸c˜ao de covariˆancia cruzada v´alida. Com isso, ´e poss´ıvel modificar a Proposi¸c˜ao 3.2.2 e definirmos a Proposi¸c˜ao 3.2.3.

Proposi¸c˜ao 3.2.3 Considere as vari´aveis aleat´orias n˜ao negativas e independentes X0,

X1 e X2, com respectivas fun¸c˜oes geradoras de momentos M0, M1 e M2. Defina U e

V da seguinte maneira: U = X0 + X1 e V = X0 + X2. Se C(s; u) = σiexp{−γ1u} e

C(ξ; v) = σjexp{−γ2v}, ent˜ao a fun¸c˜ao de covariˆancia resultante a partir de (3.2) ´e

Cij(s, ξ) = σiσjM0(−γ1− γ2)M1(−γ1)M2(−γ2) (3.6)

que ´e uma fun¸c˜ao de covariˆancia v´alida.

3.2.4

Fun¸

ao proposta

Nesta se¸c˜ao, ser´a apresentada uma fun¸c˜ao de covariˆancia gerada a partir da Pro-posi¸c˜ao 3.2.3. Para isso, vamos considerar que as vari´aveias X0, X1 e X2 seguem

dis-tribui¸c˜oes Gama. A partir do Teorema 3.2.1 obtemos classes de fun¸c˜ao de covariˆancia Cauchy tanto para as componentes quanto para o espa¸co.

Teorema 3.2.1 Considere Xi ∼ Gama(αi, λi), i = 0, 1 e 2, ent˜ao, a partir da

Pro-posi¸c˜ao 3.2.3, a fun¸c˜ao de covariˆancia cruzada ´e Cij(s, ξ) = σiσj  1 + γ1+ γ2 λ0 −α0 1 + γ1 λ1 −α1 1 + γ2 λ2 −α2 (3.7) onde σi > 0, i = 1, ..., p, αk> 0 e λk> 0, k = 0, 1, 2.

Para a constru¸c˜ao da fun¸c˜ao de covariˆancia, definimos o variograma γ1 como a fun¸c˜ao

de distˆancia entre as localiza¸c˜oes e o variograma γ2 como a fun¸c˜ao de distˆancia entre as

dimens˜oes latentes de cada componente. De fato, γ1 = ks − s0k = h e γ2 = kξi− ξjk = δij.

3.2.4.1 Reparametriza¸c˜ao

Com a parametriza¸c˜ao proposta na equa¸c˜ao3.7´e dif´ıcil interpretar alguns parˆametros. Al´em disso, esperamos encontrar uma fun¸c˜ao que permita alcances espaciais diferentes para cada componente e, de fato, isso n˜ao est´a ocorrendo. Como a dependˆencia de U

(31)

e V ´e governada pela vari´avel X0, tamb´em seria importante definir algum parˆametro

respons´avel pelo comportamento da correla¸c˜ao entre essas vari´aveis, pois j´a foi visto que se U e V forem n˜ao correlacionados, o caso separ´avel ´e obtido.

Para isso, a ideia inicial foi fixar os parˆametros λi, i = 0, 1 e 2, em 1. Al´em disso,

introduzimos um parˆametro extra no variograma das localiza¸c˜oes. Tal parˆametro pode variar de acordo com a componente i, j analisada, isto ´e, tomamos γ1 =

ks−s0k

bij =

h bij.

Feito isso, o modelo geral com todos os poss´ıveis parˆametros ´e dado por

Cij(s, ξ) = σiσj  1 + δij + h bij −α0 1 + h bij −α1 (1 + δij) −α2 (3.8)

onde σi ´e o desvio da componente i, bijs s˜ao interpretados como alcances espaciais e os

αl, l = 1 e 2, podem ser interpretados como parˆametros de suaviza¸c˜ao da fun¸c˜ao. Um

parˆametro que deve ser estudado com maior aten¸c˜ao ´e α0.

Como j´a mencionado, ´e importante encontrar alguma medidade de separabilidade entre o espa¸co e as componentes. Assim como em Fonseca e Steel (2011), escolhemos a correla¸c˜ao entre as vari´aveis U e V como tal medida. De fato, vimos que se U e V forem n˜ao correlacionados, chegamos ao caso separ´avel. Portanto,

ρ = ρ(U, V ) = Cov(U, V ) pV ar(U)V ar(V )

= Cov(X0+ X1, X0+ X2) pV ar(X0+ X1)V ar(X0+ X2)

= V ar(X0)

p[V ar(X0) + V ar(X1)][V ar(X0) + V ar(X2)]

= α0

p(α0+ α1)(α0+ α2)

Observe que pela constru¸c˜ao de U e V , 0 ≤ ρ ≤ 1. Al´em disso, ρ = 0 indica separabilidade, j´a que neste caso U = X1 e V = X2. Portanto, ´e poss´ıvel observar que

α0 ´e o parˆametro respons´avel pelo grau de separabilidade do modelo. ´E f´acil visualizar

que se α0 = 0, ent˜ao, ρ = 0.

Neste caso onde α0 = 0, a equa¸c˜ao 3.8 pode ser escrita da seguinte maneira

Cij(s, ξ) = σiσj  1 + h bij −α1 (1 + δij) −α2 (3.9)

(32)

Um detalhe importante que deve ser observado ´e que mesmo que α0 seja zero, s´o ser´a

poss´ıvel obter o modelo separ´avel se os alcances espaciais bij forem todos iguais, ou seja,

se bij = φ, i, j = 1, 2, ..., p. Neste caso, ´e poss´ıvel observar que as fun¸c˜oes de correla¸c˜ao

do modelo pertencem `a fam´ılia Cauchy. Caso os alcances espaciais n˜ao sejam iguais, a equa¸c˜ao 3.9 estar´a apenas especificada de maneira semelhente ao caso separ´avel, por´em, o modelo gerado ser´a n˜ao separ´avel.

Outro caracter´ıstica importante refere-se ao fato do α0 ser um parˆametro que assume

apenas valores positivos. Portanto, ele n˜ao poder´a ser igual a zero, mas sabemos que ele pode assumir valores muito pequenos e pr´oximos de 0.

3.2.4.2 Alguns modelos

A partir dessa constru¸c˜ao da fun¸c˜ao proposta na equa¸c˜ao3.8, h´a dois modelos menos gerais que pretendemos estudar neste trabalho.

Modelo 1 (MNS-01)

Este modelo ´e menos geral que o proposto na equa¸c˜ao 3.8 e, al´em disso, n˜ao permite que as componentes tenham alcances espaciais diferentes. Aqui, fixamos α1 = α2 = 1. A

fun¸c˜ao de covariˆancia resultante ´e

Cij(s, ξ) = σiσj  1 + δij + h φ −α0 1 + h φ −1 (1 + δij) −1 (3.10)

Para este modelo temos que se α0 = 0, ent˜ao o caso separ´avel ´e obtido. Al´em disso,

a fun¸c˜ao de correla¸c˜ao pertence `a classe Cauchy. Neste caso, podemos interpretar os parˆametros da seguinte maneira: σicorresponde ao desvio da componente i, i = 1, 2, ..., p;

δij mede a distˆancia latente entre as componentes i e j, i, j = 1, 2, ..., p; φ representa o

alcance espacial das componentes; e α0 pode ser interpretado como o parˆametro de

se-perabilidade. Assim, analisando os poss´ıveis casos, temos os seguintes resultados

se h = 0 e i = j: Cii(0, 0) = σi2

se h = 0 e i 6= j: Cij(0, ξ) = σiσj(1 + δij) −(α0+1)

(33)

se h 6= 0 e i = j: Cii(s, 0) = σi2  1 + hφ −(α0+1) se h 6= 0 e i 6= j: Cij(s, ξ) = σiσj  1 + δij +hφ −α0 1 + hφ −1 (1 + δij) −1 Modelo 2 (MNS-02)

Este modelo tamb´em ´e menos geral que o proposto na equa¸c˜ao 3.8, por´em, permite que as componentes tenham alcances espaciais diferentes. Aqui, tamb´em fixamos α1 =

α2 = 1. A fun¸c˜ao de covariˆancia resultante ´e

Cij(s, ξ) = σiσj  1 + δij + h bij −α0 1 + h bij −1 (1 + δij) −1 (3.11)

Para este modelo temos que se α0 = 0, ent˜ao o caso separ´avel n˜ao ´e obtido. Lembre

que uma das propriedades do modelo separ´avel apresentada na se¸c˜ao2.3.1.1referia-se ao fato de que os alcances espaciais de cada componente deveriam ser iguais. Aqui, apesar de obtermos uma especifica¸c˜ao semelhante `a do modelo separ´avel, os alcances espaciais podem ser diferentes e, com isso, n˜ao conseguimos obter um modelo separ´avel. Portanto, podemos interpretar os parˆametros bij da seguinte forma: biirepresenta o alcance espacial

da componente i, i = 1, 2, ..., p, e bij pode ser entendido como o alcance cruzado entre as

componentes i e j, i, j = 1, 2, ..., p. Com isso, os poss´ıveis casos s˜ao apresentados a seguir

se h = 0 e i = j: Cii(0, 0) = σi2 se h = 0 e i 6= j: Cij(0, ξ) = σiσj(1 + δij) −(α0+1) se h 6= 0 e i = j: Cii(s, 0) = σi2  1 + bh ii −(α0+1) se h 6= 0 e i 6= j: Cij(s, ξ) = σiσj  1 + δij +bhij −α0 1 + bh ij −1 (1 + δij) −1

(34)

3.2.5

Conclus˜

oes

Este cap´ıtulo apresentou uma classe geral de fun¸c˜oes de covariˆancia multivariada n˜ao separ´aveis. Vimos que a partir de determinadas especifica¸c˜oes ´e possivel encontrar um modelo com estrutura separ´avel.

Assim como em Fonseca e Steel (2011) esses modelos s˜ao bastante flex´ıveis, pois podem ser especificados de diversas maneiras. Para isso, basta assumir diferentes distri-bui¸c˜oes n˜ao negativas para as vari´aveis X0, X1 e X2.

No modelo especificado na se¸c˜ao 3.2.4, observamos que podemos medir o grau de separabilidade a partir de um ´unico parˆametro. Al´em disso, o modelo permite trabalhar com alcances espaciais diferentes para componentes distintas, uma propriedade bastante importante.

(35)

Cap´ıtulo 4

Procedimento de inferˆ

encia

4.1

Introdu¸

ao

Quando fazemos inferˆencia sobre qualquer conjunto de dados, de fato, estamos inte-ressados em obter informa¸c˜oes referentes `as quantidades n˜ao observadas e desconhecidas. Neste cap´ıtulo, vamos apresentar uma breve revis˜ao do procedimento de inferˆencia utili-zado na implementa¸c˜ao da estrutura de covariˆancia proposta no cap´ıtulo 3.

Para tanto, considere o vetor de observa¸c˜oes y = (y1, ..., yp) obtido em cada uma

das n localiza¸c˜oes s ∈ D. Como j´a mencionado anteriormente, dados geoestat´ısticos s˜ao obtidos a partir de processos cont´ınuos ao longo do espa¸co. Se o processo for gaussiano, ent˜ao a fun¸c˜ao de verossimilhan¸ca poder´a ser escrita da seguinte maneira:

l(y; θ) = (2π)−np2 |Σ|−1/2exp  −1 2 (y − µ) TΣ−1 (y − µ)  (4.1)

onde y ´e o vetor contendo as np observa¸c˜oes, µ = Xβ ´e o vetor de m´edias, Σ ´e a estrutura de covariˆancia de dimens˜ao np × np que define a dependˆencia das p componentes entre si em todas as n localiza¸c˜oes, e θ ´e vetor param´etrico. Neste caso, a estrutura de covariˆancia ´

e definida pela fun¸c˜ao proposta na equa¸c˜ao 3.8.

Assim, podemos definir o vetor param´etrico θ que cont´em as quantidades desconheci-das que precisaremos estimar. Portanto, θ = (σ, δ, α, b, β), onde σ = (σ1, ..., σp), δ ´e o

vetor formado pelas componentes latentes δij, i 6= j, i, j = 1, ..., p, α = (α0, α1, α2), b ´e o

(36)

β1q, ..., βpq), sendo q o n´umero de covari´aveis incluindo intercepto.

4.2

Inferˆ

encia Bayesiana

Esta se¸c˜ao apresenta de maneira resumida o procedimento utilizado na estima¸c˜ao dos parˆametros do modelo proposto. Detalhes mais espec´ıficos sobre inferˆencia bayesiana podem ser vistos em Migon e Gamerman(1999) e DeGroot e Schervish (2011).

Quando trabalhamos sob o enfoque bayesiano, sabemos que a informa¸c˜ao dos dados com respeito ao vetor param´etrico θ, traduzida pela fun¸c˜ao de verossimilhan¸ca, ´e combi-nada com a informa¸c˜ao a priori, especificada atrav´es de uma distribui¸c˜ao com densidade p(θ). O resultado obtido a partir dessa combina¸c˜ao ´e conhecido como distribui¸c˜ao a posteriori, p(θ|y). De fato, ´e razo´avel pensar que ap´os observar os valores de y, a quan-tidade de informa¸c˜ao a respeito de θ aumenta. O teorema de Bayes define a regra de atualiza¸c˜ao utilizada para quantificar este aumento de informa¸c˜ao e ´e defindo da seguinte forma:

p(θ|y) = p(y|θ)p(θ) p(y) ,

onde p(y|θ) ´e a fun¸c˜ao de verossimilhan¸ca, p(θ) ´e a densidade a priori e p(y) =R p(y|θ)p(θ)dθ pode ser considerada como uma constante em rela¸c˜ao ao θ.

4.2.1

Especifica¸

oes

Dada a equa¸c˜ao4.1, para que o modelo bayesiano fique completo, precisamos especifi-car a distribui¸c˜ao a priori p(θ). Assumindo independˆencia a priori entre os parˆametros, temos que p(θ) = p(σ)p(δ)p(α)p(b)p(β) = p Y i=1 p(σi) ! p−1 Y i=1 p Y j=i+1 p(δij) ! 2 Y k=0 p(αk) ! p Y i=1 p Y j=1 p(bij) ! p(β)

As distribui¸c˜oes a priori escolhidas para cada um dos parˆametros foram: σi ∼

(37)

bij ∼ Ga(uij × med(ds), uij), i, j = 1, ..., p, med(ds) sendo a mediana das distˆancias

espaciais, β ∼ Npq(λ, Λ).

Para encontrar as distribui¸c˜oes a posteriori dos parˆametros desconhecidos utilizamos simula¸c˜oes estoc´asticas de Monte Carlo via Cadeias de Markov (MCMC). Detalhes sobre m´etodos MCMC podem ser encontrados em Gamerman e Lopes (2006). Apenas a dis-tribui¸c˜ao condicional completa de β apresentou forma anal´ıtica fechada, portanto, para este parˆametro foi poss´ıvel gerar amostras da posteriori utilizando amostrador de Gibbs. Assim, considere a fun¸c˜ao de verossimilhan¸ca descrita na equa¸c˜ao4.1, onde µ = Xβ. Seja θ− o vetor param´etrico excluindo o vetor β. Se a distribui¸c˜ao a priori for β ∼ Npq(λ, Λ), ent˜ao a distribui¸c˜ao condicional completa de β ´e

β|y, θ−∼ Npq(λ∗, Λ∗)

onde Λ∗ =XTΣ−1X + Λ−1−1

e λ∗ = Λ∗XTΣ−1y + Λ−1λ.

Para os outros parˆametros do modelo, θ−, n˜ao foi poss´ıvel encontrar distribui¸c˜oes condicionais completas com forma fechada, com isso, utilizamos passos de Metropolis-Hastings.

4.2.2

Previs˜

ao

Para fazer previs˜ao de observa¸c˜oes em determinadas localiza¸c˜oes, considere yu como o vetor de observa¸c˜oes n˜ao medidas em su localiza¸c˜oes pertencentes `a regi˜ao D. Note que

essas localiza¸c˜oes n˜ao precisam, necessariamente, ser as mesmas localiza¸c˜oes utilizadas na estima¸c˜ao do modelo.

A predi¸c˜ao de yu ´e baseada na distribui¸c˜ao preditiva p(yu|yo), onde yo ´e o vetor dos valores observados. Ent˜ao, temos a seguinte rela¸c˜ao

p(yu|yo) = Z p(yu, θ|yo)dθ = Z p(yu|yo, θ)p(θ|yo)dθ (4.2) Como estamos trabalhando com um modelo gaussiano, sabemos, por hip´otese, que (yo, yu|θ) tem distribui¸c˜ao normal multivariada. Com isso, fica f´acil encontrar a distri-bui¸c˜ao de (yu|yo, θ), basta utilizar as propriedades j´a conhecidas da distribui¸c˜ao normal

(38)

multivariada. Assim, temos que (yu|yo, θ) tamb´em seguir´a uma distribui¸c˜ao normal multivariada com m´edia e variˆancia dadas por

µ∗ = µu+ ΣuoΣ−1oo(yo− µo) (4.3)

e

Σ∗ = Σuu− ΣuoΣ−1ooΣou (4.4)

Suponha que θ(1), ..., θ(M ) formem uma amostra da distribui¸c˜ao a posteriori (θ|yo). Sabe-se que a distribui¸c˜ao preditiva a posteriori pode ser aproximada por Monte Carlo da seguinte maneira: b p(yu|yo) = 1 M M X i=1 p(yu|yo, θ(i)) (4.5)

(39)

Cap´ıtulo 5

Aproxima¸

oes separ´

aveis

5.1

Introdu¸

ao

O objetivo deste cap´ıtulo ´e apresentar uma maneira eficiente de calcular a fun¸c˜ao de verossimilhan¸ca para os modelos n˜ao separ´aveis propostos neste trabalho utilizando as aproxima¸c˜oes separ´aveis de Genton (2007).

Como apresentado na se¸c˜ao2.3.1, ao utilizar uma estrutura de covariˆancia separ´avel ´e poss´ıvel decompor a matriz de covariˆancia resultante usando o produto de Kronecker. Isso faz com que o tempo computacional seja reduzido, pois ao inv´es de trabalhar com matrizes de dimens˜ao np×np, calculam-se inversas e determinantes de matrizes de dimens˜oes n×n e p × p.

O artigo de Genton (2007) discute aproxima¸c˜oes separ´aveis feitas para matrizes de covariˆancia espa¸co-temporais n˜ao separ´aveis. O autor descreve uma aproxima¸c˜ao do produto de Kronecker para uma matriz de covariˆancia a partir da norma de Frobenius. O algoritmo proposto nesse artigo ´e simples e preserva as propriedades da matriz de covariˆancia.

Neste cap´ıtulo, utilizou-se a ideia de Genton (2007) no caso espacial multivariado. Para isso, seja Σ a matriz de covariˆancia cheia de dimens˜ao np × np. Sabe-se que no caso separ´avel h´a duas matrizes R = ρ(si, sj) ∈ <n×n e A = {aij} ∈ <p×p, tais que

Σ = R ⊗ A. A quest˜ao exposta porGenton (2007) ´e: dada a matriz Σ, como determinar as duas matrizes R ∈ <n×n e A ∈ <p×p que satisfa¸cam Σ = R ⊗ A?

(40)

Antes de apresentar a solu¸c˜ao deste problema, vale definir alguns conceitos que ser˜ao abordados adiante:

• Operador vec(.): O operador vec(.) transforma uma matriz A ∈ <n1×n2 num

vetor vec(A) ∈ <n1n2 empilhando as colunas uma em cima da outra.

• Norma de Frobenius: Considere a matriz B = {bij} ∈ <n×n, ent˜ao a norma de

Frobenius de B (kBkF) ´e dada por:

kBkF = n X i=1 n X j=1 b2ij !1/2

• Proximidade do produto de Kronecker para uma matriz de covariˆancia cheia (PPKCC): Considere a matriz Σ sendo a matriz de covariˆancia cheia de dimens˜ao np × np. A dificuldade est´a em encontrar duas matrizes R ∈ <n×n e

A ∈ <p×p que minimizam a norma de Frobenius kΣ − R ⊗ AkF.

• Decomposi¸c˜ao em Valores Singulares (DVS): Em Golub e Van Loan(1996) h´a um teorema que aponta que se B ∈ <n2×p2

´

e uma matriz real, ent˜ao existem duas matrizes ortogonais U = [u1, ..., un2] ∈ <n

2×n2 e V = [v1, ..., vp2] ∈ <p 2×p2 , tais que UTBV = diag (w1, ..., wr) ∈ <n 2×p2 , r = posto(B) = min{n2, p2} onde w1 ≥ w2 ≥ ... ≥ wr ≥ 0.

5.2

Solu¸

ao do problema PPKCC

Segundo Genton (2007) a solu¸c˜ao do problema PPKCC ´e dada pela Decomposi¸c˜ao em Valores Singulares (DVS) de uma vers˜ao permutada da matriz de covariˆancia cheia Σ ∈ <np×np.

A ideia ´e rearranjar Σ em outra matriz =(Σ) ∈ <n2×p2

, tal que a soma dos quadrados de kΣ − R ⊗ AkF seja a mesma de k=(Σ) − vec(R) ⊗ vec(A)TkF 1. Para isso, o autor

mostra que kΣ − R ⊗ AkF = k=(Σ) − vec(R) ⊗ vec(A)TkF e kΣkF = k=(Σ)kF.

(41)

A partir disso tem-se que o problema PPKCC ´e reduzido ao c´alculo do posto da matriz retangular =(Σ) ∈ <n2×p2

, cuja solu¸c˜ao tamb´em pode ser encontrada em Golub e Van Loan (1996). Baseando-se na DVS, a solu¸c˜ao do PPKCC ´e, portanto, dada por

vec(R) =√w1u1 vec(A) =

w1v1 (5.1)

onde u1 ´e a primeira coluna da matriz U ∈ <n

2×n2

e v1 ´e a primeira coluna da matriz

V ∈ <p2×p2

.

Segundo Genton, ´e importante ressaltar que essa solu¸c˜ao resulta da norma de Frobe-nius. A escolha de outras normas conduziria a um problema de otimiza¸c˜ao computacional.

5.3

Erro de aproxima¸

ao

Para medir se essa aproxima¸c˜ao proposta ´e adequada, o autor definiu um erro de aproxima¸c˜ao por separabilidade, denotado por κΣ(R, A), da matriz Σ aproximada pelo

produto de Kronecker de duas matrizes R e A. Este erro ´e definido da seguinte maneira

κΣ(R, A) =

kΣ − R ⊗ AkF

kΣkF

(5.2)

O ´ındice do erro de aproxima¸c˜ao por separabilidade, κΣ(R, A), assume valores entre

zero (se Σ for separ´avel) e q

1 − 1r, e ´e minimizado pelas solu¸c˜oes de R e A do problema PPKCC. Para obter um ´ındice que varia entre zero e um, o que torna mais f´acil a an´alise, definimos um erro padronizado, dado por:

κ∗Σ(R, A) = κqΣ(R, A) 1 −1r

(5.3)

Considerando o modelo proposto neste trabalho, ´e poss´ıvel utilizar a aproxima¸c˜ao apresentada acima para encontrar um modelo com estrutura separ´avel “pr´oximo” ao modelo n˜ao separ´avel. Vale lembrar que essa abordagem ser´a aplicada ao caso espacial multivariado, diferentemente de Genton (2007), que a utiliza no caso espa¸co-tempo.

A partir da defini¸c˜ao do modelo n˜ao separ´avel no cap´ıtulo 3, foi poss´ıvel definir a aproxima¸c˜ao separ´avel para este modelo seguindo os mesmos passos apresentados na se¸c˜ao5.2. E assim, podemos aproximar a fun¸c˜ao de verossimilhan¸ca para estima¸c˜ao dos parˆametros do modelo de forma computacionalmente eficiente.

(42)

5.3.1

Comportamento do erro de aproxima¸

ao

Como j´a visto no cap´ıtulo 3, o modelo n˜ao separ´avel proposto se reduz ao caso se-par´avel apenas quando o parˆametro α0 for igual a zero. Assim, quando α0 > 0 (α0 n˜ao

assume valores negativos) a estrutura da matriz de covariˆancia ´e n˜ao separ´avel.

Analisar o erro obtido ao trabalhar com uma estrutura aproximada ´e extremamente relevante. Uma vez que as aproxima¸c˜oes sejam satisfat´orias, utilizar estruturas separ´aveis apenas para eficiˆencia na avalia¸c˜ao da fun¸c˜ao de verossimilhan¸ca, mas ainda assim man-tendo a interpreta¸c˜ao inicial do modelo proposto ´e bastante conveniente.

Uma simula¸c˜ao foi realizada para que fosse poss´ıvel verificar o comportamento do erro de aproxima¸c˜ao por separabilidade de acordo com o parˆametro α0. Para isso, os

parˆametros do modelo foram fixados, deixando apenas o parˆametro de separabilidade α0

variando. O erro de aproxima¸c˜ao foi analisado em dois cen´arios: (a) considerando mesmos alcances espaciais para todas as componentes, isto ´e, bii = bjj = bij = bji = φ, i 6= j;

e (b) considerando alcances diferentes para componentes diferentes, ou seja, bii 6= bjj e

bij = bji, i 6= j.

A Figura 5.1 apresenta o comportamento do erro de aproxima¸c˜ao por separabilidade para cada um dos cen´arios descritos acima, considerando duas e trˆes componentes. A partir desta figura ´e poss´ıvel notar que, independentemente do n´umero de componentes e do cen´ario analisado, o erro de aproxima¸c˜ao por separabilidade ´e bastante pequeno. Note que no cen´ario cujos alcances s˜ao diferentes o erro ´e ligeiramente maior. Apesar disso, utilizando uma estrutura separ´avel aproximada, esperamos que os resultados sejam bastante pr´oximos dos obtidos a partir da estrutura n˜ao separ´avel.

Vale ressaltar que as curvas do cen´ario (b) n˜ao come¸cam em zero porque, como j´a men-cionado, no caso de alcances espaciais diferentes para cada componente, a especifica¸c˜ao α0 = 0 n˜ao conduz a uma estrutura de covariˆancia separ´avel.

5.4

Utilizando a aproxima¸

ao separ´

avel

Nesta se¸c˜ao, o MNS-01 ser´a utilizado para comparar as estruturas de covariˆancia cheia e aproximada. O objetivo ´e verificar, em cada caso, o desempenho do modelo no

(43)

0.0 0.2 0.4 0.6 0.8 1.0 1.2 0.000 0.005 0.010 0.015 0.020 0.025 (a) α0 erro padronizado 0.0 0.2 0.4 0.6 0.8 1.0 1.2 0.00 0.02 0.04 0.06 0.08 (b) α0 erro padronizado

Figura 5.1: Erro de Aproxima¸c˜ao por Separabilidade variando o valor do parˆametro de separabilidade α0. Linha vermelha avalia o erro utilizando duas componentes (p = 2) e a

linha preta com trˆes componentes (p = 3). (a) Mesmos alcances espaciais. (b) Alcances espaciais diferentes para cada componente.

que se refere `a estima¸c˜ao dos parˆametros, ao tempo computacional e `a previs˜ao. Assim, ser´a poss´ıvel analisar se o uso das aproxima¸c˜oes separ´aveis ´e razo´avel. Desta maneira, a fun¸c˜ao de verossimilhan¸ca apresentada na equa¸c˜ao 4.1 poder´a ser reescrita de forma aproximada l(y; θ) = (2π)−np2 |Σ|−1/2exp −1 2 (y − µ) TΣ−1 (y − µ)  = (2π)−np2 |R ⊗ A|−1/2exp −1 2 (y − µ) T(R ⊗ A)−1 (y − µ)  = (2π)−np2 |R|−p/2|A|−n/2exp −1 2 (y − µ) T(R−1⊗ A−1 )(y − µ)  (5.4)

onde R e A s˜ao as matrizes aproximadas obtidas a partir da equa¸c˜ao5.1.

Para comparar essas estruturas de covariˆancia, fizemos uma simula¸c˜ao utilizando 150 localiza¸c˜oes espalhadas aleatoriamente no quadrado [0,1]×[0,1]. As observa¸c˜oes de cada componente foram geradas da seguinte maneira: Y = Xβ + ε, onde X ´e matriz que cont´em as vari´aveis explicativas latitude e longitude e intercepto; β ´e o vetor dos

(44)

parˆametros das regressoras; e ε ´e o vetor de erros gerado a partir da distribui¸c˜ao normal multivariada com m´edia zero e fun¸c˜ao de covariˆancia igual `a equa¸c˜ao3.10. Neste exemplo, consideramos p = 2 (ver Figura 5.2).

Como estamos trabalhando sob o enfoque bayesiano, ´e necess´ario explicitar as distri-bui¸c˜oes a piori escolhidas para cada um dos parˆametros desconhecidos. As distribui¸c˜oes s˜ao as mesmas apresentadas no cap´ıtulo4e os valores foram escolhidos de modo que ob-tiv´essemos prioris vagas. Portanto, temos: β ∼ N6(0, 10I6), α0 ∼ Gama(1, 0, 75), δ12 ∼

Gama(1, 0, 75), φ ∼ Gama(0, 129502, 0, 25), σ1 ∼ Gama(1, 0, 75), σ2 ∼ Gama(1, 0, 75).

● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0 (a) Latitude Longitude 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0 (b) 0.2 0.4 0.6 0.8 1.0 1.2 (c) Valores Frequência −1 0 1 2 3 0 10 20 30 40 (d) Valores Frequência −0.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 10 20 30 40

Figura 5.2: Resumo das observa¸c˜oes simuladas: (a) localiza¸c˜oes. (b) matriz de co-variˆancia. (c) histograma da componente 1. (d) histograma da componente 2.

Antes de apresentar e comparar a estima¸c˜ao dos parˆametros do modelo, o tempo computacional e a previs˜ao, ´e importante analisar as fun¸c˜oes de verossimilhan¸ca obtidas para cada uma das estruturas. Os resultados dessa an´alise foram obtidos de maneira

(45)

muito simples: a partir das vari´aveis explicativas latitude e longitude e da especifica¸c˜ao do vetor β definimos a m´edia do processo Gaussiano; em seguida, foram constru´ıdas grades de valores combinando os parˆametros (α0, δ12, φ, σ1 e σ2) 2 a 22; e ent˜ao, para cada

uma dessas dez grades obtidas foi poss´ıvel desenhar as curvas de contorno da fun¸c˜ao de verossimilhan¸ca. Note que esse processo foi realizado utilizando a estrutura de covariˆancia cheia e a estrutura de covariˆancia aproximada.

A Figura 5.3apresenta as curvas da fun¸c˜ao de verossimilhan¸ca para cada uma dessas estruturas. Analisando esta figura, observa-se que as curvas de contorno da verossimi-lhan¸ca com estrutura separ´avel aproximada mostram-se bastante similares `as curvas com estrutura n˜ao separ´avel. Ap´os essa an´alise, vamos iniciar o trabalho de avaliar e comparar o desempenho dos modelos.

Como mencionado no cap´ıtulo 4o m´etodo de simula¸c˜ao utilizado foi o MCMC. Para ambos os casos rodamos 200.000 itera¸c˜oes. As distribui¸c˜oes a posteriori de cada um dos parˆametros foram encontradas retirando um burn-in de 500 itera¸c˜oes e aplicando saltos de 50 itera¸c˜oes, gerando uma amostra de tamanho 3.990. Para o monitoramento de convergˆencia foram utilizados os algoritmos presentes no pacote Coda no R (Plummer et al., 2006).

A Figura 5.4 apresenta as distribui¸c˜oes a posteriori de cada estrutura de covariˆancia e as distribui¸c˜oes a priori definidas acima. Com isso, pode-se observar que n˜ao h´a diferen¸cas substanciais entre as distribui¸c˜oes a posteriori encontradas para cada estrutura analisada. De fato, o comportamento de cada uma dessas curvas ´e bastante similiar para todos os parˆametros.

No que se refere `a estima¸c˜ao dos modelos, nota-se que as estimativas pontuais (m´edia e mediana a posteriori ) dos parˆametros s˜ao bastante pr´oximas em ambas estruturas, apresentando diferen¸ca na segunda ou terceira casa decimal. Somente as estimativas de α0 e δ12 s˜ao levemente diferentes. Entretanto, o intervalo de credibilidade cont´em o

verdadeiro valor do parˆametro em todos os casos. Tamb´em foi poss´ıvel observar que o intervalo de credibilidade do parˆametro β10 cont´em o zero apenas no caso n˜ao separ´avel.

2Os valores dos parˆametros fixados em cada caso s˜ao os mesmos escolhidos para gerar as observa¸oes das componentes. Estes valores encontram-se na Tabela5.1.

Referências

Documentos relacionados

O trabalho teve como objetivo avaliar se riqueza e di- versidade da fauna associada ao guano de morcegos hematófagos eram afetadas pela área e forma das manchas dos depósitos, pelo pH

Como objetivos específicos pretendeu-se iden- tificar os taxa existentes nesta gruta, determinar a riqueza de es- pécies de sua comunidade; verificar a influência de fatores

Para casos específicos, os contadores são procurados, como por exemplo a declaração do imposto de renda no qual muitos alegaram se tornar o período de maior contato, pois os

Se você vai para o mundo da fantasia e não está consciente de que está lá, você está se alienando da realidade (fugindo da realidade), você não está no aqui e

grandiflora por estaquia, foram avaliados dois ambientes (viveiro e ambiente / condições de ocorrência natural), assim como o efeito do hormônio de enraizamento, o ácido

ue Pat Patri rimonio monio Hist Historic oric 49

O Programa de Apoio à Tradução e Publicação de Autores Brasileiros no Exterior, aliado à revista Granta (2012) intitulada The best of young Brazilian novelists, surge como resposta

Não será concedido trancamento de matrícula durante o primeiro semestre do curso ou durante a vigência de prorrogação de prazo para a conclusão de