• Nenhum resultado encontrado

Desalinhamento de Variáveis em Dados Espacialmente Referenciados

N/A
N/A
Protected

Academic year: 2021

Share "Desalinhamento de Variáveis em Dados Espacialmente Referenciados"

Copied!
157
0
0

Texto

(1)

Disserta¸c˜

ao de mestrado

Desalinhamento de Vari´

aveis em

Dados Espacialmente

Referenciados

(2)

Sum´

ario

1 Introdu¸c˜ao 5

2 Revis˜ao de Geoestat´ıstica 8

2.1 Dados Espacialmente Referenciados . . . 8

2.1.1 Estacionariedade e Isotropia . . . 9

2.1.2 Fam´ılias de fun¸c˜oes de Correla¸c˜ao . . . 10

2.1.3 Modelagem Usual: krigagem . . . 12

2.2 Inferˆencia Bayesiana . . . 13

2.2.1 Especifica¸c˜ao da distribui¸c˜ao a priori . . . 14

2.2.2 Obten¸c˜ao da distribui¸c˜ao a posteriori . . . 15

2.2.3 T´ecnicas de Monte Carlo via Cadeias de Markov . . . 15

2.2.4 Interpola¸c˜ao Espacial . . . 17

3 M´etodos para o tratamento do desalinhamento entre vari´aveis 19 3.1 Procedimento Usual . . . 20

3.2 M´etodo da Imputa¸c˜ao M´ultipla . . . 21

3.2.1 Descri¸c˜ao do M´etodo . . . 21

3.2.2 Regras para combinar os resultados . . . 22

3.3 Modelos de Coregionaliza¸c˜ao Linear . . . 23

3.3.1 Descri¸c˜ao do MCL . . . 24

3.3.2 Modelagem Espacial Condicional . . . 28

(3)

3.3.4 Desalinhamento nos Modelos de Coregionaliza¸c˜ao

Linear . . . 31

3.3.5 C´alculo das condicionais completas para os parˆametros do Modelo de Coregionaliza¸c˜ao Linear . . . 32

4 An´alise de dados 36 4.1 Crit´erios de compara¸c˜ao de modelos . . . 36

4.1.1 Deviance Information Criterion (DIC) . . . 37

4.1.2 Posterior Predictive Loss Criterion (EPD) . . . 37

4.2 Dados Artificiais . . . 38

4.2.1 Ajuste segundo o Modelo Usual e o MCL . . . 39

4.2.2 Ajuste atrav´es do M´etodo da Imputa¸c˜ao M´ultipla . . . 58

4.2.3 Compara¸c˜ao das preditivas obtidas pelos diferentes m´etodos . 59 4.3 Part´ıculas em suspens˜ao na atmosfera na regi˜ao metropolitana do Rio de Janeiro . . . 65

4.3.1 Descri¸c˜ao dos dados . . . 69

4.3.2 Ajuste segundo o Modelo Usual e o MCL . . . 70

4.3.3 Imputa¸c˜ao M´ultipla . . . 88

4.3.4 Compara¸c˜ao dos m´etodos . . . 89

5 Modelo Espacial Gama com desalinhamento de vari´aveis 96 5.1 Modelo proposto . . . 97

5.1.1 Procedimento de Inferˆencia . . . 98

5.2 Modelo com desalinhamento entre vari´aveis . . . 101

5.3 Previs˜ao do processo para localiza¸c˜oes n˜ao medidas . . . 104

5.4 Exemplos . . . 105

5.4.1 Dados artificiais . . . 105

5.4.2 Part´ıculas Inal´aveis . . . 115

(4)

A Gr´aficos complementares do cap´ıtulo 4 120

A.1 Dados Artificiais . . . 121

A.1.1 Ajuste com distribui¸c˜oes a priori usuais . . . 121

A.1.2 Ajuste com distribui¸c˜oes a priori Berger . . . 127

A.2 Part´ıculas em suspens˜ao na atmosfera . . . 130

A.2.1 Ajustes utilizando as distribui¸c˜oes a priori usuais . . . 130

A.2.2 Ajuste utilizando as distribui¸c˜oes a priori Berger . . . 135

B Gr´aficos complementares para o Cap´ıtulo 5 138 B.1 Dados Artificiais . . . 139

B.1.1 Ajuste atrav´es do Modelo Gama Usual . . . 139

B.1.2 Ajuste atrav´es do Modelo Normal Usual . . . 141

B.1.3 Ajuste atrav´es do Modelo Gama Conjunto sem desalinhamento . . 143

B.1.4 Ajuste atrav´es do Modelo Gama conjunto com desalinhamento . . 147

(5)

Cap´ıtulo 1

Introdu¸c˜

ao

Ultimamente tem ocorrido um grande desenvolvimento de modelos para dados espa-cialmente referenciados, dados observados ao longo de uma regi˜ao geogr´afica, como, por exemplo, a modelagem de poluentes do ar num grande centro urbano.

Na Estat´ıstica Espacial, observa¸c˜oes de uma ou mais vari´aveis s˜ao observadas em alguns pontos em uma determinada regi˜ao geogr´afica. As localiza¸c˜oes desses pontos s˜ao anexadas `as respectivas observa¸c˜oes e a an´alise espacial ´e feita levando em considera¸c˜ao essas localiza¸c˜oes. Ambas, as observa¸c˜oes e as localiza¸c˜oes espaci-ais, podem ser modeladas como vari´aveis aleat´orias e a inferˆencia ´e feita sobre os parˆametros envolvidos nestes modelos e sobre eventuais localiza¸c˜oes n˜ao observadas. Em estudos de tais dados n˜ao ´e razo´avel assumir que as observa¸c˜oes s˜ao indepen-dentes ao longo da regi˜ao sob estudo. Acredita-se que observa¸c˜oes pr´oximas s˜ao mais correlacionadas do que observa¸c˜oes distantes entre si.

Modelos espaciais s˜ao relativamente recentes em Estat´ıstica e podem ser aplica-dos em uma variedade de campos, como Geologia, Epidemiologia, Processamento de imagens, Ciˆencia ambiental, etc. Tais modelos s˜ao usados para capturar asso-cia¸c˜ao espacial e para fazer previs˜oes em localiza¸c˜oes sem observa¸c˜oes, tipicamente na presen¸ca de vari´aveis explicativas. Inferˆencia sobre o processo em localiza¸c˜oes n˜ao medidas ´e vital no contexto de desenvolvimento de mapas, an´alise de imagens, ciˆencia ambiental, etc.

(6)

referencia-dos ´e o desalinhamento das vari´aveis. Esse tipo de problema ´e muito comum em da-dos ambientais, por exemplo, em uma determinada localiza¸c˜ao observamos a medida de um determinado poluente e n˜ao observamos as medidas de poss´ıveis covari´aveis que achamos que ajudar˜ao na modelagem, exatamente nos mesmos pontos.

Outro ponto importante ´e que, no contexto da geoestat´ıstica, dadas as ob-serva¸c˜oes do processo de interesse nas localiza¸c˜oes, em geral, assume-se que a quanti-dade aleat´oria segue um processo Gaussiano, que descreveremos no cap´ıtulo a seguir, e para isso trabalha-se com uma transforma¸c˜ao dos dados que melhor se aproxi-ma desta distribui¸c˜ao. S´o que quando transforaproxi-mamos os dados, estamos fixando o parˆametro da transforma¸c˜ao Box&Cox (Box and Cox 1964) e n˜ao necessariamente o modelo gaussiano ´e o mais apropriado.

Neste trabalho, fazemos uma an´alise de diferentes m´etodos para lidar com o pro-blema do desalinhamento, e apresentamos uma compara¸c˜ao entre eles fazendo uma aplica¸c˜ao `a dados de polui¸c˜ao coletados em 22 postos de monitoramento localizados na Regi˜ao Metropolitana do Rio de Janeiro. Al´em disso, seguindo Diggle, Tawn, and Moyeed 1998, propomos uma modelagem espacial gama para o tratamento de dados positivos em sua escala original.

Este trabalho est´a dividido da seguinte forma: no Cap´ıtulo seguinte fazemos uma revis˜ao de alguns aspectos da modelagem de dados espacialmente referenci-ados. Apresentaremos tamb´em o procedimento de inferˆencia bayesiano, fazendo tamb´em uma breve revis˜ao dos m´etodos computacionais Monte Carlo via Cadeias de Markov(MCMC) usados para obten¸c˜ao de uma amostra da distribui¸c˜ao a pos-teriori dos parˆametros dos modelos. Quando o c´alculo anal´ıtico das distribui¸c˜oes a posteriori n˜ao ´e poss´ıvel, usamos esses m´etodos para amostrar dessas distribui¸c˜oes. No Cap´ıtulo 3 apresentamos alguns dos m´etodos para o tratamento do desali-nhamento das vari´aveis, entre eles um procedimento que chamamos de usual, o M´etodo da Imputa¸c˜ao M´ultipla(I.M.) e uma abordagem bayesiana. Tamb´em ser´a feita uma revis˜ao dos Modelos de Coregionaliza¸c˜ao Linear(MCL), inicialmente pro-postos por Math´eron 1982 e apresentaremos um desenvolvimento de tais modelos para o problema do desalinhamento, seguindo uma abordagem bayesiana.

(7)

No Cap´ıtulo 4 faremos uma aplica¸c˜ao `a dados artificiais, assim como `a dados de concentra¸c˜ao de part´ıculas inal´aveis na Regi˜ao Metropolitana do Rio de Janeiro, faremos tamb´em uma compara¸c˜ao entre as diferentes abordagens e modelos. Es-tamos interessados em observar que, quando traEs-tamos os dados faltantes como parˆametros do modelo, estamos levando em considera¸c˜ao a incerteza associada a sua estima¸c˜ao. Os dados utilizados s˜ao referentes `a concentra¸c˜ao de part´ıculas inal´aveis no dia 10 de outubro de 2002. Verificamos a presen¸ca de valores faltantes devido ao n˜ao funcionamento de algumas esta¸c˜oes monitoradoras. Neste mesmo dia, obser-vamos tamb´em os registros de temperatura e umidade em algumas localiza¸c˜oes da cidade. Note que as localiza¸c˜oes das observa¸c˜oes de temperatura e umidade n˜ao s˜ao necessariamente as mesmas localiza¸c˜oes das observa¸c˜oes das part´ıculas inal´aveis, da´ı o desalinhamento.

Ap´os o ajuste e compara¸c˜ao dos modelos, apresentamos resultados mais deta-lhados para o melhor modelo de acordo com os crit´erios de compara¸c˜ao. E fazemos uma previs˜ao para a concentra¸c˜ao de part´ıculas inal´aveis para 4 pontos onde n˜ao possu´ımos tal informa¸c˜ao.

No Cap´ıtulo 5 apresentaremos uma modelagem alternativa para tratar dos dados em quest˜ao em sua escala original, apresentaremos a aplica¸c˜ao para esses mesmos dados, assim como uma compara¸c˜ao com a abordagem anterior. Finalmente, no Cap´ıtulo 6 apresentamos as conclus˜oes, assim como poss´ıveis extens˜oes para traba-lhos futuros.

(8)

Cap´ıtulo 2

Revis˜

ao de Geoestat´ıstica

2.1

Dados Espacialmente Referenciados

Como j´a mencionado anteriormente, ultimamente temos observado um grande de-senvolvimento de novas t´ecnicas para o estudo de dados observados ao longo de uma regi˜ao geogr´afica, como por exemplo, a modelagem de poluentes do ar num centro urbano. Associada a cada observa¸c˜ao temos sua localiza¸c˜ao geogr´afica, por isso, chamamos tais dados de dados espacialmente referenciados. Na an´alise deste tipo de dado, agregamos as observa¸c˜oes `as suas respectivas localiza¸c˜oes e a an´alise ´e feita levando em considera¸c˜ao essas localiza¸c˜oes.

Cressie 1993, divide a estat´ıstica espacial de acordo com os tipos de observa¸c˜oes associadas ao espa¸co em que elas s˜ao observadas. De uma forma geral a estat´ıstica espacial cont´em trˆes grandes ´areas: geoestat´ıstica, dados de ´area e processos pon-tuais. Neste trabalho abordaremos apenas o primeiro tipo.

Seja s ∈Rp uma localiza¸c˜ao no espa¸co euclideano p-dimensional e seja Y (s) o valor da vari´avel aleat´oria Y na localiza¸c˜ao s. Assim, em geral {y(s) : s ∈ G} ´e uma realiza¸c˜ao parcial do processo aleat´orio {Y (s) : s ∈ G}, onde G ´e um subconjunto fixo do IRp com volume p-dimensional positivo (Cressie 1993). Em outras palavras, s varia continuamente ao longo da regi˜ao G. Aqui, estamos assumindo G ∈Rp uma regi˜ao fixa e obteremos informa¸c˜ao do processo em n localiza¸c˜oes pertencentes `a essa determinada regi˜ao.

(9)

Em estudos envolvendo observa¸c˜oes espacialmente referenciadas, suspeita-se que as observa¸c˜oes apresentem uma estrutura de correla¸c˜ao espacial e a caracteriza¸c˜ao desta ´e de grande importˆancia. ´E intuitivo pensar que observa¸c˜oes pr´oximas tendem a ser mais correlacionadas do que observa¸c˜oes distantes entre si. Desta forma, quando modelamos dados deste tipo, desejamos identificar estas estruturas. Para isso, ´e comum na literatura de geoestat´ıstica, assumir estacionariedade e isotropia do processo sob estudo. A seguir descreveremos essas duas propriedades.

2.1.1

Estacionariedade e Isotropia

Inicialmente, assuma que, a fun¸c˜ao da m´edia, µ(s) = E(Y (s)) existe para todo s ∈ G. Usualmente, diz-se que µ(.) ´e a tendˆencia do processo espacial Y (.). Suponha tamb´em que a variˆancia de Y (s), V (Y (s)), existe para todo s ∈ G. Por defini¸c˜ao, o processo espacial Y (.) ´e intrinsicamente estacion´ario se:

E(Y (s + h) − Y (s)) = 0 e V (Y (s + h) − Y (s)) = 2γ(h), ∀s, s + h ∈ G, (2.1)

onde a quantidade γ(.) ´e uma fun¸c˜ao condicionalmente definida negativa. O processo Y (.) ´e dito ser estacion´ario de segunda ordem (ou fracamente estacion´ario) se µ(s) = µ, ∀s ∈ G, isto ´e, µ(s) ´e constante para todo s ∈ G e a covariˆancia entre dois pontos quaisquer em G ´e fun¸c˜ao apenas da diferen¸ca entre as duas localiza¸c˜oes, isto ´e,

cov(Y (s), Y (s0)) = c(s − s0), ∀s, s0 ∈ G. (2.2)

A quantidade 2γ(.) em (2.1), ´e conhecida como variograma e ´e um dos parˆametros mais importantes na modelagem de geostat´ıstica. A fun¸c˜ao c(.) ´e chamada de co-variograma. Se em (2.1), 2γ(s − s0) depender apenas da distˆancia euclideana entre s e s0, o processo Y (.) ´e ent˜ao chamado de isotr´opico. Um processo intrinsicamente estacion´ario e isotr´opico ´e chamado de homogˆeneo. Se uma dessas condi¸c˜oes n˜ao se aplica, o processo ´e heterogˆeneo.

Em geral, assume-se que a vari´avel aleat´oria Y (.) segue um processo Gaussiano. Mais especificamente, a quantidade aleat´oria Y (.), que assume valores y(s) para

(10)

s ∈ G, segue um processo Gaussiano (PG) com m´edia µ(.) e fun¸c˜ao de covariˆancia c(., .), denotado por:

Y (.) ∼ P G(µ(.), c(., .)),

se para quaisquer s1, s2, ..., sn ∈ G, e qualquer n = 1, 2, 3, ..., a distribui¸c˜ao conjunta de Y (s1), Y (s2), ..., Y (sn) ´e uma normal multivariada com parˆametros dados por E(Y (si)) = µ(si) e cov(Y (si), Y (sj)) = c(si− sj).

Quando um processo ´e homogˆeneo, sua variˆancia ´e constante ao longo de G. Portanto, podemos escrever a fun¸c˜ao de covariˆancia de Y (.) como c(si− sj) = σ2ρ(||s − s0||; φ), onde ρ(.; φ) denota uma fun¸c˜ao de correla¸c˜ao v´alida (positiva definida) em IRp que depende possivelmente de um vetor param´etrico φ. Descreve-remos essa fun¸c˜ao de correla¸c˜ao na subse¸c˜ao seguinte. Note que, neste caso, o vario-grama pode ser escrito como 2γ(h) = V (Y (s)−Y (s0)) = σ22−2σ2ρ(ks − s0k; φ) = 2(1 − ρ(ks − s0k; φ)). Dessa forma, a conveniˆencia dos processos homogˆeneos fica clara, j´a que a estrutura de covariˆancia do processo Y (.) pode ser modelada apenas atrav´es dos parˆametros σ2 e φ. Al´em disso, modelando Y (.) atrav´es de um processo Gaussiano, precisamos especificar apenas seu primeiro e segundo momentos.

´

E comum definir o momento de primeira ordem como uma combina¸c˜ao linear de poss´ıveis (q) covari´aveis que tenham sido observadas ao longo das n localidades medidas. A especifica¸c˜ao do momento de segunda ordem pode ser feita de maneiras diferentes e, geralmente, ´e a mais desafiadora. A subse¸c˜ao seguinte descreve algumas fam´ılias de fun¸c˜ao de correla¸c˜ao.

2.1.2

Fam´ılias de fun¸c˜

oes de Correla¸c˜

ao

Existem na literatura algumas fam´ılias de fun¸c˜oes de correla¸c˜ao. Uma fun¸c˜ao de correla¸c˜ao que ´e v´alida em IRp1 tamb´em ´e v´alida em IRp2 para p

2 < p1. Entretanto,

a rec´ıproca n˜ao ´e necessariamente verdadeira (Cressie 1993). Geralmente a fun¸c˜ao de correla¸c˜ao ρ(.) deve traduzir algumas de nossas intui¸c˜oes. Por exemplo, espera-se que a correla¸c˜ao entre duas medidas decres¸ca quando aumentarmos a distˆancia

(11)

entre duas localiza¸c˜oes muito distantes tende a 0. Ribeiro Jr. and Diggle 1999, apresentam alguns dos principais modelos param´etricos de fun¸c˜oes de correla¸c˜ao assim como simula¸c˜oes de processos Gaussianos univariados mostrando o efeito do uso das diferentes fam´ılias. Dois dos principais exemplos de fun¸c˜ao de correla¸c˜ao s˜ao:

(a) fam´ılia exponencial potˆencia:

ρ(d; φ) = exp(−(φd)κ),

onde φ∗ = (φ, κ) com φ > 0 e κ ∈ (0, 2]. O parˆametro φ ´e de escala e d ´e a distˆancia euclideana entre dois pontos quaisquer em G. Quando κ = 1 temos o caso particular da fun¸c˜ao de correla¸c˜ao exponencial. E quando κ = 2 temos a fun¸c˜ao de correla¸c˜ao Gaussiana.

(b) fam´ılia Mat´ern ρ(d; φ; λ) = 1 2λ−1Γ(λ)  2 q (λ)d φ  κλ  2 q (λ)d φ  ,

onde φ∗ = (φ, λ),φ > 0 ´e o parˆametro de escala, λ > 0 ´e o parˆametro de forma. A fun¸c˜ao Γ(.) ´e a fun¸c˜ao Gama usual e κλ ´e a fun¸c˜ao modificada de Bessel do terceiro tipo de ordem λ.

Um aspecto importante de superf´ıcies espaciais ´e o seu grau de suavidade. Matematicamente essa propriedade ´e descrita atrav´es do grau de diferenciabilidade do processo. A especifica¸c˜ao da fam´ılia de fun¸c˜ao de correla¸c˜ao ´e de grande im-portˆancia, pois, em processos Gaussianos a suavidade do processo est´a diretamente relacionada `a diferenciabilidade da sua estrutura de covariˆancia. Por exemplo, a fun¸c˜ao de correla¸c˜ao Gaussiana resulta em processos infinitamente diferenci´aveis, em outras palavras, em processos extremamente suaves, o que na pr´atica ´e dif´ıcil de se observar. Recentemente a fun¸c˜ao de correla¸c˜ao em (b) tem sido a mais usada na literatura pois al´em das fun¸c˜oes exponencial (quando λ = 0, 5) e Gaussiana (quando λ → ∞) serem seus casos particulares, o parˆametro λ controla a diferenciabilidade do processo (Schmidt, Nobre, and Ferreira 2002).

(12)

Neste trabalho, usaremos a fun¸c˜ao de correla¸c˜ao exponencial ρ(d; φ) = exp(−φd). Nela, o parˆametro φ nos diz qu˜ao rapidamente a correla¸c˜ao decai pra zero. O decaimento pode ser, mais ou menos lento, dependendo desse parˆametro. Quando ρ ´e isotr´opica e estritamente decrescente para um dado vetor param´etrico φ, a distˆancia que torna ρ desprez´ıvel, isto ´e, por exemplo, a correla¸c˜ao igual a 0.05, ´e referido na literatura de geostat´ıstica como alcance. Portanto, o alcance ´e a distˆancia a partir da qual n˜ao h´a mais correla¸c˜ao entre as observa¸c˜oes.

2.1.3

Modelagem Usual: krigagem

De uma forma geral, o objetivo da modelagem de processos espaciais ´e o de prever a vari´avel sob estudo em localidades n˜ao medidas, a partir das observa¸c˜oes nos pon-tos medidos. Em outras palavras, baseados na informa¸c˜ao observada de Y (.) em n pontos de uma determinada regi˜ao, deseja-se prever o processo em k pontos n˜ao me-didos dessa mesma regi˜ao. Na literatura de estat´ıstica espacial o procedimento mais usual ´e a utiliza¸c˜ao de krigagem. Em geral, a krigagem depende das propriedades do momento de segunda ordem de Y (.).

Usualmente, no contexto de geoestat´ıstica, dadas as observa¸c˜oes do processo de interesse em n localiza¸c˜oes, Y = (Y (s1), Y (s2), ..., Y (sn))0, assume-se que :

Y | µ, Σ ∼ Nn(µ, Σ),

onde Nn representa a distribui¸c˜ao normal multivariada de dimens˜ao n, µ ´e um vetor de dimens˜ao n representando a m´edia do processo, e Σ ´e uma matriz, n × n, que representa a estrutura de covariˆancia.

De forma geral, podemos supor que a tendˆencia do processo Y (.) n˜ao ´e constante ao longo de G, mas sim uma combina¸c˜ao linear desconhecida de fun¸c˜oes conhecidas X(s) = {X1(s), ..., Xq(s)}, s ∈ G, isto ´e, µ(s) = β0X(s), onde β = (β1, ..., βq)0. As quantidades Xj(.), j = 1, ..., q representam covari´aveis que possivelmente explicam o n´ıvel de Y (.). Dessa forma esse n˜ao ´e um processo estacion´ario, j´a que o n´ıvel de Y (.) varia com as localiza¸c˜oes em G. Na literatura de geoestat´ıstica a interpola¸c˜ao

(13)

µ(.) ´e assumida constante para todo s ∈ G a interpola¸c˜ao espacial ´e chamada de krigagem ordin´aria (Cressie 1993). Na krigagem, a previs˜ao ´e baseada numa matriz de covariˆancia conhecida, o que na pr´atica n˜ao ´e realista. Geralmente, a matriz ´e estimada atrav´es dos dados de modo que a previs˜ao n˜ao considera a incerteza associada `a estima¸c˜ao da estrutura de covariˆancia.

A seguir descreveremos o modelo espacial gaussiano. Tal modelo tem uma es-trutura simples que ´e flex´ıvel o suficiente para lidar com uma grande classe de problemas.

Em geral, assuma {Y (s) : s ∈ G ⊂ IR2} um campo aleat´orio, tal que Y ⊂ IR1

(ex.: Y (s) = CO2(s)). Nesse caso, assumimos que as covari´aveis e a vari´avel resposta

foram medidas nos mesmos n pontos de G. Assim, o modelo para Y pode ser descrito por

Y (s) = β0X(s) + Z(s) + ²(s), (2.3)

onde β ´e um vetor de coeficientes das q covari´aveis em X, sendo X(s) = (X1(s), X2(s), ..., Xq(s))0,

³

Z(s) | σ2, φ´∼ P G(0, σ2ρ(|| s − s ||; φ)), (2.4)

com σ2sendo a variˆancia (comum) de Z(.) e ρ(.; φ) uma fun¸c˜ao de correla¸c˜ao v´alida.

Assim temos que cada elemento de c(., .) ´e dado por

Σs,s0 = c(s, s0) = σ2ρ(|| s − s0 ||; φ), e

²(s) ∼ N(0, τ2).

Chamamos ²(s) de efeito pepita, a fonte de erros que n˜ao depende da loca-liza¸c˜ao s, ou seja, uma componente de varia¸c˜ao devido a erros de medida que s˜ao independentes ao longo da regi˜ao G.

2.2

Inferˆ

encia Bayesiana

Um dos principais objetivos da inferˆencia estat´ıstica em dados espaciais ´e conseguir conclus˜oes sobre quantidades n˜ao observadas. Isso ´e feito a partir de um conjunto

(14)

de informa¸c˜oes que temos dispon´ıveis sobre determinada quantidade de interesse. Na inferˆencia bayesiana, o processo de inferˆencia ´e baseado na distribui¸c˜ao do vetor de parˆametros θ ap´os a observa¸c˜ao dos dados. Esta distribui¸c˜ao ´e chamada de distribui¸c˜ao a posteriori, e ´e obtida seguindo o teorema de Bayes:

p(θ|y) ∝ fn(Y|θ)p(θ),

onde fn(Y|θ) representa a fun¸c˜ao de verossimilhan¸ca, que descreve a informa¸c˜ao proveniente dos dados, e p(θ) representa a distribui¸c˜ao a priori, que descreve a in-forma¸c˜ao que temos sobre θ antes da observa¸c˜ao dos dados. A seguir descreveremos poss´ıveis distribui¸c˜oes a priori para o vetor param´etrico θ = (β, σ2, τ2, φ).

2.2.1

Especifica¸c˜

ao da distribui¸c˜

ao a priori

Sob o enfoque bayesiano, precisamos atribuir distribui¸c˜oes a priori para os parˆametros do modelo. Seguindo o modelo em (2.3), o vetor de parˆametros ´e dado por θ.

´

E razo´avel assumir que os parˆametros em θ s˜ao independentes a priori. Como os coeficientes em β representam os efeitos das covari´aveis X sobre a m´edia de Y (.), geralmente assume-se que βi ∼ N(0, σ2β), onde σβ2 ´e uma quantidade fixa conhecida. Quanto maior o valor de σ2

β mais vaga a informa¸c˜ao a priori sobre βi, i = 1, 2, ..., q. Para os parˆametros σ2 e τ2geralmente associa-se uma priori gama ou gama invertida

com uma determinada m´edia e variˆancia. Os parˆametros em ρ representam aqueles envolvidos na fun¸c˜ao de correla¸c˜ao espacial especificada para o modelo. Por exemplo, no caso da fun¸c˜ao de correla¸c˜ao exponencial, ρ(d; φ) = exp(−(φd)), uma priori usualmente atribu´ıda a φ ´e uma distribui¸c˜ao gama invertida com variˆancia infinita. A escolha da m´edia dessa distribui¸c˜ao pode ser dif´ıcil. Uma sugest˜ao ´e atribuir uma m´edia tal que a correla¸c˜ao ´e 0.05 quando a distˆancia ´e igual `a metade da distˆancia m´axima presente na amostra. Em outras palavras, essa priori reflete o fato de esperarmos que para distˆancias maiores que 0.5dmax a correla¸c˜ao espacial ´e pr´oxima de 0 (Schmidt, Nobre, and Ferreira 2002).

(15)

2.2.2

Obten¸c˜

ao da distribui¸c˜

ao a posteriori

Seguindo o paradigma de Bayes, sabemos que a distribui¸c˜ao a posteriori de θ, p(θ|y), ´e proporcional ao produto da fun¸c˜ao de verossimilhan¸ca, fn(Y|θ), pela priori, p(θ), isto ´e,

p(θ|y) ∝ fn(Y|θ)p(θ).

Seguindo o modelo em (2.3) temos que a distribui¸c˜ao a posteriori para θ ser´a dada por: p(θ|y) ∝ |ΣY|−1/2exp ½ 1 2(Y − β 0X)T Σ−1Y (Y − β0X) ¾ p(β)p(σ2)p(φ)p(τ2). (2.5)

Quaisquer que sejam as distribui¸c˜oes a priori associadas aos elementos de θ, n˜ao ´e poss´ıvel fazer nenhuma sumariza¸c˜ao da distribui¸c˜ao a posteriori acima de forma anal´ıtica. Portanto, ´e preciso fazer uso de m´etodos de simula¸c˜ao estoc´astica para obter amostras da densidade acima. Nos ´ultimos 15 anos a inferˆencia Bayesiana vem experimentando um grande avan¸co devido a introdu¸c˜ao de M´etodos de Monte Carlo via cadeias de Markov (MCMC). Neste contexto, os m´etodos de simula¸c˜ao estoc´astica mais utilizados s˜ao o amostrador de Gibbs e o Metropolis-Hastings, que descreveremos a seguir. Para maiores detalhes veja Gamerman 1997.

2.2.3

ecnicas de Monte Carlo via Cadeias de Markov

Um algoritmo Monte Carlo via cadeia de Markov (MCMC) para simular p(.) ´e qual-quer m´etodo que produza uma cadeia de Markov homogˆenea, erg´odica e irredut´ıvel cuja distribui¸c˜ao estacion´aria seja p(.). Para maiores detalhes veja Gamerman 1997.

Particularmente, descreveremos aqui, os algoritmos Amostrador de Gibbs e Metropo-lis Hastings, que ser˜ao utilizados para obter amostras da distribui¸c˜ao a posteriori do vetor θ, descrito em 2.2.1.

• Amostrador de Gibbs ´

E um algoritmo que gera uma sequˆencia

(16)

a partir de uma cadeia de Markov, cuja distribui¸c˜ao limite/equil´ıbrio ´e p(θ) e cujo n´ucleo de transi¸c˜ao ´e formado pelo produto das distribui¸c˜oes condi-cionais completas. {θ(0), θ(1), θ(2), . . .} representam amostras dos parˆametros do modelo. Seja π(θi|.), i = 1, ..., p, a condicional completa da i-´esima compo-nente do vetor θ, o algoritmo ´e ent˜ao, descrito da seguinte forma:

Algoritmo:

1. θ(0) = (θ1(0), θ(0)2 , . . . , θ(0)

p )

2. Na j-´esima itera¸c˜ao, θ(j)´e obtido a partir de θ(j−1); sorteando

θ(j)1 ∼ π(θ12(j−1), . . . , θ(j−1)p ) θ(j)2 ∼ π(θ21(j), θ3(j−1), . . . , θ(j−1)p ) θ3(j) ∼ π(θ31(j), θ2(j), θ4(j−1), . . . , θ(j−1)p ) ... θ(j) p ∼ π(θp|θ1(j), θ2(j), . . . , θ(j)p−1)

(17)

• Metropolis-Hastings

Assim como o amostrador de Gibbs, ´e um algoritmo que gera uma sequˆencia (0), θ(1), θ(2), . . .},

a partir de uma cadeia de Markov, cuja distribui¸c˜ao limite ´e p(θ).

O algoritmo de Metropolis-Hastings ser´a usado para amostrar das distribui¸c˜oes condicionais completas dos parˆametros que n˜ao possuem condicionais comple-tas de forma fechada. Este algoritmo consiste nos seguintes passos:

1. na i-´esima itera¸c˜ao do algoritmo, sorteamos um valor proposto para θ, ξ de uma distribui¸c˜ao proposta q(ξ|θ(i−1));

2. Aceitamos o valor proposto com probabilidade α, onde α = min     1, p(ξ) q(ξ|θ(i−1)) p(θ(i−1)) q(θ(i−1)|ξ)     ,

caso contr´ario, permanecemos com o valor corrente de θ.

2.2.4

Interpola¸c˜

ao Espacial

Como j´a mencionado anteriormente, em geoestat´ıstica, o maior interesse encontra-se na previs˜ao do processo em pontos n˜ao observados, baseada na informa¸c˜ao obtida atrav´es das n localiza¸c˜oes observadas. De acordo com o modelo em (2.3) as ob-serva¸c˜oes est˜ao sendo geradas de acordo com um processo gaussiano. Uma vez obtida amostras da distribui¸c˜ao a posteriori de θ podemos descrever a previs˜ao do processo numa regi˜ao atrav´es da distribui¸c˜ao preditiva de um conjunto, por exemplo k, de localiza¸c˜oes n˜ao medidas. Mais especificamente, defina o vetor de n˜ao observa-dos como Y0

u = (Y(sn+1), . . . , Y(sn+k)). Pela defini¸c˜ao do modelo em (2.3), temos que    Y Yu | θ   ∼ N(n+k)       µg µu   ;    Σgg Σgu Σug Σuu      ,

(18)

onde µg representa o vetor n × 1 com a tendˆencia polinomial para as localiza¸c˜oes medidas e, analogamente, µu ´e o vetor de dimens˜ao k para as localiza¸c˜oes n˜ao medidas; Σgg denota a matriz de covariˆancias, n × n, entre as localiza¸c˜oes medidas; Σgu ´e a matriz de covariˆancias, n × k, entre as localiza¸c˜oes medidas e n˜ao medidas; e Σuu denota a matriz de covariˆancias, k × k, entre as localiza¸c˜oes n˜ao medidas.

Para a previs˜ao dos processos nas k localiza¸c˜oes n˜ao observadas, precisamos obter a distribui¸c˜ao preditiva p(Yu | Y), que ´e dada por

p(Yu | Y) =

Z

θp(Yu | Y, θ) p(θ | Y)dθ (2.6)

= Ep(θ|Y)[p(Yu | Y, θ)] .

Podemos aproximar o valor esperado acima por integra¸c˜ao via Monte Carlo (Gamer-man 1997) ap´os obter a amostra a posteriori do vetor param´etrico θ . Necessitamos agora obter a distribui¸c˜ao p(Yu | Y, θ), que ´e facilmente calculada utilizando as propriedades da normal multivariada (Mardia, Kent, and Bibby 1979). Mais especi-ficamente, temos que

p(Yu | Y, θ) ∼ Nk ³ µu|g, Σu|g ´ , onde µu|g = µu+ ΣugΣ−1gg ³ Y − µg´ e Σu|g = Σuu− ΣugΣ−1ggΣgu.

Obtidas as amostras da posteriori de θ, obteremos via integra¸c˜ao de Monte Carlo p(Yu | Y), tal que: p(Yu | Y) ' L1

PL

l=1p(Yu | Y, θl).

Abordamos neste Cap´ıtulo alguns aspectos importantes da Geoestat´ıstica. A seguir, descreveremos alguns procedimentos para o tratamento do desalinhamento entre vari´aveis espacialmente referenciadas.

(19)

Cap´ıtulo 3

etodos para o tratamento do

desalinhamento entre vari´

aveis

´

E muito comum em problemas multivariados, no contexto de geoestat´ıstica, ter que lidar com banco de dados cujas observa¸c˜oes n˜ao s˜ao feitas exatamente nos mesmos pontos da regi˜ao sob estudo G. Geralmente, isso se deve ao fato de como e, em que momento, as esta¸c˜oes foram alocadas `as suas posi¸c˜oes.

Banerjee and Gelfand 2002 apresentam procedimentos de inferˆencia quando h´a desalinhamento das covari´aveis com a vari´avel resposta, isto ´e, a vari´avel resposta e eventuais covari´aveis n˜ao s˜ao medidas no mesmo ponto. Todo o artigo ´e desenvolvido para respostas univariadas em cada ponto observado da regi˜ao G.

Le, Sun, and Zidek 1997, baseados na metodologia inicialmente proposta em Le and Zidek 1992, extendem a modelagem para o problema de desalinhamento entre as vari´aveis resposta (dados faltantes devido ao desenho das esta¸c˜oes). Este m´etodo produz a distribui¸c˜ao preditiva conjunta para v´arias localidades e para diferentes instantes no tempo utilizando todo o conjunto de dados dispon´ıvel.

Neste trabalho, estamos interessados em estudar o desalinhamento entre vari´avel resposta e poss´ıveis covari´aveis. Apresentaremos nas se¸c˜oes seguintes algumas abor-dagens para o tratamento desse problema.

Nesse contexto, o conjunto de localiza¸c˜oes onde as poss´ıveis covari´aveis s˜ao ob-servadas n˜ao ´e igual ao conjunto de localiza¸c˜oes onde a vari´avel resposta ´e observada.

(20)

Inicialmente, seja Y a vari´avel resposta e seja X o vetor de poss´ıveis vari´aveis ex-plicativas, temos assim 3 conjuntos disjuntos na regi˜ao de interesse G, RX, RY e RXY . Para as localiza¸c˜oes s ∈ RXY , n´os observamos ambos, Y (s) e X(s), para as localiza¸c˜oes em RY , observamos Y (s), mas n˜ao observamos X(s), e para as local-iza¸c˜oes em RX, observamos X(s) mas n˜ao Y (s). Nas locallocal-iza¸c˜oes restantes em G n˜ao observamos nem X(s) nem Y (s) e chamaremos esta regi˜ao de RU. A figura 3.1 ilustra essa situa¸c˜ao. Veja Banerjee and Gelfand 2002 para maiores detalhes.

Banerjee and Gelfand 2002 prop˜oem a modelagem conjunta de resposta e co-vari´aveis, mas assumem o mesmo alcance espacial para todas as vari´aveis. Aqui permitiremos alcances diferentes para cada uma das vari´aveis.

Figura 3.1: Representa¸c˜ao gr´afica do desalinhamento entre vari´aveis.

3.1

Procedimento Usual

Uma possibilidade para resolver o problema dos dados faltantes seria a remo¸c˜ao de pontos para os quais n˜ao temos informa¸c˜ao conjunta sobre covari´aveis e resposta. Outra possibilidade seria utilizar valores plaus´ıveis para imputar as observa¸c˜oes faltantes. Note que, o modelo apresentado em (2.3), pode ser usado considerando essas duas possibilidades.

Por´em procedendo desta forma poder´ıamos perder informa¸c˜ao ou n˜ao estar´ıamos considerando a incerteza associada `a imputa¸c˜ao das observa¸c˜oes. Desta forma, a

(21)

seguir, descreveremos m´etodos que acreditamos serem mais eficazes para o trata-mento desse desalinhatrata-mento.

3.2

etodo da Imputa¸c˜

ao M´

ultipla

Como j´a mencionado anteriormente, na an´alise de dados multivariados frequente-mente nos deparamos com o problema de dados faltantes. At´e recentefrequente-mente, os ´unicos m´etodos dispon´ıveis para an´alise de conjuntos de dados incompletos concen-travam-se na remo¸c˜ao dos dados faltantes, ou ignorando a informa¸c˜ao incompleta ou substituindo esta informa¸c˜ao por valores plaus´ıveis. Esses m´etodos, apesar de simples implementa¸c˜ao, s˜ao muito ineficientes, pois ignoram a incerteza associada aos dados faltantes e, assim, resultam em estimativas mais conservadoras, j´a que os intervalos de previs˜ao tender˜ao a ser menores.

Recentemente, foram feitos grandes progressos no desenvolvimento de procedi-mentos estat´ısticos para a an´alise de dados faltantes. No fim da d´ecada de 70, Demp-ster, Laird, and Rubin 1977 formalizaram o algoritmo EM, um m´etodo computa-cional para estima¸c˜ao eficiente no tratamento de conjuntos de dados incompletos. Em qualquer conjunto de dados incompletos, os valores observados nos d˜ao evidˆencia indireta sobre valores plaus´ıveis para os dados faltantes. Essa evidˆencia, quando combinada com certas suposi¸c˜oes, implicam em uma distribui¸c˜ao de probabilidade preditiva para os valores faltantes, que deve ser ponderada na an´alise estat´ıstica. O algoritmo EM faz essa pondera¸c˜ao de maneira determin´ıstica ou n˜ao aleat´oria. Aqui, estaremos utilizando o m´etodo desenvolvido por Rubin 1987, conhecido como o m´etodo da imputa¸c˜ao m´ultipla, que trata a pondera¸c˜ao via simula¸c˜ao.

3.2.1

Descri¸c˜

ao do M´

etodo

O m´etodo da Imputa¸c˜ao M´ultipla ´e uma t´ecnica de simula¸c˜ao que substitui cada valor faltante por um conjunto de m > 1 valores plaus´ıveis, vindos de suas dis-tribui¸c˜oes preditivas, de um determinado modelo de imputa¸c˜ao. A varia¸c˜ao entre as m imputa¸c˜oes reflete a incerteza com que cada um dos valores faltantes podem

(22)

ser previstos dos valores observados. Depois de feita a imputa¸c˜ao m´ultipla existem m conjuntos de dados completos, e cada um desses conjuntos pode ser analisado por m´etodos usuais. As m vers˜oes dos conjuntos de dados completos s˜ao analisados separadamente e de maneira igual e os resultados combinados usando regras apresen-tadas por Rubin 1987, para obter estimadores, desvios-padr˜ao, etc; que incorporam a incerteza associada aos dados faltantes.

Para obten¸c˜ao de estimadores para os coeficientes e desvios-padr˜ao ´e preciso guardar os estimadores e desvios-padr˜ao para cada um dos m conjuntos de dados imputados, e ent˜ao combinar os resultados usando as regras dadas por Rubin 1987. Tais regras podem ser facilmente programadas em algum pacote estat´ıstico. Aqui implementamos rotinas no software R (R Development Core Team 2003).

3.2.2

Regras para combinar os resultados

Seja ˆQ um estimador de uma quantidade de interesse e U sua variˆancia estimada. Depois de fazer a mesma an´alise para cada conjunto de dados imputados, temos m estimadores igualmente prov´aveis ˆQ1, ˆQ2,..., ˆQm e suas correspondentes variˆancias estimadas U1, U2, ..., Um. O estimador do m´etodo de Imputa¸c˜ao M´ultipla ser´a dado por: Q = 1 m m X i=1 ˆ Qi.

A variˆancia total para o estimador possui duas componentes, que levam em conside-ra¸c˜ao a variabilidade entre os conjuntos de dados e aquela dentro de cada conjunto de dados imputado. A variabilidade dentro de cada conjunto de dados ´e dada por:

U = 1 m m X i=1 ˆ Ui,

e a variˆancia entre os m conjuntos de dados imputados, ´e dada por:

B = 1 m − 1 m X i=1 ( ˆQi− Q)2.

(23)

A variˆancia total, T , ´e dada pela soma dessas duas componentes com um fator de corre¸c˜ao adicional que considera o erro de simula¸c˜ao em ˆQ,

T = U + µ 1 + 1 mB.

A raiz quadrada de T ´e o erro total associado `a Q. Se n˜ao houver dados faltantes nos dados, os valores de ˆQ1, ˆQ2,..., ˆQm ser˜ao idˆenticos, e assim B ter´a valor 0 e T ser´a igual a U. O tamanho de B relativo a U reflete quanta informa¸c˜ao est´a contida nos dados faltantes com rela¸c˜ao aos dados observados. Podemos usar a seguinte aproxima¸c˜ao para calcular intervalos de credibilidade para os parˆametros:

Q ± tν

T

onde, tν denota o quantil da distribui¸c˜ao t-Student com ν graus de liberdade, onde: ν = (m − 1) Ã 1 + mU (m + 1)B !2 .

Quando o valor de B domina o valor de U o valor dos graus de liberdade fica pr´oximo do valor m´ınimo de m − 1, por´em quando acontece o contr´ario o valor dos graus de liberdade tende ao infinito. Se o valor computado dos graus de liberdade for muito pequeno, por exemplo, menor que 10, isso sugere que podemos obter maior eficiˆencia aumentando o n´umero de imputa¸c˜oes m. Entretanto, se o valor de ν for grande, isso sugere que teremos pouco ganho aumentando o valor de m.

Para a utiliza¸c˜ao do m´etodo de Imputa¸c˜ao m´ultipla precisamos adotar um mod-elo de imputa¸c˜ao para os dados faltantes. Este modmod-elo assim como o ajuste do m´etodo ser˜ao apresentados no cap´ıtulo de an´alise de dados.

3.3

Modelos de Coregionaliza¸c˜

ao Linear

Como j´a comentado anteriormente, em estudos de dados espaciais n˜ao ´e razo´avel as-sumir que as observa¸c˜oes s˜ao independentes ao longo da regi˜ao sob estudo. Acredita--se que observa¸c˜oes pr´oximas s˜ao mais correlacionadas do que observa¸c˜oes distantes entre si. Desta forma, quando modelamos dados deste tipo, desejamos descrever a

(24)

rela¸c˜ao entre estas observa¸c˜oes atrav´es de um modelo de regress˜ao usual, utilizando covari´aveis, mais um efeito aleat´orio que descreva a correla¸c˜ao espacial presente nas observa¸c˜oes e, eventualmente, um efeito independente que descreva o erro de medida.

Al´em disso, muitas vezes temos mais de uma observa¸c˜ao em cada um dos pon-tos da regi˜ao sob estudo, por exemplo, assuma que observa-se em cada uma das n localiza¸c˜oes p vari´aveis. Assim, precisamos descrever de forma v´alida e flex´ıvel, n˜ao s´o a rela¸c˜ao entre as observa¸c˜oes ao longo do espa¸co mas, tamb´em, a rela¸c˜ao entre as vari´aveis dentro de uma dada localiza¸c˜ao da regi˜ao. Desta forma, fica evi-dente a necessidade de considerar modelos de regress˜ao com resposta multivariada e estrutura de covariˆancia descrita pela rela¸c˜ao entre e dentre as localiza¸c˜oes da regi˜ao sob estudo. Isto ´e, seja Y(s) = (Y1(s), . . . , Yp(s))0 o vetor de observa¸c˜oes na localidade s; assumindo estacionariedade, precisamos definir uma fun¸c˜ao de co-variˆancia C(s − s0) onde C(s − s0)

ll0 = cov(Yl(s), Yl0(s0)), l, l0 = 1, ..., p, de modo que

para quaisquer n e localidades s1, . . . , sn, a matriz de covariˆancia (pn × pn) resul-tante de YT = (Y (s

1), Y (s2), . . . , Y (sn)) seja positiva definida. Uma solu¸c˜ao para esse problema ´e a utiliza¸c˜ao dos Modelos de Coregionaliza¸c˜ao Linear (MCL), que descreveremos a seguir.

3.3.1

Descri¸c˜

ao do MCL

Come¸camos aqui por descrever detalhadamente o Modelo de Coregionaliza¸c˜ao Linear e suas propriedades. Na subse¸c˜ao 3.3.3 descreveremos o procedimento de inferˆencia baseado naquele proposto em Schmidt and Gelfand 2003 e, da´ı, discutiremos a nossa proposta de us´a-los para o problema de observa¸c˜oes faltantes, entre as p vari´aveis medidas, para alguns pontos dos n observados.

Os Modelos de Coregionaliza¸c˜ao Linear tˆem estrutura do covariograma da forma

Pr

m=1Tmgm(|| s − s0 ||), onde os gm’s s˜ao variogramas conhecidos, os Tm’s s˜ao matrizes n˜ao-negativas e r (r < p) fornece o n´umero de estruturas. Note que a covariˆancia entre as vari´aveis ´e capturada num espa¸co de dimens˜ao menor

(25)

crevem uma t´ecnica de m´ınimos quadrados para ajustar tais modelos. Schmidt and Gelfand 2003 e Gelfand, Schmidt, Banerjee, and Sirmans 2004 descrevem detalhada-mente a evolu¸c˜ao dos modelos de coregionaliza¸c˜ao linear e prop˜oem uma abordagem bayesiana baseada em tais modelos, cujo objetivo n˜ao ´e estimar a covariˆancia entre as vari´aveis num espa¸co de dimens˜ao menor, mas obter uma estrutura de covariˆancia flex´ıvel, permitindo diferentes alcances espaciais para as p vari´aveis, assim como um modelo em que Tm varia espacialmente. A metodologia adotada aqui ´e essencial-mente baseada naquela proposta em Gelfand, Schmidt, Banerjee, and Sirmans 2004. Entretanto, assume-se a´ı que os p processos de interesse s˜ao observados nas mesmas n localiza¸c˜oes. J´a aqui, permitiremos que nem todas as n localiza¸c˜oes possuam as observa¸c˜oes referentes `as p vari´aveis resposta. Portanto, h´a um desalinhamento das observa¸c˜oes, o que ´e muito comum acontecer em aplica¸c˜oes ligadas a ´area ambiental. De uma forma geral, considere wj(s), j = 1, · · · , p, p processos espaciais gaus-sianos univariados independentes e identicamente distribu´ıdos com variˆancia unit´aria e fun¸c˜ao de correla¸c˜ao param´etrica ρ(s − s0; φ). Seja Y

l(s) =

Pp

j=1aljwj(s). Note que C(Y(s), Y(s0)) = ρ(s − s0; φ)T, onde T = AAT com A sendo uma matriz p × p com elementos Alj = alj. A matriz T representa a matriz de covariˆancia do processo em qualquer ponto s. Essa matriz ´e denominada de matriz de coregionaliza¸c˜ao e o modelo para Y(s) ´e conhecido como modelo linear de coregionaliza¸c˜ao, sugerindo que as componentes de Y(s) ”co-variam”sobre a regi˜ao de estudo. A matriz T ´e de posto completo se, e somente se, A o ´e. Diferentemente de Goulard and Voltz 1992, ao modelar Y(s), estamos interessados apenas em processos de dimens˜ao completa, isto ´e, em processos p−dimensionais. Escrevendo o modelo dessa forma, temos uma estrutura de covariˆancia separ´avel, isto ´e, esta hip´otese de separabilidade implica que, C(Y(s), Y(s0)) = R ⊗ T .

Assumindo, inicialmente, um φ, que ´e o parˆametro da fun¸c˜ao de correla¸c˜ao, comum para cada um dos p processos espaciais, wj(s), resulta num alcance comum a todas as componentes de Y(s). Uma extens˜ao natural, descrita em Schmidt and Gelfand 2003, ´e assumir que os wj(s)’s s˜ao independentes, com variˆancia unit´aria mas com fun¸c˜ao de correla¸c˜ao ρ(s − s0; φ

j). Novamente, seja Yl(s) =

Pp

(26)

Agora, temos que cov(Yl(s), Yl0(s0)) = cov(Ppj=1aljwj(s),Ppj=1al0jwj(s0)) =

Pp

j=1aljal0jρ(s − s0; φj). Esta ´ultima igualdade pode ser escrita na forma matricial

como ΣY(s),Y(s0) = C(s − s0) = ADs,s0AT = Pj=1p ρ(s − s0; φj)Tj com Tj = ajaTj,

onde aj representa o j-´esimo vetor coluna de A, e D ´e uma matriz diagonal, p × p, com elementos ρ(s − s0; φ

j), j = 1, 2, · · · , p. Por constru¸c˜ao, C(s − s0) ´e uma fun¸c˜ao de covariˆancia cruzada v´alida, que n˜ao ´e separ´avel para o vetor de dados Y nas n localidades espaciais medidas.

Escrevendo Y(s) = Aw(s), est´a claro que os wl(s) s˜ao processos latentes que geram os Y(s) condicional a A. Dessa forma, os parˆametros do modelo s˜ao a1, a2, · · · ,

ap, φ1, φ2, · · · , φp. Existem p × p parˆametros em A quando necessita-se apenas de p(p+1)

2 parˆametros, j´a que AAT = T. Uma redu¸c˜ao conveniente ´e considerar que A

seja triangular inferior. Desta forma, o n´umero de parˆametros no modelo reduz-se

a p(p+1)2 + p. Neste caso, o modelo ´e dado por Yj(s) =

Pp

j=1ajlωl(s), j = 1, . . . , p, isto ´e, considerando o vetor medido na localidade s, temos que

          Y1(s) Y2(s) ... Yp(s)           =           a11w1(s) a21w1(s) + a22w2(s) ... Pp l=1ajlwl(s)           . (3.1)

Resumindo, os wj(s) dar˜ao a estrutura espacial e os ajl ser˜ao pesos que dir˜ao como cada processo espacial wj(s) contribuir´a para cada componente de Y(.). As-sim, Y(s) ´e estacion´ario com uma estrutura de covariˆancia cruzada sim´etrica, per-mitindo variˆancias diferentes para cada uma das componentes, e perper-mitindo tamb´em, quando a fun¸c˜ao de correla¸c˜ao ρ for isotr´opica e mon´otona, um alcance diferente para cada uma das componentes em Y(.).

Definimos acima a estrutura de coregionaliza¸c˜ao linear, mas podemos pensar num modelo mais geral que considere o poss´ıvel efeito de covari´aveis que s˜ao medidas nas n localidades, assim como a inclus˜ao de um erro de medida, efeito pepita.

De uma forma geral, vamos assumir que Y(s) tem m´edia β0X(s), onde X(s) ´e um vetor de dimens˜ao q contendo as covari´aveis que, acredita-se, influenciam cada

(27)

correspondentes a cada uma das q vari´aveis explicativas, referentes a cada um dos p processos. Note que n˜ao ´e necess´ario assumir que as mesmas q covari´aveis explicam as p componentes em Y(s). Entretanto, para simplificar a nota¸c˜ao, e considerando a aplica¸c˜ao que faremos no Cap´ıtulo 4, consideraremos o caso em que as p vari´aveis resposta s˜ao descritas pelas mesmas q vari´aveis explicativas. Vale ressaltar que esta proposta permite que cada um dos Xj(s), j = 1, . . . , q tenha um diferente efeito sobre cada um dos Yi(s), i = 1, . . . , p.

Assumindo ainda a adi¸c˜ao de um erro de medida que ´e independente da compo-nente de coregionaliza¸c˜ao; temos que, de uma forma mais geral, o modelo ´e descrito por:

Y(s) = β0X(s) + v(s) + ²(s), (3.2)

onde v(s) = Aω(s) e ²(s) = (²1(s), . . . , ²p(s))0 com ²(s) ∼ N(0, D²), onde D² ´e uma matriz diagonal, p × p, com τ2

i, na diagonal principal. Desta forma, o vetor param´etrico do modelo ´e dado por θ = (β, A, φ1, . . . , φp, τ12, . . . , τp2) e, concatenando as observa¸c˜oes das p vari´aveis ao longo das n localiza¸c˜oes medidas num vetor Y, temos que

Y|θ ∼ Npn(β0X, ΣY+ In⊗ D²) ,

onde ⊗ denota o produto de kronecker e ΣY = Pp

j=1ρ(φj) ⊗ ajaTj.

Como descrito em Schmidt and Gelfand 2003, note que existe uma transforma¸c˜ao 1 a 1 entre os elementos das matrizes T e A. Por exemplo, se p = 3, podemos verificar que        a11 0 0 a21 a22 0 a31 a32 a33        =         T111/2 0 0 T21 T111/2 ³ T22−T 2 21 T11 ´1/2 0 T13 T111/2 T11T23−T12T13 T11T22−T122 T11 r T33 T 2 13 T11 (T11T23−T11T23)2 T11(T11T22−T122)         .

Essa transforma¸c˜ao ´e recursiva e pode ser obtida para qualquer p. Veja Gelfand, Schmidt, Banerjee, and Sirmans 2004 para maiores detalhes.

(28)

3.3.2

Modelagem Espacial Condicional

Como mostrado em Gelfand, Schmidt, Banerjee, and Sirmans 2004 podemos descre-ver o modelo conjunto na equa¸c˜ao (3.2) atrav´es de uma parametriza¸c˜ao condicional. Resumidamente, sabemos da teoria de probabilidade, que a distribui¸c˜ao conjunta de um vetor aleat´orio pode ser descrita atrav´es do produto de distribui¸c˜oes condicionais. Por exemplo, se p = 2, a distribui¸c˜ao conjunta para Y(s), p(Y1(s), Y2(s)), pode ser

escrita, como

p(Y1(s), Y2(s)) = p(Y1(s)) p(Y2(s)|Y1(s)) = p(Y2(s)) p(Y1(s)|Y2(s)). (3.3)

A id´eia de descrever um processo espacial multivariado como o produto de dis-tribui¸c˜oes condicionais, e a vantagem computacional envolvida ´e descrita, por exem-plo, em Royle and Berliner 1999. Vale ressaltar que a ordem do condicionamento na equa¸c˜ao em (3.3) n˜ao ´e relevante. Caso exista alguma rela¸c˜ao de ”causa/efeito”entre as p vari´aveis em Y(.), esta pode ser usada para construir o condicionamento para a obten¸c˜ao da distribui¸c˜ao conjunta.

Gelfand, Schmidt, Banerjee, and Sirmans 2004 discutem detalhadamente a van-tagem de uma parametriza¸c˜ao com rela¸c˜ao a outra. ´E claro que computacional-mente a parametriza¸c˜ao condicional apresenta vantagens, pois envolve p c´alculos da inversa e do determinante de uma matriz de covariˆancia n × n, enquanto que na parametriza¸c˜ao conjunta, temos que calcular, a inversa e o determinante de uma ma-triz pn × pn. Entretanto, quando um efeito pepita ´e considerado na paramema-triza¸c˜ao conjunta, eles mostram que na parametriza¸c˜ao condicional n˜ao podemos considerar o efeito pepita em todas as equa¸c˜oes, pois isto resultar´a num modelo conjunto que ter´a erros de medida que n˜ao s˜ao indepedentes entre si.

Para exemplificar, escreveremos o modelo conjunto para p = 3 segundo a parametriza¸c˜ao condicional. Seguindo as equa¸c˜oes (3.2) e (3.3) podemos escrever a distribui¸c˜ao

con-junta de Y(s), como, por exemplo,

Y1(s) = β01X(s) + σ1w˜1(s)

Y2(s)|Y1(s) = β02X(s) + αY1(s) + σ2w˜2(s)

(29)

onde ˜wj(s) ´e um processo gaussiano com m´edia 0, variˆancia unit´aria, com fun¸c˜ao de correla¸c˜ao ρ(s−s0; φ

j) e σj´e um parˆametro de escala. A conex˜ao entre a especifica¸c˜ao condicional na equa¸c˜ao (3.4) e a conjunta ´e dada por

       Y1(s) Y2(s) Y3(s)        =        β0 1X(s) β02X(s) + αβ01X(s) β0 3X(s) + (α1+ α2α)β01X(s) + α2β02X(s)        +        σ1 0 0 ασ1 σ2 0 α1σ1 α2(ασ1 + σ2) σ3               ˜ w1(s) ˜ w2(s) ˜ w3(s)        +        0 0 ²3(s)        (3.5)

onde βj, j = 1, 2, 3, ´e um vetor de dimens˜ao q representando os coeficientes das q covari´aveis em X(.); e ²3(.) ∼ N(0, τ23). Claramente, essa ´e uma vers˜ao do modelo

em (3.2). De fato, a11 = σ1, a21 = ασ1, a22 = σ2, a31 = α1σ1, a32 = α2(ασ1 + σ2),

a33 = σ3. Como T = AAT, a matriz de coregionaliza¸c˜ao pode ser obtida em termos

de α, α1, α2, σ1, σ2 e σ3.

3.3.3

Especifica¸c˜

ao da Priori e Distribui¸c˜

ao a Posteriori

Re-sultante

Sob o enfoque bayesiano, precisamos atribuir distribui¸c˜oes a priori para o vetor de parˆametros do modelo, p(θ); e, seguindo o paradigma de Bayes, combinamos essa informa¸c˜ao com aquela proveniente dos dados, e encontramos a posteriori resultante, p(θ|y), como mencionado anteriormente.

Considerando o modelo definido na Subse¸c˜ao 3.3.1, vimos que existe uma trans-forma¸c˜ao 1 a 1 entre os elementos de T e A, ent˜ao, ao inv´es de atribu´ırmos uma priori para A, n´os atribu´ımos uma priori para T, que apresenta uma interpreta¸c˜ao direta. Como T ´e uma matriz de covariˆancia, uma escolha natural ´e associar uma distribui¸c˜ao Wishart Invertida (veja Box and Tiao 1992) com uma precis˜ao pequena e uma m´edia tal que Dσ2 = diag(σ12, · · · , σ2p), onde σl2 ´e uma variˆancia esperada a

(30)

J´a para a escolha da fun¸c˜ao de correla¸c˜ao ρ(.; φj) existem v´arias op¸c˜oes, como visto no Cap´ıtulo 2. Ilustraremos aqui com a correla¸c˜ao exponencial, exp(−φj||s − s0||). Associamos a cada φ

j uma priori independente gama que possui uma variˆancia grande e uma m´edia baseada na estimativa crua do alcance, de modo que 3/φj seja igual a metade da distˆancia m´axima entre as localiza¸c˜oes medidas. Note que outras fun¸c˜oes de correla¸c˜ao, como a exponencial potˆencia ou a Mat´ern, podem ser utilizadas.

Para os elementos em βj, j = 1, . . . , p, assumimos que p(β) ∼ Nqp(0, Dβ), onde Dβ ´e uma matriz diagonal com valores altos em sua diagonal principal, descrevendo nossa pouca informa¸c˜ao a priori sobre os efeitos das covari´aveis nas componentes de Y(s).

Para as variˆancias τ2

j, dos efeitos pepita ²j(s), podemos associar uma priori gama invertida com m´edia baseada num ajuste de min´ımos quadrados para um modelo sem estrutura espacial e variˆancia infinita. Dessa forma, a distribui¸c˜ao a posteriori ´e dada por

p(θ|y) ∝ |ΣY|−1/2exp ½ 1 2(Y − β 0X)T Σ−1Y (Y − β0X) ¾ p(β)p(T)p(φ1) · · · p(φp)p(τ12) · · · p(τp2). (3.6)

J´a, o procedimento de inferˆencia bayesiano sob o modelo condicional em (3.5) necessita da defini¸c˜ao da fun¸c˜ao de verossimilhan¸ca que pode ser escrita numa forma produto usando (3.4). Sob a reparametriza¸c˜ao precisamos especificar prioris para α, βj, φj, σj2, j = 1, 2 e τ32. Para os coeficientes α e β0js podemos utilizar prioris normais centradas em 0 e com variˆancia grande. Com uma fun¸c˜ao de correla¸c˜ao exponencial, podemos atribuir uma distribui¸c˜ao a priori Gamma inversa para cada φj e tamb´em para os parˆametros σj2 e τ32.

As distribui¸c˜oes a priori descritas acima s˜ao as distribui¸c˜oes usualmente assu-midas. O problema de tais distribui¸c˜oes ´e como fixar seus parˆametros. Quando n˜ao sabemos muito a respeito de um parˆametro a priori podemos especificar para ele uma distribui¸c˜ao a priori n˜ao informativa. Neste caso, estamos fazendo inferˆencia baseada numa priori com muito pouca informa¸c˜ao, assim a priori n˜ao influenciar´a

(31)

nos resultados. Mais especificamente, no modelo em (2.3), sem efeito pepita, a priori de referˆencia, proposta por Berger, Oliveira, and Sans´o 2001, πR(β, σ2, φ), ´e

da forma πR(β, σ2, φ) ∝ π(φ) 1 2)a, a ∈R , onde, π(φ) ∝ ( tr(Wφ2) − 1 n − p(tr(Wφ)) 2 )1 2 , = Ã ∂φΣφ ! Σ−1 φ Σ e, PΣ φ = I − X(XTΣ−1φ X)−1XTΣ−1φ .

Como estamos utilizando a fun¸c˜ao de correla¸c˜ao esponencial, temos que, Σφ= exp(−φd) e à ∂φΣφ ! = −d exp(−φd)

Essa priori ser´a utilizada para cada parcela em (3.4) sem efeito pepita. Aqui fare-mos os ajustes dos modelos considerando as duas especifica¸c˜oes acima, assumindo distribui¸c˜oes a priori usuais e a distribui¸c˜ao a priori de referˆencia.

3.3.4

Desalinhamento nos Modelos de Coregionaliza¸c˜

ao

Linear

Estamos interessados neste trabalho em estudar o caso de covari´aveis e resposta desalinhadas. Neste caso, podemos usar os Modelos de Coregionaliza¸c˜ao Linear com parametriza¸c˜ao condicional para modelar todas as vari´aveis conjuntamente.

Nesta subse¸c˜ao desenvolveremos os Modelos de Coregionaliza¸c˜ao Linear para lidar com a situa¸c˜ao em que nem todos os n pontos tˆem medida das p vari´aveis consideradas em Y(.). Inicialmente, suponhamos que entre as n localiza¸c˜oes con-sideradas, por exemplo, ny delas (ny < n), me¸cam apenas um subconjunto das p vari´aveis em Y(.). Note que podemos ter diferentes situa¸c˜oes, esta¸c˜oes que medem as p componentes de Y(.), outras que medem apenas p − 1 delas e assim sucessiva-mente. A id´eia aqui ´e aproveitar toda informa¸c˜ao obtida dos pontos onde possuimos medidas, para que possamos aprender sobre a informa¸c˜ao faltante com rela¸c˜ao a cada vari´avel nos seus respectivos pontos n˜ao medidos.

(32)

No contexto bayesiano, para os pontos onde falta informa¸c˜ao de uma vari´avel(is), assumimos que essas observa¸c˜oes s˜ao parˆametros do modelo e, portanto, inclu´ımos essas quantidades no vetor param´etrico θ.

Seguindo Banerjee and Gelfand 2002, sendo Y a vari´avel resposta e X o vetor de poss´ıveis vari´aveis explicativas, temos assim 3 conjuntos disjuntos na regi˜ao de interesse G, RX, RY e RXY , j´a mencionados anteriormente, observe a figura 3.1. Seja ny o n´umero de localiza¸c˜oes pertencentes ao conjunto RY e nx o n´umero de localiza¸c˜oes pertencentes ao conjunto RX. Agora, seja Xny o vetor que denota o

conjunto das observa¸c˜oes onde X(.) n˜ao foi medido. Explorando a parametriza¸c˜ao condicional descrita em (3.4) e utilizando as distribui¸c˜oes a priori usuais, as condi-cionais completas s˜ao facilmente obtidas seguindo as propriedades da normal mul-tivariada. Portanto, as condicionais completas para Xny, por exemplo, ter˜ao uma

estrutura muito semelhante `aquela que descrevemos na Subse¸c˜ao 2.2.4, uma normal multivariada de dimens˜ao ny.

A seguir apresentaremos o c´alculo das distribui¸c˜oes condicionais completas para o caso particular em que temos duas covari´aveis, X1 e X2, que s˜ao medidas em nx pontos e estamos interessados em observar a vari´avel resposta Y , que ´e observada em ny pontos. Precisamos destas condicionais completas para obtermos amostras das ditribui¸c˜oes a posteriori dos parˆametros.

3.3.5

alculo das condicionais completas para os parˆ

ametros

do Modelo de Coregionaliza¸c˜

ao Linear

Seguindo a parametriza¸c˜ao condicional para os modelos de coregionaliza¸c˜ao linear, considerando o caso particular de duas covari´aveis e uma vari´avel resposta modeladas conjuntamente, temos o seguinte modelo:

X1(s) = βx1 + σx1ωx1(s) (3.7) X2(s) | X1(s) = βx21+ βx22X1(s) + σx2ωx2(s)

(33)

localiza¸c˜oes s´o com medidas da vari´avel resposta Y , temos ent˜ao n − nx− ny locali-za¸c˜oes com medidas das covari´aveis e da vari´avel resposta simultaneamente. Sejam sy as localiza¸c˜oes s´o com observa¸c˜oes da vari´avel resposta Y , sx as s´o com

ob-serva¸c˜oes das covari´aveis X1 e X2 e sxy as localiza¸c˜oes com observa¸c˜oes de ambas

covari´aveis e vari´avel resposta. Desta forma temos que o vetor observado ser´a dado por:

y0 = (X

1(sx1), · · · , X1(sxnx), X1(sxy1), · · · , X1(sxyn−nx−ny), X2(sx1), · · · , X2(sxnx),

X2(sxy1), · · · , X2(sxyn−nx−ny), Y (sy1), · · · , Y (syny), Y (sxy1), · · · , Y (sxyn−nx−ny)).

O vetor de parˆametros a ser estimado ser´a dado por: θ = (βx1, βx2, βy, σ 2 x1, σ 2 x2, σ 2 y, φx1, φx2, φy, X1(sy1), · · · , X1(syny), X2(sy1), · · · , X2(syny)) onde, βx2 = (βx21, βx22)0 e βy = (βy1, βy2, βy3)0.

Baseado no vetor param´etrico a ser estimado, associando aos parˆametros as distribui¸c˜oes a priori usuais mencionadas na subse¸c˜ao 3.3.3 e seguindo o teorema de Bayes, a distribui¸c˜ao a posteriori de θ, p(θ | y), ´e proporcional a:

p(θ | y) ∝ f (y | θ) p(X1u | X1, θ) p(X2u | X2, θ) × p(βx1) p(βx2) p(βy) p(σ2 x1) p(σ 2 x2) p(σ 2 y) × p(φx1) p(φx2) p(φy)

onde, X1u e X2u representam os vetores contendo os pontos n˜ao medidos das

co-vari´aveis X1 e X2 respectivamente. Como a distribui¸c˜ao acima n˜ao tem forma

anal´ıtica fechada usaremos t´ecnicas de Monte Carlo via Cadeias de Markov (MCMC), j´a mencionadas anteriormente, para obten¸c˜ao de amostras desta distribui¸c˜ao. Em particular usaremos Amostrador de Gibbs com alguns passos de Metropolis. Para isso precisamos calcular as distribui¸c˜oes condicionais completas dos parˆametros. Considere Xxi(s), o vetor de covari´aveis correspondente `a vari´avel Xi na localiza¸c˜ao

s, ΣXi = σ

2

iexp(−φxi || s − s0 ||) e ΣXi = exp(−φxi || s − s0 ||), i = 1, 2, 3.

(34)

p(βx1|y, θ) ∝ exp ½ 1 2(X1− Xx1βx1) 0Σ−1 X1(X1− Xx1βx1) ¾ × exp ½ 1 2 ³ βx10D−1β1βx1´¾ exp ½ 1 2 ³ X10Σ−1X1X1− βx10 X0x1Σ−1X1X1− X 0−1X1Xx1βx1+ β 0 x1X0x1Σ−1X1Xx1βx1+ βx1 0D−1 β1βx1 ´¾ exp              1 2        −β0x1X0x1Σ−1X1X1− X0−1X1Xx1βx1+ β 0 x1 ³ Xx10Σ−1X1Xx1+ D−1β1 ´ | {z } Σ−1 βx1 βx1                     exp          1 2     −β 0 x1Σ−1β x1Σβx1 (X0x1Σ−1X1X1) | {z } µβx1 −(X01Σ−1X1Xx1)Σβ x1Σ −1 βx1βx1+ β0x1Σ−1β x1 βx1               exp ½ 1 2 µ −β0x1Σ−1β x1 µβx1− µ0βx1Σ−1β x1 βx1+ β0x1Σ−1β x1 βx1 ¶¾ . βx1|y, θ ∼ N(µβx1, Σβ x1).

• Distribui¸c˜ao Condicional Completa para σ2

x1 p(σ2 x1|y, θ) ∝ (σ 2 x1) −nx2 exp ( 1 2 x1 (X1− Xx1βx1)0ΣX−11(X1− Xx1βx1) ) × (σx12 )−aσ1−1exp ( −bσ1 σ2 x1 ) 2x1)−nx2 −aσ1−1exp ( 1 σ2 x1 Ã ¡ X1− βx10Xx1 ¢0 Σ−1X1¡X1− βx1 0X x1 ¢ 2 + bσ1 !) . σ2x1|y, θ ∼ GI   aσ1+ nx 2 , ³ X1− βx1 0X x1 ´0 Σ−1 X1 ³ X1− βx1 0X x1 ´ 2 + bσ1   .

(35)

p(φx1|y, θ) ∝ |ΣX1∗| −1/2exp ( 1 2 x1 (X1− Xx1βx1)0ΣX−11(X1− Xx1βx1) ) × (φx1)−cφ1−1exp ( −dφ1 φx1 ) (φx1)−cφ1−1|ΣX1∗| −1/2exp ½ 1 2 x1 ¡ X1− βx10Xx1 ¢0 Σ−1X1¡X1− βx10Xx1 ¢ dφ1 φx1 ¾ .

Note que φx1|y, θ n˜ao tem forma anal´ıtica fechada. As condicionais completas dos vetores de pontos n˜ao medidos das vari´aveis X1 e X2, p(X1u | .) ∝ p(X1u | X1, θ)

p(X2u | θ, X1u) p(Y | θ, X1u) e p(X2u | .) ∝ p(X2u | X2, θ) p(Y | θ, X2u)

res-pectivamente, seguindo as propriedades da distribui¸c˜ao normal multivariada, ser˜ao normais. Para os parˆametros correspondentes `a covari´avel X2 (βx2, σ

2

x2, φx2) e `a

vari´avel resposta Y (βy, σ2

y, φy) as contas acima seguem de forma an´aloga. Assim, temos que, p(βx2 | .) ∝ f (X2 | θ) p(X2u | X2, θ) p(βx2) e p(βy | .) ∝

f (Y | θ) p(βy) s˜ao distribui¸c˜oes normais; p(σ2

x2 | .) ∝ f (X2 | θ) p(X2u | X2, θ) p(σ

2

x2)

e p(σ2

y | .) ∝ f (Y | θ) p(σy2) s˜ao distribui¸c˜oes Gama Invertida; p(φx2 | .) ∝

f (X2 | θ) p(X2u | X2, θ) p(φx2) e p(φy | .) ∝ f (Y | θ) p(φy) n˜ao tem forma

co-nhecida, e para amostrar dessa distribui¸c˜ao utilizaremos um passo de Metropolis Hastings com proposta log-normal.

Implementamos esse modelo utilizando um programa em Ox (Doornik and Ooms 2001).

No caso em que especificamos distribui¸c˜oes a priori segundo Berger, Oliveira, and Sans´o 2001, para os parˆametros, as condicionais completas tamb´em s˜ao facilmente encontradas. Os parˆametros ter˜ao as mesmas distribui¸c˜oes mencionadas acima s´o que com parˆametros diferentes.

(36)

Cap´ıtulo 4

An´

alise de dados

Neste Cap´ıtulo apresentaremos duas aplica¸c˜oes utilizando os trˆes m´etodos descritos no Cap´ıtulo anterior. A fim de comparar os modelos, em cada um dos m´etodos, faremos uma breve revis˜ao de dois m´etodos de compara¸c˜ao de bondade de ajuste, o crit´erio DIC (Deviance Information Criterion) e o crit´erio EPD (Posterior Predictive Loss Criterion). Por fim faremos uma compara¸c˜ao atrav´es da incerteza associada `a estima¸c˜ao dos parˆametros segundo as trˆes diferentes propostas que tratam o desali-nhamento.

Faremos primeiro um estudo com dados simulados e depois uma aplica¸c˜ao `a part´ıculas em suspens˜ao na atmosfera numa regi˜ao do Rio de Janeiro.

4.1

Crit´

erios de compara¸c˜

ao de modelos

Para comparar os modelos propostos, precisamos de algum crit´erio que nos indique qual, ou quais dos modelos ajustados, se aproximou melhor dos dados verdadeiros. Essa proximidade entre os dados observados e os dados ajustados chamamos de bondade de ajuste.

Para fazer a compara¸c˜ao da bondade de ajuste dos diferentes modelos propos-tos, utilizamos aqui, o crit´erio Deviance Information Criterion (DIC) proposto por Spiegelhalter, Best, Carlin, and Linde 2002 e o crit´erio Posterior Predictive Loss Criterion (EPD) introduzido por Gelfand and Ghosh 1998. Faremos uma breve

Referências

Documentos relacionados

Discutiremos a influência de fatores que podem afetar os sistemas de intercalação, bem como as condições necessárias para a ocorrência das reações e as

Estudo semanal: Situações- problema com as quatro operações. 2ª oportunidade: Pesquisar sobre uma cultura de outro país que faça parte da sua história. E

O objetivo, tal como visto anteriormente, era traçar um modelo de quadro descritivo para a emissão da ‘Opinião Desfavorável’ em português do Brasil que pudesse servir de suporte

Com o objetivo de compreender como se efetivou a participação das educadoras - Maria Zuíla e Silva Moraes; Minerva Diaz de Sá Barreto - na criação dos diversos

17 CORTE IDH. Caso Castañeda Gutman vs.. restrição ao lançamento de uma candidatura a cargo político pode demandar o enfrentamento de temas de ordem histórica, social e política

3259 21 Animação e dinamização de actividades lúdico-expressivas - expressão musical 50 3260 22 Animação e dinamização de actividades lúdico-expressivas -

Embora neste caso a temperatura cr´ıtica esteja mais pr´ oxima do valor correto, quando comparada ao valores das se¸c˜ oes anteriores (como veremos abaixo), os expoentes

O sistema desenvolvido neste trabalho consiste em uma plataforma eletrˆ onica integrada com sensores de temperatura cutˆ anea e sensores ambientais (temperatura e luminosidade