• Nenhum resultado encontrado

2. REVISÃO DE LITERATURA

2.4. Método geoestatístico

2.4.2. Modelos teóricos e métodos de ajustes

O ajuste de um modelo teórico ao variograma empírico constitui-se em uma etapa das análises geoestatísticas em que se seleciona um algoritmo a ser utilizado no processo de predição de pontos não amostrados. O modelo deve garantir a positividade do processo, ou seja, que (h) > 0 e (–h) = (h) qualquer que seja o valor de h e, ainda, representar a tendência de (h) em relação a h.

Vários modelos da correlação (h) são relatados, conforme expressões apresentadas a seguir (Ribeiro Júnior. e Diggle, 2001):

esférico

h =

{

1−1,5h0,5 h3

, se h 

0, para outra forma

}

(15) gaussiano h=exp[−h  2 ] (16) exponencial h=exp−h  (17) matérn h= 1 2k−1 k h  k Kkh (18) cauchy h=[1h  2 ]−k (19) potência-exponencial h=exp[−h  k ] , 0 k ≤2 (20)

Os parâmetros a que se referem as expressões anteriores são especificados, como segue:

– corresponde ao alcance h – distância (m)

(K) – função Gama

Kk(x) – função Bessel modificada de terceiro tipo de ordem K

Nas equações anteriores as funções são válidas para  > 0 e K > 0, exceto para o caso potência-exponencial, em que 0 < K ≤ 2, conforme especificado anteriormente. A expressão do modelo matérn, com o valor de kappa (k) igual a 0,5 corresponde à função exponencial.

Na figura abaixo se apresentam variogramas com respectivos padrões de curvas para as funções acima apresentadas. Na referida figura as linhas pontilhadas expressam uma indicação da flexibilidade do ajuste do modelo, em função do valor do parâmetro kappa.

Figura 04 – Padrões para curvas de modelos espaciais de acordo com a função especificada embaixo de cada gráfico.

A estimativa dos parâmetros iniciais ou ajuste dos modelos a serem utilizados pode se processar utilizando-se procedimentos de Mínimos Quadrados Ordinários (“Ordinary Least Squares” – OLS), Mínimos Quadrados Ponderados (“Weight Least Squares” – WLS), Método da Máxima Verossimilhança (“Maximum Likelihood” – ML) ou, de forma subjetiva, estimando os parâmetros por meio da análise visual.

2.4.2.1. Mínimos Quadrados Ordinários – OLS

O método dos mínimos quadrados ordinários pode ser utilizado para a estimação do variograma, de forma que o vetor de parâmetros a ser utilizado é o que minimiza as expressões, de acordo com duas concepções explicitadas a seguir (Diglle e Ribeiro Júnior, 2000):

OLS1=

ji

{

ghij−hij;

}

² (21a)

ou ainda:

OLS2=

k

{

g hk−hk;

}

² (21b)

onde:

k – corresponde ao número de lags no variograma empírico ghij – corresponde a cada estimativa de (h; θ)

– semivariância estimada para o k-ésimo lag

– corresponde ao vetor de parâmetros estimados que definem completamente o variograma

(h; ) – corresponde ao modelo de variograma selecionado para o ajuste, dependente do vetor de parâmetros = (2, 2, )

A forma apresentada pela equação anterior apresenta uma desvantagem do ponto de vista estatístico, segundo Diggle e Ribeiro Júnior (2000). Os autores referem- se ao fato de que para a condição de amostras irregularmente espaçadas, o cálculo de ordenadas do variograma empírico por meio de médias, em função das diferentes escalas de distâncias, o estimador ghk proporciona contribuições não completamente sem viés para a estimativa de (h; θ).

2.4.2.2. Mínimos Quadrados Ponderados – WLS

O método de mínimos quadrados ponderados envolve três diferentes procedimentos (Diggle e Ribeiro Júnior, 2000) e designados, então, por WLS1, WLS2 e

WLS3.

No método WLS1, o vetor de parâmetros a ser utilizado minimiza a expressão:

WLS1=

ji

[

{

ghij−hij;

}

/ hij;]² (22a)

Por sua vez, em WLS2, o vetor de parâmetros a ser utilizado minimiza a

expressão (Cressie, 1985):

WLS2=

k

nk[

{

g hk−hk;

}

/ hk;]² (22b)

No método WLS3 o vetor de parâmetros a ser utilizado minimiza a expressão

(Barry, Crowder e Diggle, 1997):

WLS3=

k

nk

{

g hk−hk;

}

² (22c)

Barry, Crowder e Diggle (1997) afirmam que a minimização das equações (22a) ou (22b) corresponde a uma solução tendenciosa para a estimativa de  e sugerem a modificação nos respectivos procedimentos, de acordo com a Equação (22c) que propicia uma mudança, no sentido de promover a melhoria do processo.

2.4.2.3. Método da Máxima Verossimilhança – ML

Para um conjunto de observações (Z1,...,Zn), o estimador de Máxima Verossimilhança de um parâmetro  é o valor para teta que maximiza a função de verossimilhança, de acordo com a equação a seguir (Martinez-Espinosa, 2004):

L=

1 n

fxi,=máximo (23)

onde f(xi, ) é uma função densidade de probabilidade discreta ou contínua. A função anterior, pode ser convenientemente expressa na forma de logaritmos, uma vez que L

() corresponde ao produto dos termos e o logaritmo do produto corresponde à soma do logaritmo dos fatores, de forma que o logaritmo da função de verossimilhança corresponde:

ℓ=ln[L] (24)

O método de Máxima Verossimilhança é um método iterativo e produz estimativas positivas dos componentes da variância. É uma técnica de estimação usada com freqüência, tendo em vista as propriedades assintóticas de eficiência e consistência que apresenta (Wonnacott e Wonnacott, 1972).

A estimação de Máxima Verossimilhança, no que tange uma função aleatória Z (x), sob condições Gaussianas, tem o procedimento descrito por Diggle e Ribeiro Junior (2000).

A componente determinística (xi), constante na Equação (8) é estabelecida por

um modelo de regressão linear da forma:

xi=

k=1

p

fkxik (25)

onde:

(f1,..., fp) – é um conjunto de p funções determinísticas explicativas com um grau k da variável Z e regionalmente referenciadas por coordenadas (xi ,..., xn)

 – é um conjuntos de p(1;...; p) de vetores dos parâmetros de regressão

Com intuito de se derivar a função de verossimilhança de maneira conveniente, o modelo é transcrito para a forma de matriz. Sendo µ(xi) = E(Z) = F, em que F denota- se como matriz com n x p dimensões; a coluna correspondente a “K” consiste dos valores fk(x1),..., fk(xn), e a coluna ““ com valores  =( 1,..., p) de vetores dos parâmetros de regressão. Tomando-se  = (2, 2, ), conforme modelos de dependência espacial descrita nas equações de 15 a 20, que correspondem ao grupo de parâmetros que definem a matriz de covariância dos dados observados de Z, e escrevendo-se Var(Z) = K() e K() = 2 I + 2 R (), onde I é a matriz identidade e R() a matriz de covariância, de dimensões n x n, com base no modelo especial, cujo o ij elemento é dados por rij =  (||xi –xj||; ). A partir da notação em uso, o modelo definido pelas equações (26) e (27) implica em uma distribuição conjunta multivariada normal, ou seja, Z~MVN{F, K()}. É

estabelecido, então, que o logaritmo de Máxima Verossimilhança para (,  ) até um valor adicional constante, é

ℓ,=−1

2

{

log∣K ∣y −F '

{

K

}

−1

y −F 

}

(26)

A maximização da equação anterior ocorre por meio de procedimentos iterativos, em que a matriz de covariância é atualizada e invertida a cada iteração. Há, em tais procedimentos uma demanda de tempo considerável, proporcional ao cubo do número de observações.

2.4.3. Critérios para avaliação de ajustes dos modelos de variogramas