• Nenhum resultado encontrado

Hyperspectral Images Classification with Typical Sequences Associated to the Endmembers

N/A
N/A
Protected

Academic year: 2022

Share "Hyperspectral Images Classification with Typical Sequences Associated to the Endmembers"

Copied!
8
0
0

Texto

(1)

Abstract —This paper presents a new methodology for hyperspectral image classification based on the definition of typical sets from the Asymptotic Equipartition Property, an important tool in the field of information theory. The Endmembers (EM) are decomposed in orthogonal functions by a discrete wavelet transform and are modeled as a HMM (Hidden Markov Model).

Based on this model, for each EM, a Typical Sequence set is established. One spectrum is classified as a member of a specific EM if belongs to its typical set. It is considered the case in which a class in the hyperspectral image can be represented by several subclasses and also the original spectra can be decimated and be used with less bands in the classification processes. The proposed method is tested with a set of AVIRIS data and is compared with the classification performed by Euclidian Distance, Spectral Angle Mapper (SAM) and Spectral Information Divergence (SID). It is shown that the proposed classification can be used with a reduced number of bands and achieves results comparable with other methods using all bands.

Keywords — Hyperspectral, Classification, Typical Sequences, HMM, Wavelet.

I.INTRODUÇÃO

MAGENS hiperespectrais são caracterizadas por uma grande quantidade de dados obtidos de bandas espectrais contíguas e em intervalos muito próximos com as bandas que iniciam em torno de 0.4μm a 2.5μm e espaçadas em torno de 0.1μm, resultando em uma quantidade de bandas em torno de 224, dependendo do tipo de sensor utilizado [1, 2]. A Fig. 1 mostra um exemplo de imagem hiperespectral e alguns exemplos de pixels cujas curvas espectrais enfatizam algumas áreas selecionadas com as suas características de reflectância (ou radiância), em função do comprimento de onda, e assim caracterizam as várias classes presentes em uma determinada cena.

As imagens hiperespectrais coletadas através de um imageador óptico formam um cubo de dados, onde se tem um plano formado por um conjunto de pixels da cena e a terceira dimensão são as bandas espectrais. O pixel é indivisível e a sua dimensão é relacionada à resolução espacial do sensor e a altitude em que são coletadas as informações. Quanto menor a dimensão do pixel melhor é a resolução espacial da imagem, obtendo-se assim uma melhor definição dos alvos terrestres [3].

S. Y. W. Arabi, Instituto Federal de Educação, Ciência e Tecnologia de Goiás (IFG), Goiânia, Goiás, Brasil, samir.arabi@ifg.edu.br

D. Fernandes, Instituto Tecnológico de Aeronáutica (ITA), São José dos Campos, São Paulo, Brasil, d_fern@terra.com.br.

M. A. Pizarro, Instituto Nacional de Pesquisas Espaciais (INPE), São José dos Campos, São Paulo, Brasil, marco.pizarro@inpe.br

M. S. Pinho, Instituto Tecnológico de Aeronáutica (ITA), São José dos Campos, São Paulo, Brasil, mpinho@ita.br

Devido à geometria de observação da cena, com o sensor imageador em uma determinada altitude, ocorre a influência dos elementos presentes na atmosfera e das suas condições nos sinais de reflectância, em cada banda espectral, para cada tipo de alvo, presente na superfície imageada. Por este motivo, em muitos casos, se torna necessário realizar a correção atmosférica nos sinais obtidos [4].

Figura 1. Exemplo de imagem hiperespectral e de espectros de algumas classes. (Adaptada de http://aviris.jpl.nasa.gov/aviris/concept.html).

Todos os materiais possuem uma única característica espectral devido à absorção, reflexão e emissão de radiação devido à composição do material e, portanto irão produzir diferentes respostas espectrais denominadas assinatura espectral [4, 5]. Deste modo as curvas de reflectância fornecem a assinatura espectral de uma determinada classe de alvos presentes na cena, podendo ser utilizadas para se inferir propriedades dos alvos ou classifica-los.

Os pixels que possuem as mesmas respostas espectrais são classificados como sendo da mesma classe, e podem representar as diversas feições da área imageada. Classificar uma imagem significa associar os pixels da imagem a uma classe ou grupo de classes, constituindo assim um processo de extração de informações da imagem. Para os casos de misturas espectrais (situação onde o pixel é uma composição de mais de uma classe), o processo de classificação se torna mais complexo, pois se deverá escolher a que classe o pixel misturado pertence segundo critérios de classificação pré- estabelecidos.

Neste artigo é apresentada uma nova metodologia de classificação de imagens hiperespectrais baseado na definição de Sequências Típicas (ST), proveniente da propriedade de equipartição assintótica que é utilizada na Teoria da Informação [6]. O uso das ST possibilita a obtenção de uma boa classificação, mesmo com o uso de um número reduzido de bandas espectrais. Em geral a quantidade de bandas utilizadas na classificação é um fator importante na qualidade

S. Y. W. Arabi, D. Fernandes, M. A. Pizarro and M. S. Pinho

Hyperspectral Images Classification with Typical Sequences Associated to the Endmembers

I

(2)

final do processo de classificação. Há, portanto grandes desafios quando se trata de reduzir a quantidade de bandas sem a perda significativa na qualidade da classificação. Muitas pesquisas científicas têm sido feitas para a obtenção de métodos que proporcionem uma melhor acurácia no processo de classificação de uma imagem hiperespectral. As diversas pesquisas tentam combinar a redução da dimensionalidade com alguma outra técnica que possibilite uma classificação com melhor desempenho. Trabalhos como redução da dimensionalidade usando técnicas de redes neurais [7, 8, 9].

Outros trabalhos procuram combinar características espectrais e espaciais dos dados hiperespectrais para posterior classificação [10, 11, 12, 13]. Outras técnicas procuram extrair características estatísticas dos dados hiperespectrais para redução da dimensão dos dados e proporcionar a classificação [14, 15, 16, 17]. Há várias pesquisas que combinam métodos estatísticos aliados a outros métodos matemáticos que possuem o mesmo propósito de redução da dimensionalidade e classificação hiperespectral [18, 19, 20, 21]. Dentre as técnicas adotadas nestes métodos está o uso de Cadeias Ocultas de Markov (HMM) [22]. Neste trabalho é utilizado o método HMM combinado com as Transformadas Discretas de Wavelet e o processo de classificação usando a técnica de Sequências Típicas, oriunda da teoria da informação [23, 24].

O trabalho apresentado está organizado do seguinte modo: a Seção II apresenta a modelagem do espectro dos Membros de Referência (MR) utilizando-se as Cadeias Ocultas de Markov (HMM) e a Transformada Discreta de Wavelet (DWT - Discret Wavelet Transform), na Seção III descreve-se o conceito de Sequências Típicas (ST) quando se tem classes e também subclasses dentro das classes e na Seção IV estabelece-se a metodologia de classificação. Na seção V são realizados e analisados os testes de classificações utilizando-se espectros do sensor AVIRIS, empregando-se o método proposto em comparação com a classificação realizada pela Distância Euclidiana (ED - Euclidian Distance) entre espectros, o uso da SAM (Spectral Angle Mapper) e da SID (Spectral Information Divergence). Na Seção VI são apresentados os comentários finais a respeito do classificador proposto.

II. MODELAGEM DOS MEMBROS DE REFERÊNCIA O processo de classificação proposto considera que se tem a priori os espectros dos MR, ou espectros puros, das classes constitutivas da cena a ser classificada. Dados os espectros dos R MRs da cena, cada um deles é representado por um HMM de modo a se apreender suas características intrínsecas. Deste modo o espectro de cada MR será representado por uma sequência de estados discretos, caracterizados por símbolos.

Essa sequência de estados é caracterizada pelos parâmetros:

matriz transição de estados AP r, , r R1:R =[1, 2,..., ]R , pelo vetor de probabilidades do estado inicial π1P r, e por um conjunto de probabilidades de observação, condicionada a cada estado, cujos parâmetros serão dispostos em uma matriz

,

BP r. Estes parâmetros são reunidos no conjunto

( )

, , , ,

1 , ,

P r P r AP r BP r

λ = π

Essa representação do espectro pelo HMM é realizada considerando-se como observação a decomposição do espectro original dos MRs em um conjunto de K funções ortogonais obtidas após a aplicação da DWT [25]. O uso dessa decomposição como observação visa evidenciar diferenças nas características de multiescala do espectro original, tornando possível uma maior discriminação das diferenças entre os diversos MRs utilizados no processo de classificação. Isso faz também que o processo HMM tenha uma observação vetorial e não escalar, pois para cada banda espectral tem-se agora K valores, originados da decomposição.

No trabalho desenvolvido é possível a seleção de um conjunto menor de amostras do espectro original. Essa seleção de T amostras em T

possíveis amostras (bandas espectrais originais) é feita de modo aleatório, mas garantindo-se uma uniformidade na amostragem que assegure a presença de amostras ao longo de todo espectro e que preservem a feição do espectro original. Cada MR tem a sua própria amostragem de forma aleatória, construindo-se assim mais um diferencial entre cada um deles.

A. Cena com R classes:

Consideremos inicialmente R possíveis classes em uma imagem hiperespectral, com T

bandas espectrais, agrupadas no conjunto Ω =1:R

{

ω ω1, ,...,2 ωR

}

. A cada classe ωr é associado um MR, representado por um espectro típico (ou espectro puro) da classe a ele associada. Esse espectro será descrito pelo vetor linha, 1xT

, E1:P rT, =e1P r, ,e2P r, ,...,eTP r, ,

1:R [1, 2,... ]

r R∈ = R , sendo etP r, a t ésima−

amostra do espectro puro (P) do MR referente à classe ωr.

Outra representação espectral, reduzida, do MR referente à classe ωr, será dada pelo vetor linha 1xT, com T≤T

,

, , , ,

1:P rT 1P r, 2P r,..., TP r

E =e e e , de modo que 1,

eP r é um elemento de

, 1:

P r

E T , sendo E1:P rT, uma coleção aleatória de elementos de E1: P rT, , mantendo-se a ordem dos elementos no vetor de modo que a forma de onda do espectro seja mantida.

Cada espectro E1:P rT, é então decomposto em K funções ortogonais, por meio da DWT, gerando o conjunto de funções observação ortogonais O1: ,1:P rK, T =

{

O1,1:P r,T,O2,1:P r,T,...,OK TP r,,1:

}

, com

elementos vetoriais Ok TP r,1:, =okP r,1, ,okP r,2, ,...,ok TP r,, , sendo:

, , , ,

,1: ,1: , ,

1

, T 0

P r P r P r P r

m T n T m t n t

t

O O m n o o

=

⊥ ≠ 

= .

Para cada MR define-se então um conjunto de NP r, estados ou símbolos, usualmente 2≤NP r, ≤6, que serão representados por símbolos do conjunto

{ }

, ,

, , ,

1 2

1: P r , , , P r

P P r P r P r

N N

S = S SS . Deste modo a sequência 1: ,1:, P r

OK T

será representada por uma sequencia de T símbolos do conjunto 1: P r,

P

S N . Estes símbolos são inicialmente escolhidos por meio do algoritmo k-means [26], observando-se os

(3)

agrupamentos (clusters) formados pelos vetores

, , , ,

,1: ,1, ,2,..., ,

P r P r P r P r

k T k k k T

O =o o o  no espaço T.

Dada a sequência de símbolos, pode-se estimar a matriz de probabilidades de transição de estados AˆP r, de dimensão

,

NP rxNP r, . Associando-se a sequência de símbolos com as observações Ok TP r,1:, =okP r,1, ,okP r,2, ,...,ok TP r,,  pode-se estimar o vetor média e a matriz de covariância, diagonal, associadas à distribuição gaussiana multivariada, atribuída ao conjunto das K observações O1: ,1:P rK, T =

{

O1,1:P r,T,O2,1:P r,T,...,OK TP r,,1:

}

, dado o estado.

O conjunto dessas médias e variâncias é disposto em linhas da matriz BˆP r, de dimensões K×2NP r, , para cada uma das decomposições ortogonais.

O conjunto de estimativas AˆP r, ,BˆP r, e o vetor

probabilidade inicial dos estados

, , , ,

ˆ1P r 1/NP r,1/NP r,...,1/NP r

π = , de dimensão NP r, ,

considerada inicialmente uniforme, formam a primeira estimativa λˆP r, =

(

πˆ1P r, ,AˆP r, ,BˆP r,

)

, do conjunto de parâmetros do HMM associado à observação do MR.

Com essa estimativa inicial utiliza-se o algoritmo de Baum- Welch [27, 28] para se estimar os parâmetros

( )

, , , ,

1 , ,

P r P r AP r BP r

λ = π do HMM representativo da

observação 1: ,1:, P r

OK T, associada ao MR da classe ωr e calcula-se a probabilidade da observação 1: ,1:,

P r

OK T pertencer ao modelo HMM com parâmetros λP v, , P O

(

1: ,1:P rK T, |λP v,

)

, com r v R, 1:R

. A incerteza de uma dada observação 1: ,1:, P r

OK T pertencer ao modelo HMM (λP v, ) pode ser calculada pela entropia [29]

( )

, , , ,

1: ,1: 1: ,1:

( P rK T | P v) 1log P rK T | P v

H O P O

λ = −T λ (1)

Sendo 0≤H O( 1: 1:P rK T,P r, )≤H O( 1: ,1:P rK T,P v, ), com a igualdade só e somente se v = r. Tem-se ainda que:

, , ,

1: ,1:

( P rK T | P r) ( P r)

T

H O λ H λ

→∞ (2)

Sendo H

( )

λP r, a entropia associada aos NP r, símbolos do conjunto S1:PNP r, =

{

S1P r, ,S2P r, ,,SNP r,P r,

}

, característicos de um HMM(λP r, ). πP r, é o vetor probabilidade dos estados do processo em regime (T→∞).

B. Cena com subclasses de classes:

Seja um conjunto de classes e subclasses definido por

{ }

1:R 1, 2,..., R Ω = Ω Ω Ω

, sendo Ωr um conjunto de subclasses da classe r definido como Ω =r

{

ω ω1r, r2,,ωrSr

}

, sendo Sr o

número de subclasses da classe r. As subclasses são

constituídas por variantes da classes principal, à qual pertencem, de forma que um espectro classificado na subclasse ωrs, s = 1, 2,..., Sr, é classificado automaticamente como pertencente a classe r R1:R.

Cada MR representativo das subclasses também terá o seu HMM(λP r s, , ) estimado de modo a se obter os parâmetros

( )

, , , , , , , ,

1 , ,

P r s P r s AP r s BP r s

λ = π , r R1:Re 1:

{

1, 2,...,

}

Sr r

s S∈ = S e serem calculadas as probabilidades P O

(

1: ,1:P r uK T, , |λP v s, ,

)

e as

entropias

( )

, , , , , , , ,

1: ,1: 1: ,1:

( P r uK T | P v s) 1log P r uK T | P v s

H O P O

λ = −T λ (3)

Com r R1:R e s S1:Sr =

{

1, 2,...,Sr

}

, sendo

, , , , , , , ,

1: 1: 1: ,1:

0≤H O( P r uK TP r u)≤H O( P r uK TP v s), com a igualdade se e somente se v = r e u = s.

Como anteriormente define-se a entropia para cada processo referente a cada subclasse como

, , , , , ,

1: ,1:

( P r sK T| P r s) ( P r s)

T

H O λ H λ

→∞ (4)

III. CONJUNTO DE SEQUÊNCIAS TÍPICAS A. Cena com R classes:

Seja ΘP r, o conjunto de todas as possíveis sequências, com T elementos que podem ser gerados por um processo HMM(λP r, ). Esse conjunto terá cardinalidade dada por

( )

, , T

P r NP r

Θ = .

Consideremos um subconjunto Θ ⊆ ΘδP rr, P r, , denominado de Conjunto de Sequências Típicas (CST) do processo HMM(λP r, ), definido como:

, ,

0 0

, 0 :

r

P r P r

r r T T T δ

ε δ

∀ > ∃ ∈ >  ∃ Θ ⊆ Θ , tal que para um dado T e εr, existe um δr de tal maneira que:

{ }

, , ,

1: ,1: : ( 1: ,1: | ) ( )

r

P r P r P r

K T K T r

O H O H

δ λ λ δ

Θ = − ≤ (5)

e:

(

1: ,1: ,

)

P

(

( 1: ,1: | , ) ( , )

)

1

r

P r P r P r

k T K T r

r

P O δ H O λ H λ δ

ε

∈Θ = − ≤

≥ −

(6)

Sendo a cardinalidade de ΘδP rr, limitada por:

(

1

)

2 ( ( P r, ) r) r, 2 ( ( P r, ) r)

T H P r T H

r

λ δ λ δ

ε δ +

− ≤ Θ ≤ (7)

(4)

A sequência O1: ,1:K T∈ΘδP rr, é denominada então de Sequência Típica (ST) do processo HMM(λP r, ). Nota-se também que δr pode ser estabelecido em função de εr. Maiores valores de δr implicam em menores valores de εr. Resumidamente pode-se afirmar ainda que:

a) se 1: ,1: ,

r P r

OK T∈Θδ , então P

(

O1: ,1:K T |λP r,

)

2− ⋅T H(λP r,) e

b) se 1: ,1: r, P r

OK T∉Θδ , então P O

(

1: ,1:K T |λP r,

)

εr [30].

É desejável que uma observação O1: ,1:P rK T, , associada a uma classe ωr, seja considerada um elemento do CST relacionado ao processo HMM(λP r, ), ou seja O1: ,1:P rK T, ∈ΘδP rr, , e O1: ,1:P rK T, não seja considerada no CST relacionada ao processo HMM(λP v, , v r≠ ), ou seja 1: ,1:, , ,

v

P r P v

OK T∉ Θδ v r≠ . Para se ter esta condição a seguinte desigualdade deve ser satisfeita

, , ,

1: ,1:

1,2,...

min ( P r | P k) ( P k)

r k R K T

k r

H O H

δ = λ λ

 

<  −  (8)

Se para uma dada classe ωro ∈Ω1:R a condição dada em (8) não puder ser satisfeita, o MR associado a esta classe não é uma boa escolha de MR da classe ωro, devendo ser substituído.

B. Cena com subclasses de classes:

Para o caso em que varias subclasses caracterizam uma classe, conforme descrito na Seção II.B, o subconjunto

, ,

r

P r P r

Θ ⊆ Θδ será definida como

, ,

0 0

, 0 :

r

P r P r

r r T T T δ

ε δ

∀ > ∃ ∈ >  ∃ Θ ⊆ Θ , tal que para um dado T e εr, existe um δr de tal maneira que:

, , ,

1: ,1: 1,2,..., 1: ,1:

, ,

{ : max [ ( | )

( )] }

r r

P r P r s

K T s S K T

P r s r

O H O

H

δ λ

λ δ

Θ = =

(9)

Também neste caso é desejável que uma observação

, , 1: ,1:

P r s

OK T , s S1:Sr =

{

1, 2,...,Sr

}

, associada a uma classe Ωr, seja tal que O1: ,1:P r sK T, , ∈ΘδP rr, , para todo s S1:Sr, e que

, , ,

1: ,1: , e 1:

v v

P r s P v

K T S

O ∉ Θδ vr s S∈ . Para se ter esta condição faremos a seguintes considerações:

a) Seja δin r, um limiar definido como:

, , , , , ,

in, 1,2, , 1: ,1:

1,2, ,

max ( | ) ( )

r r

P r u P r s P r s

r s S K T

u S

H O H

δ λ λ

==

 

=  − 

(10)

No calculo de δin r, foram incluídas somente as observações

, , 1: 1:

P r s

O K T, s S1:Sr, pertencentes a classe Ωr, de forma que δin r, define a maior distância entre as subclasses de Ωr.

b) Seja δout r, outro limiar definido como

, , , , , ,

, 1,2, , 1: ,1:

1,2, , 1,2, ,

min ( | ) ( )

v r

P r u P v s P v s

out r v R K T

s S

u S

v r

H O H

δ λ λ

==

=

 

=  − 

(11)

O limiar δout r, define a menor distância entre todas as subclasses de Ωr com relação a todas as subclasses de Ωs, com sr.

Se δin r,out r, , ∀r deve ser escolhido δr tal que

, ,

in r r out r

δ <δ <δ , para que todas as subclasses de Ωr sejam corretamente classificadas. Se para um dado r = ro ocorrer que

,o ,o

in r out r

δ >δ então as subclasses O1: ,1:P r sK T, ,o , s S1:Sro relacionadas a Ωro devem ser verificadas e aquelas que estiverem implicando em δin ro,out ro, , devem ser substituídas, pois não são bons MRs representantes da classe Ωro . Em qualquer caso, uma opção para a escolha de δr será

{

min, max,

}

max ,

r r r

δ < δ δ .

IV. CLASSIFICAÇÃO A. Cena com R classes:

Cada pixel (i, j) de uma imagem hiperespectral, com T bandas, é descrito pelo vetor linha E1:i j,T =e1i j, ,e2i j, ,...,eTi j, , que representa o espectro decimado do pixel.

Esse vetor, por sua vez é decomposto, por meio da DWT, em K funções ortogonais, representadas pelo conjunto de funções O1: ,1:i j,K T =

{

O1,1:i j,T,O2,1:i j, T,...,OK Ti j,,1:

}

, sendo cada elemento desse conjunto representado por O1: ,i j,K t =o1,i j,t,o2,i j,t,...,oi jK t,, .

Com o algoritmo de Baum-Welch estima-se a probabilidade condicional P O

(

1: ,1:i j,K T |λP r,

)

e com ela pode-se calcular a entropia H O

(

1: ,1:i j,K T |λP r,

)

.

O critério de classificação é então definido pela seguinte regra:

( ) ( )

( ) ( )

, 1: ,1:

, , ,

1: ,1:

, , ,

1: ,1:

|

| ,

i j

K T r

i j P r P r

K T r

i j P v P v

K T v

O

H O H

H O H v r

λ λ δ

λ λ δ

∈Ω ⇔

− <

− > ≠

(12)

Na equação (12) a primeira desigualdade garante que a

, 1: ,1:

i j

OK T pertence ao conjunto de ST vinculado ao HMM(λP r, )

(5)

e a segunda desigualdade garante que a 1: ,1:, i j

OK T não pertence ao conjunto de ST vinculado ao HMM(λP v, ,v r≠ ).

B. Cena com subclasses de classes:

Quando se tem subclasses representando a mesma classe a regra de decisão é dada por

Na equação (13) a primeira desigualdade garante que a

, 1: ,1:

i j

OK T esteja mais associada a Ωr que a Ωv,vr e a segunda desigualdade garante que a 1: ,1:,

i j

OK T pertence ao CST vinculada a Ωr.

Se a primeira e segunda desigualdade não puderem ser satisfeitas, mantendo-se os MRs da subclasse, a seguinte regra adicional pode ser aplicada:

( ) ( )

( ) ( )

, 1: ,1:

, , , , ,

1: ,1:

1,2, ,

, , , , ,

1: ,1:

1,2, , 1,2, ,

max |

max |

r

v i j

K T r

i j P r s P r s

K T r

s S

i j P v s P v s

K T v

v R

s S

v r

O

H O H

H O H

λ λ δ

λ λ δ

=

==

∈ Ω ⇔

 − − <

 

 − −

 

(14)

Em (14) a desigualdade garante que O1: ,1:i j,K T está mais próximo da região que define o CST ΘδP rr, do que da região que define o CST ΘδP vv, , com vr. Deste modo O1: ,1:i j,K T, sem pertencer a nenhum CST, é classificado como pertencente à classe Ωrpela proximidade com ΘδP rr, .

V. AVALIAÇÃO DO CLASSIFICADOR

Para avaliação da metodologia de classificação proposta, utilizando ST, foi utilizado um conjunto de espectros da subcena 4 obtidos pelo sensor AVIRIS em um voo na região nordeste da cidade de Campo Grande/MS, Brasil, no ano de 1995 [31].

A classificação foi realizada pelo método da ST proposto.

Para efeito de comparação foi feita também a classificação utilizando-se a Distância Euclidiana (Euclidian Distance - ED), a SAM (Spectral Angle Mapper) e a SID (Spectral Information Divergence). Para avaliar a acurácia das classificações, foi utilizada a Matriz de Confusão [32, 33] e o seu índice de concordância kappa.

Os experimentos foram realizados usando o total de T = 209 bandas e um número reduzido de bandas T = 32, selecionadas aleatoriamente dentre as 209 bandas, mas de tal forma a garantir que o espectro do pixel mantenha as principais particularidades, como descrito na metodologia do classificador proposto. Foram escolhidos como MRs 21 espectros repartidos da seguinte maneira: dez espectros de Vegetação Verde (VV), dois de Vegetação Seca (VS), cinco de Latossolo Vermelho (LV), três de Neossolo Quartzênio Ortico RQo) e um espectro de Água. Desses 21 espectros selecionou-se 13 para compor um segundo grupo de espectros com cinco espectros de VV, duas de VS, três de LV, dois de RQo e um de Água.

No grupo de 21 MR foram consideradas as seguintes quantidades de classes: 21, 13 e 5 classes, agrupadas do seguinte modo:

Para MR = 21 espectros e R = 13 classes fez-se o seguinte agrupamento de classes e subclasses:

VV1: Ω =1

{

ω ω11, 12

}

; VV2: Ω =2

{

ω ω12, 22

}

; VV3: Ω =3

{

ω ω31, 32

}

,

VV4: Ω =4

{

ω ω14, 42

}

; VV5: Ω =5

{

ω ω15, 52

}

; VS1: Ω =6

{ }

ω61 ;

VS2: Ω =6

{ }

ω16 ; LV1: Ω =8

{

ω ω81, 82

}

; LV2: Ω =9

{ }

ω91 ;

LV3: Ω =10

{

ω ω101, 102

}

; RQo1: Ω =11

{

ω ω111, 112

}

;

RQo2: Ω =12

{ }

ω121 e Água: Ω =13

{ }

ω131 .

Para MR = 21 espectros e R = 5 classes o agrupamento de classes e subclasses ficou:

VV: Ω =1

{

ω ω ω ω ω ω ω ω ω ω11, 12, 13, 14, 15, 16, 17, 18, 19, 110

}

, VS: Ω =2

{

ω ω12, 22

}

, LV: Ω =3

{

ω ω ω ω ω31, 32, 33, 34, 35

}

,

RQ: Ω =4

{

ω ω ω41, 42, 43

}

e Água: Ω =5

{ }

ω51 .

No grupo de 13 MR foram considerados: 13 e 5 classes, estas últimas agrupadas do seguinte modo:

VV: Ω =1

{

ω ω ω ω ω11, 12, 13, 14, 15

}

; VS: Ω =2

{

ω ω12, 22

}

;

LV: Ω =3

{

ω ω ω31, 32, 33

}

; RQ: Ω =4

{

ω ω14, 42

}

e

Água: Ω =5

{ }

ω15 .

Para os casos em que temos 21 MRs com R = 21 classes e 13 MRs com R = 13 classes, temos cada espectro representando uma classe. Os espectros dos 21 MRs utilizados estão representados nas Figuras 2, 3, 4 e 5.

Na decomposição dos espectros originais foi utilizada a DWT Symlets de ordem 6 que possui ortogonalidade entre as transformadas, gerando K=4 decomposições ortogonais. Os espectros a serem classificados foram selecionados em uma vizinhança, considerada homogênea, em torno de cada MR.

As vizinhanças consideradas foram de 1x1 (o próprio pixel), 3x3, 5x5 e 7x7 pixels. Para avaliar o desempenho do processo de classificação calculou-se a Matriz de Confusão e o seu índice de concordância kappa.

As Tabelas I, II e III mostram os resultados das classificações utilizando 21MRs com 21, 13 e 5 classes respectivamente. As Tabelas VI e V mostram os resultados das classificações utilizando 13MRs com 13 e 5 classes respectivamente.

( ) ( )

( ) ( )

( ) ( )

, 1: ,1:

, , , , ,

1: ,1:

1,2, ,

, , , , ,

1: ,1:

1,2, , 1,2, ,

, , , , ,

1: ,1:

1,2, ,

min |

min |

min |

r

v

r i j

K T r

i j P r s P r s

s S K T

i j P v s P v s

v R K T

s S

v r

i j P r s P r s

K T r

s S

O

H O H

H O H

H O H

λ λ

λ λ

λ λ δ

=

==

=

∈ Ω ⇔

 − <

 

 − 

 

 

∧  − <

(13)

(6)

Figura 2. Espectros dos tipos de vegetação verde (VV).

Figura 3. Espectros adicionais de tipos de vegetação verde (VV).

Figura 4. Espectros dos tipos de vegetação seca (VS) e água (A)

Figura 5.Espectros de solos LV e RQo.

TABELA I

KAPPA PARA 21 MRs E R=21 CLASSES

Janela: 1x1 3x3 5x5 7x7

209 Bandas

ST 1,00 0,64 0,52 0,47

ED 1,00 0,81 0,73 0,66

SAM 1,00 0,71 0,63 0,57

SID 1,00 0,81 0,72 0,66

32 Bandas

ST 1,00 0,70 0,61 0,54

ED 0,45 0,47 0,43 0,40

SAM 0,20 0,19 0,17 0,15

SID 0,55 0,46 0,44 0,41

TABELA II

KAPPA PARA 21 MRs E R=13 CLASSES

Janela: 1x1 3x3 5x5 7x7

209 Bandas

ST 1,00 0,81 0,72 0,68

ED 1,00 0,98 0,94 0,90

SAM 1,00 0,94 0,86 0,82

SID 1,00 0,98 0,94 0,90

32 Bandas

ST 1,00 0,82 0,79 0,77

ED 0,69 0,67 0,63 0,58

SAM 0,33 0,31 0,28 0,25

SID 0,69 0,66 0,63 0,58

TABELA III

KAPPA PARA 21 MRs E R=5 CLASSES

Janela: 1x1 3x3 5x5 7x7

209 Bandas

ST 1,00 0,96 0,94 0,91

ED 1,00 1,00 0,99 0,97

SAM 1,00 0,96 0,92 0,90

SID 1,00 1,00 0,99 0,97

32

Bandas ST 1,00 0,96 0,95 0,92

ED 0,87 0,87 0,86 0,84

SAM 0,79 0,74 0,69 0,66

SID 0,87 0,87 0,88 0,86

TABELA IV

KAPPA PARA 13 MRs E R=13 CLASSES

Janela: 1x1 3x3 5x5 7x7

209 Bandas

ST 1,00 0,83 0,75 0,69

ED 1,00 0,98 0,95 0,90

SAM 1,00 0,93 0,86 0,80

SID 1,00 0,99 0,96 0,91

32

Bandas ST 1,00 0,92 0,88 0,87

ED 0,83 0,79 0,74 0,66

SAM 0,33 0,30 0,27 0,22

SID 0,83 0,77 0,73 0,65

TABELA V

KAPPA PARA 13 MRs E R=5 CLASSES

Janela: 1x1 3x3 5x5 7x7

209

Bandas ST 1,00 0,89 0,87 0,83

ED 1,00 1,00 0,98 0,96

SAM 1,00 0,94 0,90 0,86

SID 1,00 1,00 0,98 0,95

32 Bandas

ST 1,00 0,94 0,92 0,90

ED 0,89 0,90 0,88 0,84

SAM 0,79 0,71 0,65 0,57

SID 0,89 0,88 0,87 0,84

Analisando-se os resultados mostrados nas tabelas conclui- se que:

0 50 100 150 200 250

0 50 100 150 200 250 300 350 400

Reflectância

Bandas

VV1b VV2b VV3b VV4b VV5b

0 50 100 150 200 250

0 50 100 150 200 250 300 350 400

Reflectância

Bandas

VV1 VV2 VV3 VV4 VV5

0 50 100 150 200 250

0 100 200 300 400 500

Refectância

Bandas

VS1 VS2 Agua

0 50 100 150 200 250

0 50 100 150 200 250 300 350 400 450 500

Reflectância

Bandas

LV1 LV2 LV3 RQo1 RQo2 LV1b LV3b RQo1b

Referências

Documentos relacionados

To efficiently represent the spatial-spectral feature information around the central pixel within a neighbourhood window, the unsupervised convolutional sparse

Through simulation studies with simulated mixed pixels which are created with spectral reflectance data derived from USGS spectral library as well as actual

Ground Penetrating Radar for Landmine Detection”, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing , v. Cornelis (2016), “Accounting for

fundo, devemos ser capazes de traduzir a questão da Amazônia em propostas concretas como, por exemplo, a convicção de que a reforma agrária nos países que detêm a

A obra de Catherine Opie interessa-me porque: primeiro, a distinção clara que a artista faz entre autorretrato e autorrepresentação; segundo, o seu modo de

Comparing the results of hyperspectral imagery classification with the optimized classification system of hybrid images show that using DSM beside hyperspectral imagery

So we introduce the Correctness Coefficient (CC) method. Also, several procedures for subpixel accuracy assessment were introduced. The numbers of binary images are

L’idée de consacrer une séance à la mise en scène et à la mise en exposition de la chasse dans les cultures extra-européennes est née d’un double constat : d’une part, les