• Nenhum resultado encontrado

Processamento Digital de Imagens - PDI

N/A
N/A
Protected

Academic year: 2021

Share "Processamento Digital de Imagens - PDI"

Copied!
64
0
0

Texto

(1)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

UNIVERSID

ADE FEDER

AL DO P

AR

Á

PR

OCESSAMENT

O DIGIT

AL DE IM

A

GENS – PDI

(2)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Fábio Marcelo Breunig Gabriel Pereira

AEDI - UFPA

Processamento Digital de Imagens – PDI

UNIVERSID

ADE FEDER

AL DO P

AR

Á

ASSESSORIA DE EDUC

A

ÇÃ

O A DIST

ÂNCIA

(3)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

FÁBIO MARCELO BREUNIG1

Prof. Adjunto Dr. Centro de Educação Superior do Norte do RS / Universidade Federal de Santa Maria – CESNORS/UFSM. Sala 59, bloco de apoio 4, CESNORS. Linha sete de Setembro, s/n. Frederico

Westphalen, RS. CEP: 98400-000.

GABRIEL PEREIRA2

2 Doutorando em Sensoriamento Remoto do Instituto Nacional de Pesquisas Espaciais (INPE) e em Geografia Física na Universidade de São Paulo (USP). Sec. PG-SER, Av. dos Astronautas, Jardim da

Granja, São José dos Campos, SP. CEP: 12227-010. RESUMO

O processamento digital de imagens (PDI) é multidisciplinar e é empregado em várias áreas do conhecimento. Na área de ciências exatas e da Terra, sua utilização geralmente está vinculada ao tratamento de imagens de satélite, aerotransportadas ou fotografias. Nesse sentido, o escopo do presente texto abrange as principais aplicações do PDI, conceitos básicos sobre imagens e resoluções características dos sensores. Devido a grande utilização, são brevemente apresentados os sensores Ikonos, TM Landsat, MODIS e Hyperion, que se destacam entre as distintas categorias de sensores de imageamento. Na sequência são tratados os assuntos relacionados ao pré-processamento de imagens como a correção radiométrica, correção atmosférica e correção geométrica. Na sequencia, algumas técnicas de realce e extração de informações de imagens são apresentadas: avaliação de histogramas, contraste, transformação IHS, operações matemáticas, filtragem de imagens, segmentação e classificação. Por fim, alguns métodos de avaliação temporal de dados são discutidos, seguidos de algumas aplicações do PDI.

(4)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Sumário 2

Lista de Figuras 5

Lista de Tabelas 8

1. Introdução ao Processamento Digital de Imagens (PDI) 9

1.1. Conceitos básicos de imagem digital 10

1.2. Características das imagens de sensor 11

1.3. Sistemas de imageamento 16

1.3.1. Ikonos 21 17

1.3.2. Landsat 21 17

1.3.3. MODerate-resolution Imaging Spectroradiometer (MODIS) 18

1.3.4. Hyperion/EO-1 19

2. Técnicas de correção de imagens e análise de imagens 19

2.1. Correção radiométrica 19

2.2. Correção atmosférica 20

2.3. Correção geométrica 21

2.4. Histograma da imagem e mudança de contraste 23

2.5. Fatiamento de imagens 24

2.6. Filtragem no domínio espacial e no domínio da frequência 24

2.6.1. Filtros no domínio espacial 25

2.6.2. Filtros no domínio da frequência 30

2.7. Cor no processamento de imagens 33

2.8 Transformações IHS 35

2.9 Operações matemáticas com imagens 37

2.10 Segmentação: detecção de bordas e crescimento de regiões 39

2.11. Classificação de padrões nas imagens 42

3. Análise temporal de imagens 46

3.1 Análise Harmônica 46

3.2 Transformada de Wavelet (TW) 48

3.3 Principais componentes 48

4. Aplicações do PDI (Estudo de Casos) 51

5. Considerações Finais 56

6. Bibliografia 57

Atividades 63

Exercícios de fixação (teóricos) 63

(5)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Lista de Figuras

Figura 1. Efeito de diferentes resoluções espaciais sobre a identificação de alvos. Imagem da câmera de alta resolução espacial HRC (High Resolution Camera), a bordo do satélite CBERS-2b (China-Brazil Earth Resources Satellite) ou Satélite Sino-Brasileiro de Recursos Terrestres de 25 de setembro de 2008, da região de Querência – MT. 14

Figura 2. O campo de visada instantâneo (IFOV) representado pelo ângulo A. A área em amarelo refere-se a uma aproximação do elemento de resolução formado. 15

Figura 3. Ilustração (esquerda) do conceito de campo de visada instantâneo efetivo (EIFOV) e (direita) o aspecto de borrado de diferentes sensores. As figuras foram elaboradas com bandas espectralmente parecidas. 16

Figura 4. Cubo hiperespectral do sensor AVIRIS referente à imagem de Moffet Field Airport (California). 18

Figura 5. Espectros de reflectância gerados a partir de distintos sensores, com diferentes resoluções espectrais. 19

Figura 6. Níveis de cinza para sensores que geram imagens com 7, 8, 9 e 10 bits. 19 Figura 7. Efeito da resolução radiométrica sobre as imagens. 20

Figura 8. Sequência do lançamento e tempo de vida dos satélites da série Landsat. O gráfico inclui os satélites planejados para dar continuidade ao programa. 22

Figura 9. Imagem original da banda 10 do Hyperion com colunas sem dados (à esquerda). Aplicação da correção do efeito stripping sobre uma imagem do sensor Hyperion (à direita). 25

Figura 10. Janelas atmosféricas e principais gases responsáveis pela absorção da radiação eletromagnética presentes na atmosfera. 26

Figura 11. Imagem sem correção de rolamento (roll), arfagem (pitch) e guinada (yaw) (esquerda). Com correção geométrica aplicada (direita). 27

Figura 12. Distribuição dos pontos de controle selecionados sobre a imagem de referência Geocover (esquerda) e sobre a imagem a ser registrada (direita). 29

Figura 13. Histograma e imagem antes da aplicação do contraste (à esquerda) e após a aplicação do contraste linear no aplicativo SPRING (à direita). 30

Figura 14. Aplicação do fatiamento sobre uma imagem TM, com um total de cinco fatias. Distribuição espacial dos pixels (esquerda) e distribuição no histograma dos pixels com os respectivos limites (direita). 31

Figura 15. Convolução de uma imagem de tamanho (11x9) por uma máscara de 3x3, que engloba os oito vizinhos mais próximos e o próprio ponto (centro). O ponto g(2,2) representa uma combinação dos pesos dados à máscara destacada em cinza na imagem . 32

(6)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 16. Projeção da máscara 3x3 sobre a imagem de entrada. 33

Figura 17. (a) Banda 8 do ETM+/Landsat 7 original; (b) Filtro passa-baixas (filtro de média), máscara 5x5; (c) Filtro passa-baixas (média ponderada), máscara 3x3 ; (d) Filtro passa-alta 3x3; (e) Filtro 3x3 direcional de borda, orientação oeste; e (f) Filtro 3x3 não-direcional de borda, intensidade alta. 37

Figura 18. (a) Banda 8 original do ETM+/Landsat 7; (b) Filtro para detecção de bordas de Roberts; (c) Filtro para detecção de bordas de Sobel; (d) Filtro morfológico da mediana; (e) Filtro morfológico de erosão; e (f) Filtro morfológico de dilatação. 38

Figura 19. Filtragem no domínio da frequência. 40

Figura 20. (a) Banda 1 do sensor ETM+/Landsat 7 em tons de azul; (b) Banda 2 do sensor ETM+/Landsat 7 em tons de verde; (c) Banda 3 do sensor ETM+/Landsat 7 em tons de vermelho. (d) Imagem colorida resultante da ponderação das cores azul, verde e vermelho para cada pixel. 42

Figura 21. Imagem ETM+/Landsat 7 para Belém, Pará. (a) Composição cor verdadeira (banda 1 no azul, banda 2 no verde e banda 3 no vermelho); (b) Composição falsa cor (banda 3 no azul, banda 4 no verde e banda 5 no vermelho); (c) Composição falsa cor (banda 7 no azul, banda 5 no verde e banda 4 no vermelho) 43 Figura 22. Espaço de cores IHS. 45

Figura 23. (a) Componente intensidade originada da composição colorida 1B2G3R do sensor ETM+/Landsat 7; (b) Componente saturação originada da composição colorida 1B2G3R do sensor ETM+/Landsat 7; (c) Componente matiz originada da composição colorida 1B2G3R do sensor ETM+/Landsat 7. 46

Figura 24. (a) Composição falsa cor (banda 3 no azul, banda 4 no verde e banda 5 no vermelho) com resolução espacial de 30m; (b) Fusão pelo processo IHS originando uma imagem com 15m de resolução espacial. 47

Figura 25. (a) Imagem resultante da diferença entre a banda 2 e a banda 5 do sensor ETM+/Landsat 7; e (b) NDVI para a região de Belém, Pará (tons claros representam vegetação densa e cores escuras ausência de vegeteção). 50

Figura 27. Contornos (em vermelho) provenientes do processo de segmentação por crescimento de regiões, implementado no SPRING, sobrepostos à imagem de Belém do Pará (ETM+/Landsat 7). (a) Similaridade = 1 e área mínima (pixels) = 1; (b) Similaridade = 1 e área mínima (pixels) =10; (c) Similaridade =4 e área mínima (pixels) =16; e (d) Similaridade = 5 e área mínima (pixels) =50. 52

Figura 28. Resultado de uma classificação genérica no aplicativo SPRING. (a) Imagem cor verdadeira do sensor ETM+/Landsat 7 (1B2G3R); e (b) Atribuição de classes aos elementos da cena (processo automático sem interação com o usuário). 54

Figura 29. Classificação realizada no SPRING (Vermelho – Áreas Urbanas; Verde – Formações vegetais; e Azul – Hidrografia). (a) Imagem falsa cor ETM+/Landsat 7 (3B4G5R); (b) Classificação pelo algoritmo K-Médias; (c) Classificação pelo algoritmo MAXVER; e (d) Classificação pelo algoritmo MAXVER-ICM. 57

(7)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Isoseg; e (c) Classificação pelo algoritmo Bhattacharya. 59

Figura 31. Imagem referente ao primeiro harmônico para o ano de 2003 e respectivo diagrama contendo o primeiro harmônico (linha azul), segundo harmônico (linha vermelha) e terceiro harmônico (linha verde). 61

Figura 32. Gráfico do índice de vegetação NDVI e espectro de potência para a classe ecótono (a) e para formações florestais (b). 62

Figura 33. (a) Imagem do sensor MODIS para o ano de 2009 (ano de menor alagamento), composição 1B2R6G (vegetação em tons de vermelho, hidrografia em preto); (b) Imagem do sensor MODIS para o ano de 2000 (ano de maior alagamento), composição 1B2R6G (vegetação em tons de vermelho, hidrografia em preto); (c) e (d) Mapa da variabilidade temporal da reflectância no infravermelho próximo obtida a partir da utilização da técnica ACP (segunda e terceira componentes principais, respectivamente). 65

Figura 34. Composição colorida das três primeiras componentes principais, originadas a partir das imagens fração vegetação provenientes dos dados de reflectância de superfície do MODIS/TERRA. 67

Figura 35. Mapeamento das cicatrizes de queimadas no ano de 2005 na região Amazônica utilizando o MLME. 68

Figura 36. Utilização da técnica AHP para o mapeamento das das áreas suscetíveis a escorregamentos da bacia do rio forquilhas. 69

Figura 37. Classes de tipos de cobertura vegetal e aplicação do Índice de Vegetação da Razão Simples (SR) (A) e Índice de Vegetação por Diferença Normalizada (NDVI) (B) 71

Figura 38. Classes de tipos de cobertura vegetal e aplicação do Índice de Vegetação Ajustado para o Solo (C) e Índice de Vegetação Melhorado (EVI) (D). 71

Figura 39. Lineamentos extraídos da imagem CBERS-2B para a região do núcleo soerguido da Serra da Cangalha, Tocantins. 72

(8)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Lista de Tabelas

Tabela 1. Características das imagens do sensor de alta resolução espacial a bordo do satélite Ikonos. 21 Tabela 2. Principais características do sensor TM a bordo do satélite Landsat 5. 22

Tabela 3. Especificações técnicas das bandas do visível, infravermelho próximo (IVP) e infravermelho de ondas curtas (SWIR) do MODIS/Terra voltadas às aplicações terrestres. 23

Tabela 4. Filtros passa-baixas, também conhecidos como filtros de média, pois aplicam o mesmo peso a todos os vizinhos do pixel central. 34

Tabela 5. Filtros passa-baixas, conhecidos como filtros de média ponderada. 35 Tabela 6. Exemplos de Filtros passa-alta (Manual do Spring, 2012). 35

Tabela 7. Exemplos de Filtros passa-alta direcionais de borda (Manual do Spring, 2011). 36 Tabela 8. Filtros passa-alta, pré-definidos no SPRING. 36

(9)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

1. Introdução ao Processamento Digital de Imagens (PDI)

O processamento digital de imagens (PDI) é um ramo da computação aplicada que visa fornecer métodos e aplicativos para o tratamento de imagens das mais diversas naturezas, de forma a aumentar a capacidade de interpretação e extração de informações. Inicialmente a ciência se pautava na interpretação visual e na descrição manual dos fatos e objetos. Com a invenção da fotografia, uma nova forma de registro passou a integrar os anais da ciência (Mather, 1999). Na década de 1920 o PDI era utilizado em jornais para melhorar a qualidade das fotografias. A partir das explorações da Lua (1964) teve inicio a utilização do PDI para melhorar a qualidade das informações de imagens da Lua e da Terra. Assim, o PDI passou a ser amplamente utilizado paralelamente aos estudos de sensoriamento remoto. Cabe destacar que não são apenas as ciências exatas e da terra que fazem uso do PDI (p.ex. Geologia, Geografia, Oceanografia, Agronomia, Engenharia Florestal, etc.), mas também ciências da saúde (imagens médicas), comunicação (imagens fotográficas), biológicas (mapeamento e identificação de alvos microscópicos), entre outras. Com o conjunto de aplicações vislumbrado para o PDI, podemos ter ideia da sua importância. Nesse texto daremos maior enfoque nas geociências e aplicações.

Com os avanços de hardware, a capacidade de processamento de dados tem aumentado junto com o aumento da quantidade de informações disponibilizadas pelos sensores remotos. Nesse sentido, o aumento da resolução espacial, espectral, radiométrica e temporal passou a demandar uma enorme capacidade de processamento, aliado a novas técnicas de extração de informações das imagens. Todos os procedimentos de PDI têm inicio com a definição do alvo a ser imageado, a coleta/observação, a digitalização e o armazenamento dos dados, o processamento propriamente dito e a visualização ou gravação do produto final que será fornecido ao usuário.

Para que seja feito o processamento de imagens digitais, é necessário que haja imagens dessa natureza. Esse produto (a imagem), na área de geociências e estudos ambientais, normalmente é advindo de sensores remotos. Assim, conhecer as características desses sensores é fundamental para que possamos interpretar corretamente as informações contidas nas imagens ou então melhorar a qualidade da imagem de forma a permitir uma melhor percepção humana ou computacional das informações contidas na imagem. Dessa forma as principais características dos sensores serão discutidas nesse texto.

Após serem digitalizadas e armazenadas no disco do usuário, as imagens podem passar, basicamente por três processos associados ao PDI chamados de “pré-processamento”, “análise dos dados” e “interpretação/ aplicação”. Essas etapas serão discutidas ao longo do texto. Serão abordados conceitos básicos sobre o processamento de imagens digitais, procurando apresentar, concomitantemente, exemplos práticos. Na etapa do pré-processamento serão abordados temas como a correção radiométrica, geométrica e atmosférica das imagens. Além disso, o uso de técnicas básicas associadas à avaliação de histogramas e ao realce por contraste, junto com a filtragem de imagens. Ainda serão discutidos temas como cor em PDI, transformações do espaço de cores (IHS, RGB) entre outras.

A análise dos dados envolve a extração de informações a partir das imagens pré-processadas na etapa anterior. Assim, passaremos a abordar nessa etapa temas como operações matemáticas sobre imagens, segmentação e classificação de imagens. Ciente da atual demanda por estudos temporais serão discutidos temas como a análise temporal de imagens. A grande disponibilidade de dados (inúmeros sensores e a perspectiva temporal) se constitui num novo desafio para o PDI. Nesse contexto, serão feitas discussões sobre as formas de integração de informações derivadas de imagens obtidas com distintas características radiométricas, geométricas e atmosféricas.

Por fim, o texto abordará usuais aplicações de PDI, especialmente na área de geociências e estudos ambientais. Nesse sentido, as técnicas de interpretação de imagens e os métodos de avaliação serão discutidos

(10)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

em conjunto com os métodos de visualização como telas digitais, impressões e mapas de diferentes naturezas. Cabe destacar que os limites entre as fases do PDI não são um consenso no meio acadêmico (Gonzalez e Woods, 2008). Além da classificação apresentada acima, podemos também dividir o PDI de acordo com a complexidade dos processamentos (Gonzalez e Woods, 2008): baixo (pré-processamento); médio (análise) e alto nível (interpretação).

1.1- Conceitos básicos de imagem digital

Como vimos, o uso do PDI não se restringe às imagens de sensoriamento remoto. Uma das primeiras imagens digitais foi gerada pela indústria jornalística para a transmissão de imagens pelos cabos submarinos que ligam Londres e Nova Iorque, na década de 1920. Após as primeiras transmissões com quatro níveis de cinza, as imagens digitais evoluíram para 15 níveis em 1929 (Gonzalez e Woods, 2008). Nessa área do sensoriamento remoto, a origem esteve associada à transmissão de dados de satélites para a Terra, com baixa qualidade (projeto telemetered). Para aumentar a qualidade das imagens, técnicas de PDI começaram a ser produzidas e utilizadas. Outro significativo impulso ocorreu com o programa Landsat, em 1972. Novas ferramentas e técnicas de análise passaram a ser desenvolvidas, de forma a permitir explorar imagens de várias bandas e diferentes sensores.

O programa Landsat foi o primeiro a gerar imagens digitais que recobriam o planeta inteiro. Por fim, o terceiro significativo impulso nas pesquisas e uso do PDI ocorreu com a popularização dos computadores pessoais. Esse fato permitiu uma ampliação do uso de técnicas de PDI, nos meios acadêmicos e empresariais, de forma que atualmente quase todos os usuários, independente de sua formação, podem fazer uso de técnicas de PDI para melhorar a qualidade de imagens digitais, tratar imagens de satélite, fazer mapeamentos ou extrair informações a partir de imagens (Sabins, 2007). Detalhes sobre o histórico do PDI pode ser encontrado em Gonzalez e Woods (2008) e sobre as origens do sensoriamento remoto e fotografias em Reeves et al., (1975) e Jensen (2010).

Uma imagem digital é definida por Gonzalez e Woods (2008) como sendo “uma função bidimensional, f(x,y), onde x e y são coordenadas espaciais (planas), e a amplitude de f para um par de coordenadas (x,y) é chamado de intensidade ou nível de cinza da imagem naquele ponto”. A partir dessa definição, formal, podemos concluir que uma imagem digital nada mais é que uma matriz de ordem m x n (as coordenadas) onde m refere-se ao número de linhas e n ao número de colunas. O ponto em que as coordenadas se cruzam refere-se ao valor de nível de cinza (NC; também conhecido como número digital – ND). Esse nível de cinza pode representar dados de reflectância, emissividade, altitude, classes temáticas, entre outros.

Os elementos, tipicamente regulares (quadrados), que constituem uma imagem são conhecidos como “elementos de cena” (pixel, pl. pixels). Normalmente quanto maior o número de pixels que recobrem uma determinada área, maior será a capacidade de resolver os alvos da cena, conforme veremos adiante na definição das resoluções. Cada pixel representa uma determinada área do alvo e, utilizando as transformações cartográficas adequadas, podem-se extrair medidas precisas a partir de imagens, sejam elas adquiridas em nível terrestre, aéreo ou orbital.

Muitas imagens aéreas ou fotografias históricas estão armazenadas em formato analógico. Para que possamos utilizar as técnicas de PDI e garantir a preservação da cena, essas imagens precisão ser digitalizadas. Esse processo de conversão de informações analógicas para digital é conhecido como digitalização. Para tal, são utilizados scanners (rastreadores óticos) de diferentes tamanhos e é definida uma resolução normalmente chamada de dpi (pontos por polegada (ppp), em inglês dots per inch (dpi), ou simplesmente de resolução). Esses pontos referem-se ao número de pixels (densidade) que serão gerados para cada polegada linear. Quanto maior o número de dpi, maior e mais precisa será a cena no formato digital. Cabe destacar que não

(11)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Uma vez disponível em formato digital, a imagem por ser gravada, transmitida, transformada, tratada e visualizada de forma rápida e confiável.

1.2. Características das imagens de sensor

As características que diferem um sensor de outro são dadas basicamente pelas resoluções que este possui. Dependendo das aplicações para as quais o sensor é concebido, as resoluções se diferenciam significativamente. As resoluções dependem tanto das propriedades técnicas dos sensores quanto das características da órbita do satélite ou plataforma orbital, e são normalmente utilizadas para caracterizar uma imagem. No sensoriamento remoto, as resoluções mais conhecidas referem-se à resolução espacial, espectral, radiométrica e temporal (ou repetitividade do sensor) (Crósta, 1993). Assim, essas características costumam ser utilizadas para classificar os sensores em sensores de alta, média ou baixa resolução espacial, sensores de caráter monocromático, multiespectral ou hiperespectral, ou de acordo com o número de níveis de cinza ou o tempo entre as revisitas. Em síntese, o termo resolução pode ser interpretado como a capacidade que um determinado sensor possui de resolver uma determinada tarefa. Isso se aplica a definição de dpi, resoluções do sensoriamento remoto, bem como imagens de outras naturezas em termos de aplicação.

A resolução espacial refere-se à capacidade que um determinado sensor possui de distinguir e medir alvos do terreno. Nesse ponto é importante destacar que o tamanho do pixel da imagem nem sempre corresponde à resolução espacial do sensor. Esses conceitos tendem a apresentar medidas distintas especialmente nas imagens do sensoriamento remoto ativo (RADAR, SAR). Quanto melhor resolução espacial (também chamada de alta resolução espacial), algo em torno de 1 metro, melhor podemos identificar os alvos na superfície e fazer as respectivas medidas sobre estes. À medida que a resolução espacial é degradada para uma média resolução espacial (tipicamente em torno de 10 metros) ou baixa resolução espacial (500, 1000 metros ou mais) a mistura de alvos aumenta e a imagem começa da permitir a identificação de alvos cada vez mais grosseiros.

A seleção do sensor é uma das primeiras tarefas que o usuário deverá fazer. Esse procedimento sempre deve se pautar na definição clara dos objetivos e no conhecimento técnico sobre os sensores disponíveis no mercado. Com base na Figura 1, gerada a partir de uma imagem da câmera de alta resolução espacial HRC (High Resolution Camera), a bordo do satélite CBERS-2b (China-Brazil Earth Resources Satellite) ou Satélite Sino-Brasileiro de Recursos Terrestres, percebemos que a degradação de 2,5 metros para 5 e 10 metros não apresentou grande perda de informação na imagem aqui apresentada. Sabemos que a imagem de 10 metros permitirá uma identificação menos precisa dos dados e que a imagem de 2,5 metros permite que a imagem seja ampliada bastante. Contudo, a medida que passamos de 10 para 50 metros, a degradação da imagem começa a ficar bastante perceptível, especialmente nos alvos lineares (estradas, carreadores, bordas, etc.). Quando a imagem é degradada para 100 e 250 metros, ainda podemos identificar os grandes alvos presentes na cena. Por outro lado, verifica-se uma enorme perda de informações quando a resolução espacial é degradada para 500, 1000 e 5000 metros, ao ponto de toda a área ser representada por apenas quatro pixels, e não permitindo sequer a extração de dados gerais.

A Figura 1 ilustra o efeito de diferentes resoluções espaciais para a identificação de um alvo. Destaca-se que apenas a resolução espacial foi degradada. Assim, verifica-Destaca-se que à medida que a resolução espacial é degradada, ocorre uma redução na capacidade de identificação de alvos e na capacidade de fazer medidas precisas sobre a imagem. É importante lembrar que, dependendo da aplicação, diferentes resoluções espaciais são recomendadas. Por exemplo, para estudar áreas urbanas ou fazer um cadastro urbano, será necessária uma imagem de alta resolução espacial (5 metros ou menos). Nos estudos agrícolas e ambientais, normalmente imagens de 15, 30, 50 e até 100 metros são adequadas, tendo em vista a demanda temporal e espectral. Por fim, para estudos em escala sinótica, imagens de baixa resolução são bastante adequadas por permitirem um amplo recobrimento e uma alta repetitividade.

(12)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 1. Efeito de diferentes resoluções espaciais sobre a identificação de alvos. Imagem da câmera de alta resolução espacial HRC (High Resolution Camera), a bordo do satélite CBERS-2b (China-Brazil Earth

Resources Satellite) ou Satélite Sino-Brasileiro de Recursos Terrestres de 25 de setembro de 2008, da região de Querência – MT.

O campo de visada instantâneo, conhecido como IFOV (Instantaneous Field Of View) refere-se ao ângulo formado entre a projeção geométrica do elemento detector sobre a superfície imageada num determinado instante a uma determinada altitude (Figura 2). O conceito de IFOV é conhecido ainda como resolução espacial nominal. Assim, o tamanho da área imageada pelo detector num instante depende da altitude do satélite, da abertura focal e do tamanho do elemento detector.

(13)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 2. O campo de visada instantâneo (IFOV) representado pelo ângulo A. A área em amarelo refere-se a uma aproximação do elemento de resolução formado.

Outro conceito bastante importante refere-se ao campo de visada instantâneo efetivo (EIFOV - Effective Instantaneous Field of View). O EIFOV permite ao usuário conhecer as reais dimensões dos elementos que são passíveis de identificação e mensuração em uma cena, avançando sobre o conceito do IFOV (resolução espacial nominal). O EIFOV considera o IFOV e a função de espalhamento pontual (point-spread function – PSF) que será discutida em breve (Figura 3, esquerda). Como resultado, o EIFOV fornece a resolução em metros dos alvos que realmente podem ser identificados. Em termos visuais, podemos dizer que o EIFOV “elimina” o aspecto borrado normalmente presente nas imagens de satélite (Figura 3, direita).

(14)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 3. Ilustração (esquerda) do conceito de campo de visada instantâneo efetivo (EIFOV) e (direita) o aspecto de borrado de diferentes sensores. As figuras foram elaboradas com bandas espectralmente

parecidas.

Fonte: Adaptado de INPE (2003).

A resposta espacial de um alvo é formada não apenas pela radiância derivada da área referente ao pixel ou ao IFOV. Existe uma contribuição dos pixels adjacentes, da atmosfera, distorções derivadas dos movimentos do satélite e da Terra, entre outros. Quando os sensores são construídos, a resolução espacial nominal normalmente é determinada em laboratório, contudo, não considera os efeitos acima mencionados. Assim, é utilizada a função de espalhamento pontual (point-spread function – PSF), que estabelece o limite de corte para determinar a resolução espacial efetiva da imagem (Figura 3). A PSF combina os efeitos da cena propriamente dita, atmosfera, ótica, detector, movimento e eletrônica (Bensebaa, 2005; Bensebaa et al., 2007). Dessa forma, é possível saber a resolução espacial efetiva num dado instante. Finalmente, a PSF é a transformada Fourier inversa da Função de Transferência de Modulação (MTF) (Carvalho et al., 2009; Fonseca, 1988).

Outro conceito relacionado ao tamanho da área imageada refere-se ao campo de visada do sensor (Field of View - FOV). Em geral, a largura do FOV depende da aplicação para a qual o sensor é concebido (Novo, 2008). Quando são voltados para gerar imagens de alta resolução espacial, o FOV normalmente é de poucos quilômetros (p.ex. 10 km). Sensores de média resolução como o TM a bordo do Landsat 5 possuem um FOV de 185 km, bastante apropriados para aplicações agrícolas e ambientais. Por fim, existem os sensores de amplo campo de visada, recobrindo até milhares de quilômetros, como, por exemplo, o MODIS com 2400 km de FOV. Nas imagens de amplo campo de visada, apesar de reduzirem o tempo entre as revisitas, é importante que o usuário considere a geometria de aquisição dos dados (espalhamento frontal ou retroespalhamento e os ângulos associados).

A resolução espectral refere-se à capacidade do sensor de gerar imagens com radiância derivada de uma determinada faixa do espectro eletromagnético (faixa de comprimentos de onda). Em outras palavras, a resolução espectral refere-se ao número de bandas e a largura espectral das bandas (Jensen, 2009). Não existe um consenso na literatura para classificar os sensores de acordo com o número de bandas, contudo, basicamente são aceitos três grandes divisões:

• Monocromático: Sensores que possuem apenas uma única banda que pode recobrir uma ampla faixa do espectro eletromagnético. Esses sensores são utilizados para gerar imagens com alta resolução espacial.

• Multiespectral: Sensores que produzem imagens de múltiplas bandas do espectro eletromagnético. São típicos sensores multiespectrais o sensor Thematic Mapper (TM) a bordo do satélite Landsat 5, que produz sete bandas, que recobrem as faixas do visível, infravermelho próximo, médio e termal. Esses sensores normalmente possuem bandas bastante largas em termos espectrais.

• Hiperespectral: São sensores que geram dezenas ou centenas de imagens que recobrem o espectro eletromagnético de forma quase contínua e em intervalos espectrais de poucos nanômetros (p.ex. 10 nm). O exemplo mais conhecido é do sensor hiperespectral AVIRIS (Airborne Visible / Infrared Imaging Spectrometer) com 224 bandas e do orbital Hyperion com 196 bandas calibradas. Imagens hiperespectrais normalmente são representadas pelo cubo hiperespectral (Figura 4).

(15)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 4. Cubo hiperespectral do sensor AVIRIS referente à imagem de Moffet Field Airport (California). Fonte: Rice (2012).

A Figura 5 ilustra a resolução espectral de diferentes sensores e as limitações associadas ao número de bandas. À medida que o número de bandas aumenta, melhor são reproduzidas as feições espectrais dos alvos. Além do número de bandas, é importante que um sensor compreenda as faixas espectrais fora da região do visível, como por exemplo, o infravermelho próximo e médio. Os espectros medidos em laboratório tendem a apresentar milhares de bandas, contíguas e com largura de um ou dois nm, permitindo a identificação de feições específicas. A medida que a banda é “alargada” as feições espectrais começam a ser mascaradas, de forma a dificultar a identificação do alvo.

Figura 5. Espectros de reflectância gerados a partir de distintos sensores, com diferentes resoluções espectrais. Fonte: Galvão (2003)

(16)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

A amostragem de imagens normalmente é uniforme (m linhas e n colunas) e a quantização refere-se à capacidade que o sensor possui de discretizar determinadas quantidades de energia que atinge o detector. Normalmente a quantização é referenciada como resolução radiométrica e é medida pelo número de níveis de cinza que o sensor pode gerar (Crosta, 1993; Jensen, 1986; 2009). Como exemplo, temos sensores que geram imagens com 256 níveis de cinza (8 bits = 28 NC = (2^0) + (2^2) + (2^3) + (2^4) + (2^5) + (2^6) + (2^7) + (2^1) = 0 a 255). A Figura 6 ilustra o número de bits e níveis de cinza associados. Na Figura 7 é possível perceber que à medida que os níveis de quantização (resolução radiométrica) aumentam, a imagem apresenta mais informações sobre o alvo. Nesse caso, houve uma redução da saturação ao aumentar a resolução radiométrica de oito para 11 bits.

Figura 6. Níveis de cinza para sensores que geram imagens com 7, 8, 9 e 10 bits. Fonte: Jensen (2009).

Figura 7. Efeito da resolução radiométrica sobre as imagens. Fonte: Melo (2002).

1.3. Sistemas de imageamento

Há um grande número de sistemas imageadores voltados para o sensoriamento remoto. Não obstante os sistemas fotográficos, os sistemas são baseados em três modelos práticos para a captura e registro digital das imagens de sensores eletro-ópticos: sistemas de imageamento por quadro; varredura mecânica e

(17)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

varredura eletrônica. No primeiro caso, toda a imagem é adquirida de forma quase instantânea. Os sistemas de varredura mecânica fazem uso de um espelho que oscila perpendicularmente a direção de deslocamento do satélite, projetando a radiância sobre o conjunto de detectores. Por fim, os sistemas de varredura eletrônica utilizam um arranjo linear de detectores que cobrem todo o FOV e formam a imagem à medida que o satélite se desloca (Novo, 2008).

Uma enorme quantidade de sistemas de imageamento está disponível atualmente, mas devido ao caráter sintético desse material, apenas alguns serão apresentados. Novo (2008) apresenta uma breve discussão sobre vários sistemas. Entre os sistemas de imageamento mais conhecidos e que se enquadram em distintas categorias do sensoriamento remoto podemos citar: Ikonos, programa Landsat, MODIS e Hyperion. 1.3.1. Ikonos

O primeiro lançamento com sucesso do satélite Ikonos ocorreu em 1999 e passou a gerar imagens comerciais a partir de 2000. Foi o primeiro satélite de alta resolução espacial privado com fins comerciais. A Tabela 1 sintetiza as principais características do satélite Ikonos. O satélite opera a uma altitude nominal da 680 km, em uma órbita sol-síncrona com inclinação de 98,1º. Como o sensor é de alta resolução espacial, o tempo de revista normalmente é prejudicado. Contudo, com a possibilidade de apontamento lateral (off nadir de até 60º), esse tempo é de aproximadamente 3 dias. As aplicações dessas imagens são muitas: agricultura, estudos em áreas urbanas, desastres naturais, mineração, defesa, energia, mapeamentos topográficos e de uso e cobertura do solo, geração de modelos digitais do terreno, entre muitas outras (Novo, 2008; SIB, 2012).

Tabela 1. Características das imagens do sensor de alta resolução espacial a bordo do satélite Ikonos.

Banda Comprimento de

onda (µm) Resolução espacial nominal Resolução Radiométrica FOV ao nadir

1 0.45-0.52 (azul) 4 metros 11 bit 11,3 km

2 0.52-0.60 (verde) 4 metros 11 bit 11,3 km

3 0.63-0.69

(ver-melho) 4 metros 11 bit 11,3 km

4 0.76-0.90

(infraver-melho próximo) 4 metros 11 bit 11,3 km

PAN 0.45-0.90 (PAN) 1 metros 11 bit 11,3 km

Fonte: Adaptado de Novo (2008). 1.3.2. Landsat

O programa Landsat é constituído por uma série de sete satélites. Ele começou a ser planejando ainda na década de 60 e o primeiro satélite entrou em operação em 1972. Na época chamado de Earth Resources Technology Satellite 1 (ERST-1) e rebatizado para Landsat em 1975. A bordo desse satélite estavam os sensores Return Beam Vidicon Camera (RBV) e o MultiSpectral Scanner (MSS), que recobriam a faixa do visível e do infravermelho próximo (IVP). Esses sensores estiveram a bordo dos satélites Landsat 2 (1975) e Landsat 3 (1978). Em 1982 foi lançado do Landsat 4 que manteve o sensor MSS mas apresentou um grande avanço com o sensor Thematic Mapper (TM), que ampliou o recobrimento espectral para a faixa do infravermelho de ondas curtas (SWIR) e melhorou a resolução espacial. Em 1993 e 1999 foram lançados os satélites Landsat 6 e 7, respectivamente, como o sensor Enhanced Thematic Mapper plus (ETM+) (Figura 8). Todos os sensores da série Landsat são de varredura mecânica. O grande destaque é o sensor TM do Landsat

(18)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

5, que já operou por mais de 25 anos, superando em muito sua vida útil planejada de três anos. Esse acervo atualmente está disponível gratuitamente em diversos servidores para qualquer usuário e representam uma série histórica única. A Tabela 2 apresenta as principais características do sensor TM Landsat 5.

Figura 8. Sequência do lançamento e tempo de vida dos satélites da série Landsat. O gráfico inclui os satélites planejados para dar continuidade ao programa.

Fonte: USGS (2012).

Tabela 2. Principais características do sensor TM a bordo do satélite Landsat 5.

Banda Res.

Espacial (m) Espectral (µm)Res. RadiométricaRes. Tempo de revisita (dias)

1 – Azul 30 0.45 – 0.52 8 16 2 – Verde 30 0.52 – 0.60 8 16 3 – Vermelho 30 0.63 – 0.69 8 16 4 – IVP 30 0.76 – 0.90 8 16 5 – SWIR 1 30 1.55 – 1.75 8 16 6 – Termal 120 10.40 – 12.50 8 16 7 – SWIR 2 30 2.08 – 2.35 8 16 Fonte: USGS (2012).

1.3.3. MODerate-resolution Imaging Spectroradiometer (MODIS)

O MODIS está a bordo dos satélites Terra e Aqua, que passam sobre o equador aproximadamente às 10h30min e 13h30min, respectivamente. As 36 bandas estão distribuídas no intervalo espectral de 0,405 a 14,385 μm (incluindo o infravermelho termal – TIR). A resolução radiométrica das 36 bandas é de 12 bits. A resolução espacial do MODIS é de 250 (duas bandas), 500 (cinco bandas) e 1000 (29 bandas) metros. Com os dados gerados pelos sensores MODIS, espera-se compreender melhor os fenômenos dinâmicos em escala global, com enfoque nas três grandes áreas: terra, atmosfera e oceanos (Xiong e Barnes, 2005; Hall, 2006; NASA, 2009).

Uma inovação associadas às imagens MODIS refere-se ao fato de todos os produtos serem fornecidos com parâmetros auxiliares de qualidade (p.ex., ângulos zenitais e azimutais do sensor e do Sol), calculados diariamente ou em composições de vários dias. As imagens de reflectância de superfície são corrigidas quanto à influência da atmosfera com base em uma atualização do modelo de transferência radiativa Second Simulation of the Satellite Signal in the Solar Spectrum - 6S (Vermote et al., 1997; Vermote e Vermeulen, 1999).

(19)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

visada de 2330 km (passando pelo nadir), e o tempo de revisita varia de um a dois dias (conforme a latitude) (NASA, 2009). As características das bandas no visível e do infravermelho próximo (VNIR) e do SWIR são apresentadas na Tabela 3

Tabela 3. Especificações técnicas das bandas do visível, infravermelho próximo (IVP) e infravermelho de ondas curtas (SWIR) do MODIS/Terra voltadas às aplicações terrestres.

Banda λ inferior (nm) λ superior (nm) λ central (nm) Resolução

espa-cial (m) Relação sinal ruído

3 459 479 465,6 500 328 4 545 565 553,6 500 330 1 620 670 645,5 250 186 2 841 876 856,5 250 517 5 1230 1250 1241,6 500 161 6 1628 1652 1629,1 500 472 7 2105 2155 2114,1 500 147

Fonte: Adaptado de Xiong et al. (2005) e NASA (2009). λ = comprimento de onda. 1.3.4. Hyperion/EO-1

Lançado a bordo do satélite Earth Observing-1 (EO-1), em 2000, o Hyperion/EO-1 é o primeiro sensor hiperespectral em nível de coleta orbital. O satélite possui órbita Sol-síncrona com 98,2° de inclinação e uma altitude nominal de 705 km. O sensor foi concebido para gerar dados hiperespectrais calibrados para serem utilizados nas investigações científicas e em caráter experimental. Para imagear a superfície o sensor utiliza a tecnologia pushbroom com resolução espacial de 30 metros. A faixa imageada possui 7,7 km de largura com comprimento nominal de 42 km. O tempo de revisita do sensor é de 16 dias, mas dependendo do ângulo de apontamento lateral, esse intervalo de tempo pode ser reduzido (Barry, 2001; Pearlman et al., 2003).

Fisicamente, o sensor é formado por três subsistemas: conjunto eletrônico; eletrônica de crio-refrigeração e conjunto de sensores. Na faixa espectral de 400 e 2400 nm, o Hyperion gera 242 bandas contíguas (sendo que apenas 196 são radiometricamente calibradas) com 10 nm de largura e com resolução radiométrica de 12 bits (Barry, 2001; Pearlman et al., 2003). O sensor possibilita o cálculo de vários índices de vegetação de bandas estreitas, associados com os parâmetros e constituintes bioquímicos e biofísicos da cultura agrícola (p.ex., clorofila, conteúdo de água das folhas, lignina, celulose, IAF), que podem ser potencialmente correlacionados com a produtividade.

2. Técnicas de correção de imagens e análise de imagens

Nesta seção serão discutidas as principais correções de imagens e os métodos de extração/análise de informações derivadas das imagens.

2.1. Correção radiométrica

É comum a geração de imagens com falhas em linhas específicas, conhecidas como stripping e a ausência de informações de uma determinada coluna (dropedlines). A origem desses problemas está relacionada ao funcionamento dos detectores, corrente escura, calibração, a efeitos atmosféricos, erros na transmissão dos dados ou então erros esporádicos. Assim, a correção desses efeitos é fundamental para que os métodos de análise e extração de informações não sejam prejudicados.

(20)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Os problemas com colunas (stripping) sem informação são comuns nas imagens do Hyperion (como em outras imagens) e podem ser resolvidos através da interpolação com base nas colunas adjacentes (Goodenough et al., 2003). Outros filtros mais sofisticados estão disponíveis hoje, como funções de regressão inversa (Chander et al., 2002) eficientemente aplicadas a banda 6 do TM Landsat. Outra prática é filtros sobre a imagem convertida para o domínio das frequências (Aizenberg e Butakoff, 2002). Um exemplo de correção do efeito stripping pode ser visto na Figura 9, onde foi aplicada a correção do efeito stripping sobre a banda 10 do sensor Hyperion.

Figura 9. Imagem original da banda 10 do Hyperion com colunas sem dados (à esquerda). Aplicação da correção do efeito stripping sobre uma imagem do sensor Hyperion (à direita).

Fonte: Tsai et al. (2005). 2.2. Correção atmosférica

Como a radiação não atravessa a atmosfera sem interagir com os gases nela presentes, as imagens de satélite orbitais sofrem uma degradação da qualidade que pode interferir na interpretação ou extração de medidas precisas (em feições espectrais). Os principais gases e as janelas atmosféricas disponíveis para o sensoriamento remoto ótico são apresentados na Figura 10. Para resolver esses problemas, inicialmente foram propostos modelos empíricos, que se baseavam nas informações contidas na própria imagem para executar a correção. Como esse tipo de correção empírica corrigia apenas os efeitos aditivos, os modelos de transferência radiativa da atmosfera foram propostos, passando a modelar também os efeitos multiplicativos (Mather, 1999).

A técnica de correção mais conhecida foi proposta por Chaves (1988) e se baseia na subtração do pixel escuro (DOS – Dark Object Subtraction). Nesse tipo de correção, o usuário usará o histograma de frequência dos níveis de cinza para verificar os valores mais baixos e aplicar as correções junto com alguns coeficientes empíricos. O modelo se baseia no fato de que algumas partes da cena com sombra ou água (dependendo da banda) deveriam ter reflectância nula (zero). Contudo, geralmente verifica-se que isso não ocorre. Assim, com base nos valores médios dos pixels mais escuros (associados à sombra ou água), define-se os coeficientes da correção atmosférica.

(21)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 10. Janelas atmosféricas e principais gases responsáveis pela absorção da radiação eletromagnética presentes na atmosfera.

Fonte: Adaptado de Sabins (2009).

Os modelos de transferência radiativa simulam a absorção e espalhamento da radiação na atmosfera, permitindo correções mais realísticas em relação aos modelos empíricos. Esses modelos exigem que o usuário conheça alguns parâmetros da atmosfera no momento da aquisição da imagem (visibilidade, presença de vapor d’água, etc), do sensor (funções de repostas das câmeras, largura da faixa espectral das bandas, resolução espacial, etc.) e do satélite (altitude, hora do imageamento), entre outros. Contudo, nem sempre é possível conhecer todos esses parâmetros. Assim, os principais modelos disponíveis atualmente utilizam valores tabelados e equações gerais para derivar esses parâmetros. Entre os modelos de transferência radiativa mais conhecidos e utilizados atualmente destacam-se o 6S (Second Simulation of Satellite Signal in the Solar Spectrum) (Kotchenova et al., 2006) e o MODTRAN (MODerate resolution atmospheric TRANsmission) (Berk et al., 1998). Cabe lembrar que existem vários outros modelos de transferência radiativa disponíveis. 2.3. Correção geométrica

Imagens brutas costumam apresentar distorções associadas aos movimentos da Terra, sensor e satélite que inviabilizam seu uso e a integração em um ambiente de Sistema de Informações Geográficas (SIG). Assim, a correção geométrica visa eliminar essas distorções e permitir a integração de informações. A Erro! Fonte de referência não encontrada. ilustra o efeito do rolamento (roll), arfagem (pitch) e guinada (yaw) sobre uma imagem e a sua respectiva correção. As distorções geométricas tem origem nos parâmetros de efemérides do satélite (posição, velocidade, atitude), do sensor (dependo o tipo de varredura: mecânica ou eletrônica) e no modelo da Terra (Rotação, esfericidade, relevo) (D’Alge, 2012).

(22)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 11. Imagem sem correção de rolamento (roll), arfagem (pitch) e guinada (yaw) (esquerda). Com correção geométrica aplicada (direita).

Fonte: Green (2003).

A correção geométrica de imagens envolve procedimentos aplicados à correção interna (entre os pixels) e externos (em relação a um sistema de referência). Em geral, a correção interna é feita antes da entrega da imagem para o usuário. Por outro lado, nem todas as cenas são entregues com a correção dos ajustes externos (georreferenciadas). Esses procedimentos de transformações envolvem uma etapa onde os valores de nível de cinza devem ser reamostrados. Isso normalmente é feito através de algoritmos de interpolação como: “Vizinho mais próximo”, “Bilinear”, “Convolução cúbica”. Em geral, o primeiro altera menos as características espectrais da imagem ao passo que os dois últimos tendem a gerar uma imagem visualmente melhor, contudo, com maior mistura espectral. Após a realização da correção geométrica, é importante fazer uma avaliação e validação dos resultados.

Existem basicamente três grupos de modelos de correção geométrica: polinomiais (registro), correções independentes e o fotogramétrico. Além desses, ainda destacamos a Orto-retificação. Como o presente texto refere-se a uma síntese e a passos introdutórios do PDI, vamos discutir em mais detalhe o método baseado nas equações polinomiais, normalmente chamado do registro de imagens.

Em termos práticos, o registro de imagens é feito utilizando-se uma referência georreferenciada e depois fazendo a associação de coordenadas entre pontos facilmente identificáveis tanto na referência quanto na imagem a ser corrigida (identificação de pontos homólogos). Até pouco tempo era comum utilizar cartas topográficas da Divisão de Serviço Geográfico (DSG) do exército ou visitas a campo para fazer medidas de posicionamento. Atualmente, a maioria dos registros é feita utilizando imagens previamente registras (ou orto-retificadas). Assim, basta identificar postos homólogos em ambas as imagens e aplicar as correções através de funções polinomiais. Uma das bases orto-retificadas mais utilizadas e difundidas é a Geocover 2000 (disponível em: < https://zulu.ssc.nasa.gov/mrsid/mrsid.pl >) (NASA, 2004)

Após a obtenção da referência, o usuário deverá identificar os pontos homólogos e gerar os pontos de controle. Em geral, recomenda-se o uso de mais de 20 pontos de controle (depende da situação) distribuídos de forma não sistemática e que recubram todos os setores da imagem (Figura 12). Normalmente a qualidade do registro é fornecida pelo calculo do RMS (Erro médio quadrático - Root mean square error). Nesse sentido, recomendam-se valores de RMS inferiores a um, ou seja, com erro inferior a um pixel.

(23)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 12. Distribuição dos pontos de controle selecionados sobre a imagem de referência Geocover (esquerda) e sobre a imagem a ser registrada (direita).

2.4. Histograma da imagem e mudança de contraste

Histogramas são muito utilizados na análise exploratória da estatística descritiva. Quando tratamos de imagens, essa aplicação não diverge. Assim, os histogramas de frequência representam uma contagem do número de pixels com um determinado nível de cinza (eixo y) ao longo de todo intervalo da resolução radiométrica (normalmente 0 a 255 no caso de imagem 8 bits) (Figura 13). Assim, o usuário poderá avaliar quantitativamente a distribuição dos níveis de cinza, que em última instância, representam a reflectância dos alvos dentro da cena. Quando um histograma está muito concentrado, a imagem tende a apresentar pouca variância e assim um baixo contraste. Esse histograma pode ainda ser utilizado para identificar pixels espúrios, dados saturados, ou então, definir o valor no nível de cinza para ser utilizado nos modelos de correção atmosférica empíricos.

Figura 13. Histograma e imagem antes da aplicação do contraste (à esquerda) e após a aplicação do contraste linear no aplicativo SPRING (à direita).

Fonte: Adaptado de Santos et al. (2010).

Conforme comentamos acima, histogramas muito concentrados (Figura 13a), podem ser ajustados através da aplicação de funções de reamostragem lineares ou não (Figura 13b) de forma a realçar a imagem.

(24)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Assim, aplicar uma função de reamostragem à imagem de saída pode facilitar a interpretação visual ou então, destacar a presença de alvos específicos. Cabe destacar que o realce por contraste deve ser realizado banda a banda. Na Figura 13 verifica-se que ocorre uma grande contração de pixels referentes à água com baixos valores de reflectância.

Existem muitas funções para gerar imagens contrastadas (Santos et al., 2010): linear; mínimo – máximo, raiz quadrada, quadrado, logaritmo, negativos, equalização, entre outros. Esses modelos estão implementados na maioria dos softwares de PDI.

2.5. Fatiamento de imagens

O fatiamento consiste em uma divisão equidistante ou não dos níveis de cinza em fatias que abrangem determinado número de níveis de cinza. O grupo de pixels dentro de um intervalo de nível de cinza é então realçado com cores de forma a permitir uma fácil identificação visual. Esse fatiamento pode ser realizado automaticamente, onde o sistema distribui um determinado número de fatias de forma a abranger todo o intervalo de níveis de cinza presente na imagem. Outra forma consiste em fazer uma distribuição das fatias de forma equidistribuída, ou seja, o mesmo número de pixels para cada fatia. O fatiamento representa uma forma rápida e simples de classificar a imagem e permite extrair informações gerais (Figura 14).

Figura 14. Aplicação do fatiamento sobre uma imagem TM, com um total de cinco fatias. Distribuição espacial dos pixels (esquerda) e distribuição no histograma dos pixels com os respectivos limites (direita). 2.6. Filtragem no domínio espacial e no domínio da frequência

As técnicas de filtragem têm como objetivo principal tornar uma imagem mais adequada a uma aplicação específica quando comparada à imagem original. Entretanto, nem sempre uma melhoria realizada em determinada imagem ou produto orbital será útil para todas as análises (Gonzalez e Woods, 2008). Desta forma, um processamento aplicado a uma imagem de baixa resolução espacial para minimizar as distorções geométricas introduzidas no processo de aquisição destes dados pode não ser a melhor alternativa para corrigir as distorções geométricas em sensores de alta resolução espacial.

De um modo geral, podemos dividir as técnicas de filtragem em duas categorias principais: I) filtragem no domínio da frequência; e II) filtragem no domínio espacial. Os filtros que atuam no domínio da frequência são baseados na modificação da transformada de Fourier ou Wavelet (ondeleta) da imagem. Por outro lado, os filtros que atuam no domínio espacial interagem diretamente com os valores da imagem e são baseados na manipulação direta dos pixels. Como discutido anteriormente, uma imagem digital, obtida por sensoriamento remoto, nada mais é que uma matriz de ordem m x n. Desta forma, após um determinado processamento podemos expressar a nova imagem como:

( , ) [ ( , )] g x y =T f x y

em que representa a imagem de entrada (original), é a imagem resultante do processamento realizado na imagem de entrada e representa a operação matemática realizada na imagem de entrada (Gonzalez e Woods,

(25)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

2008).

Para entender a função dos filtros no processamento digital de imagens de sensoriamento remoto, torna-se necessário o conhecimento da operação matemática denominada “Convolução”. De um modo genérico, a convolução é definida pela equação:

em que h é o núcleo da convolução, cx é a origem do núcleo em relação à coluna, cy é a origem do núcleo em relação à linha e i e j representam a posição do pixel na matriz (colunas e linhas, respectivamente). Uma maneira de interpretar a equação acima consiste em considerar cada pixel da imagem resultante como uma média ponderada dos vizinhos mais próximos na imagem de entrada, onde os pesos para cada vizinho são definidos a partir de uma máscara (às vezes chamado de kernel ou janela) de tamanho definido pelo usuário representado pelo h, como mostra a Figura 15.

Figura 15. Convolução de uma imagem de tamanho (12x10) por uma máscara de 3x3, que engloba os oito vizinhos mais próximos e o próprio ponto (centro). O ponto g(2,2) representa uma combinação dos pesos

dados à máscara destacada em cinza na imagem . 2.6.1. Filtros no domínio espacial

No processamento digital, algumas operações de vizinhança atuam diretamente nos valores do pixel da imagem a partir de um filtro, como exemplificado em cinza na Figura 15. Nos filtros, os valores que irão determinar os pesos que o compõe são denominados de coeficientes (Gonzalez e Woods, 2008). O processo de filtragem dos dados no domínio espacial consiste em mover uma máscara por toda a imagem. Desta forma, para cada ponto, o resultado do filtro corresponderá a uma ponderação pré-definida. Em filtros lineares, o valor resultante na nova imagem é originado pela soma dos produtos dos coeficientes do filtro em relação ao pixel central e aos seus vizinhos, como exemplificado na Figura 16.

(26)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 16. Projeção da máscara 3x3 sobre a imagem de entrada.

O nível de cinza de um ponto no centro da máscara (em cinza) será calculado a partir da ponderação dos valores dos coeficientes (v1, v2, ..., v9) e dos valores dos níveis de cinza dos vizinhos (em preto) e do próprio ponto (em cinza). Segundo Gonzalez e Woods (2008) o processo de aplicação de filtros lineares é similar ao conceito aplicado aos filtros no domínio da frequência denominado de convolução. Assim, a filtragem espacial é comumente mencionada como “convolução de uma máscara com a imagem de entrada”. Do mesmo modo, filtros não lineares utilizam uma máscara com os vizinhos mais próximos e percorrem a imagem toda, assim como demonstrado no método linear. Porém, ao invés de utilizar valores para os coeficientes, que atuam como um peso para cada pixel vizinho, neste método, são utilizadas variáveis estatísticas como, por exemplo, média, mediana, variância, entre outras.

Na literatura é comum separar os filtros no domínio espacial e no domínio da frequência em quatro classes principais: I) passa-baixa; II) passa-alta; III) passa-banda; e IV) rejeita-faixa (ou passa-faixa). Desta forma, cada classe de filtros possui atributos próprios, por exemplo, os filtros passa-banda e rejeita-faixa permitirá a passagem de frequências em determinadas bandas ou rejeitarão/atenuarão determinadas faixas específicas, respectivamente.

Consequentemente, um filtro com a característica de passa-baixas, como o próprio nome indica, dará ênfase às baixas frequências, suavizando as altas frequências (associadas geralmente aos detalhes da imagem). O efeito de um filtro passa-baixas é o da suavização dos elementos que compõem a imagem, causando o efeito indesejado de reduzir a resolução espacial, uma vez que há uma atenuação de transições abruptas (bordas). Ainda, outro efeito de um filtro passa-baixas é a diminuição dos ruídos na imagem. A Figura 17b exemplifica o efeito de um filtro passa-baixas aplicado à imagem ETM+/Landsat sete sobre a cidade de Belém, Pará (Figura 17a) utilizando uma máscara de 5x5 (exemplo 2, abaixo). A Tabela 4 exemplifica alguns filtros passa-baixas com diferentes dimensões (Manual do Spring, 2011). Quanto maior for a máscara do filtro passa-baixas, mais borrada será a imagem resultante e mais ruídos serão eliminados.

(27)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Tabela 4. Filtros passa-baixas, também conhecidos como filtros de média, pois aplicam o mesmo peso a todos os vizinhos do pixel central.

Ainda, é possível encontrar filtros passa-baixas que utilizam pesos distintos em relação à distância do valor central, estes são conhecidos como filtros de média ponderada (pela distância), exemplificados na tabela abaixo e visualizados na Figura 17c a partir do exemplo 2 (Tabela 5).

Tabela 5. Filtros passa-baixas, conhecidos como filtros de média ponderada.

Uma das utilidades dos filtros passa-altas é realçar bordas ou feições em forma de linhas ou manchas (Manual do Spring, 2011). Desta forma, vários SIGs possuem filtros específicos para o realce de bordas. Nestes, cada pixel central na máscara é influenciado consideravelmente pelos valores de nível de cinza dos vizinhos. Assim, a influência dos pixels vizinhos será determinada pelos pesos dados pelo usuário e pela direção preferencial de interesse. A Tabela 7 mostra alguns exemplos de filtros 3x3 que tem como objetivo realçar as bordas em determinada direção. A Figura 17e mostra a cidade de Belém, Pará após a utilização de um filtro 3x3 com orientação oeste (exemplo 3, Tabela 7).

(28)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Tabela 7. Exemplos de Filtros passa-alta direcionais de borda (Manual do Spring, 2011).

Alguns SIGs possuem máscaras para o realce não-direcional de bordas pré-definidas. O SPRING sugere 3 tipos, que correspondem à intensidade dos níveis de cinza na imagem resultante. A Figura 17f exemplifica o uso de um filtro passa-alta não-direcional de borda 3x3, com intensidade alta (Tabela 8, exemplo 1).

Tabela 8. Filtros passa-alta, pré-definidos no SPRING.

Acima foram mencionados os filtros lineares. Diferentemente destes tipos de filtros, os filtros não-lineares são utilizados para modificar a imagem original, minimizando/realçando ruídos e bordas. Entre os principais filtros não-lineares pode-se citar os filtros para detecção de borda (com processos diferentes dos filtros lineares) e filtros morfológicos (mediana, erosão e dilatação). No SPRING, estão disponíveis dois filtros para a detecção de bordas, denominados Roberts e Sobel. O filtro para detecção de bordas de Roberts apresenta a desvantagem de realçar bordas com mesma magnitude de formas diferenciadas, fator este dependente da direção preferencial (Figura 18b). O filtro de Sobel possui a característica de realçar feições verticais e horizontais, sem realçar pontos isolados (Figura 18c). Maiores detalhes sobre filtros não-lineares para detecção de borda pode ser encontrado na literatura (Seara, 1998; Gonzalez et al., 2004; Gonzalez e Woods, 2008; Manual do SPRING, 2011).

(29)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 17. (a) Banda 8 do ETM+/Landsat 7 original; (b) Filtro passa-baixas (filtro de média), máscara 5x5; (c) Filtro passa-baixas (média ponderada), máscara 3x3 ; (d) Filtro passa-alta 3x3; (e) Filtro 3x3 direcional

de borda, orientação oeste; e (f) Filtro 3x3 não-direcional de borda, intensidade alta.

Os filtros morfológicos não-lineares da mediana, de erosão e dilatação são utilizados para realçar as propriedades geométricas presentes nas imagens. O filtro morfológico da mediada é utilizado para eliminação e suavização dos ruídos presentes na imagem (Figura 18d). Os filtros morfológicos de erosão e dilatação ocasionam efeitos de erosão nas partes claras da imagem, escurecendo-a, e dilatação nas partes escuras, clareando-a, respectivamente. A Figura 18 ilustra os efeitos do operador morfológico de erosão (Figura 18e) e dilatação (Figura 18f).

(30)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

Figura 18. (a) Banda 8 original do ETM+/Landsat 7; (b) Filtro para detecção de bordas de Roberts; (c) Filtro para detecção de bordas de Sobel; (d) Filtro morfológico da mediana; (e) Filtro morfológico de

erosão; e (f) Filtro morfológico de dilatação. 2.6.2. Filtros no domínio da frequência

Os filtros que atuam no domínio da frequência são baseados na transformada de Fourier (equação 3) da imagem, ou seja, a imagem é transformada do domínio espacial para o domínio da frequência. Em muitos programas de processamento de imagens, é comum o uso da transformada rápida de Fourier para decompor as informações de uma determinada imagem em uma imagem complexa no domínio da frequência (Figura 19b). O uso da transformada rápida de Fourier origina uma imagem que contêm as informações das componentes verticais e horizontais da frequência. O resultado deste processamento é uma imagem na qual

(31)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

o brilho médio da imagem é mostrado no centro (baixa frequência) e pixels afastados do centro da imagem representam componentes com alta frequência.

Eq. (3) Consequentemente, filtros podem ser aplicados diretamente no resultado da transformada rápida de Fourier. Define-se um raio a partir do centro para eliminar a alta frequência (atuando como um filtro passa-baixa). Desta forma, à medida que se aumenta o raio do filtro, as frequências mais altas são introduzidas no processo de filtragem, este procedimento pode originar filtros passa-média/baixa. Após a seleção do tamanho do raio (Figura 19c), realiza-se a transformação inversa, retornando os dados para o domínio espacial (Figura 19d). Maiores detalhes deste método por ser encontrado em Gonzalez e Woods (2008).

A Figura 19a mostra a banda pancromática do sensor ETM+ a bordo do Landsat 7 para a cidade de Belém, Pará. A Figura 19b corresponde à imagem resultante da transformada rápida de Fourier realizada no aplicativo ENVI. A partir da imagem no domínio da frequência, delimitaram-se vários raios para a aplicação do filtro (Figura 19c, e, g). Como procedimento final inverte-se a transformada rápida de Fourier, resultando em novas imagens no domínio espacial (Figura 19d, f e h). Nas figuras analisadas, é possível notar que à medida que o raio diminui (selecionando cada vez mais regiões com baixa frequência), a imagem apresenta o efeito de suavização e perda de resolução espacial.

(32)

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

(33)

Pr

oc

essamen

to D

igital de I

magens/ PDI - GEO

TEC

2.7. Cor no processamento de imagens

No sistema visual humano, a retina é formada por inúmeros fotorreceptores, como os cones (coloridos), responsáveis pela visão diurna, e pelos bastonetes, responsáveis pela visão noturna (cinza), ambos sensíveis a luz e que transformam a energia eletromagnética em energia neural, produzindo a imagem no plano focal. A percepção da cor está relacionada ao comprimento de onda da energia que chega aos olhos, que podem ser misturadas gerando, desta forma, inúmeras cores (Gonzalez e Woods, 2001).

As cores podem ser usadas tanto para a visualização de imagens multiespectrais como para a identificação e extração de objetos de interesse em uma imagem a partir de técnicas de processamento. O olho humano é menos sensível às variações de tons de cinza que os atuais sensores artificiais, sendo capaz de discriminar apenas algumas dezenas de níveis de cinza enquanto que os sensores são capazes de discriminar milhares de tons coloridos (Fonseca, 2000).

Em uma imagem colorida composta por três bandas, cada pixel desta imagem é representado numericamente por níveis de cinza correspondente à interação da radiação eletromagnética com o alvo, sendo assim, as cores visualizadas na formação de uma imagem colorida será determinada pela ponderação de cada valor para o mesmo pixel, ou seja, no sistema R (red – vermelho), G (green – verde) e B (blue – azul), cada banda da imagem (256 tons) possui uma intensidade de acordo com a reflectância do pixel. A Figura 20 mostra três bandas (b1, b2 e b3) do sensor ETM+/Landsat 7 na qual foram atribuídas as componentes R(b3), G(b2) e B(b1). Consequentemente, a imagem colorida final refere-se à junção das três bandas que receberam cores distintas (definidas pelo usuário). Analogamente, podemos comparar este processo ao de formação de cores para pintar casas, suponha que tenhamos um pote com tinta azul, um com verde e outro com vermelho, desta forma, se inserirmos mais vermelho do que azul e verde, a tinta será em tons de vermelho, se a maior quantidade de tinta for verde, a tinta terá tons de verde e assim por diante. Ressalta-se que na formação das imagens no olho humano, a acuidade visual é mais sensível à cor vermelha (Gonzalez e Woods, 2001).

Figura 20. (a) Banda 1 do sensor ETM+/Landsat 7 em tons de azul; (b) Banda 2 do sensor ETM+/Landsat 7 em tons de verde; (c) Banda 3 do sensor ETM+/Landsat 7 em tons de vermelho. (d) Imagem colorida

Referências

Documentos relacionados

No mesmo sentido, ao entender os fatores sociais, é possível compreender quais são os estilos de vida de cada consumidor ou grupo de consumidores, bem como os grupos sociais que

Parágrafo Quarto - Caso o FUNDO venha a investir em fundos geridos por terceiros não ligados ao ADMINISTRADOR ou à GESTORA, cujas políticas de investimento

Com a apresentação deste cenário, a contribuição da investigação se valida em importância, visto que oferece uma via de acesso para o ensino de geociências contemplando a

Portanto, a intenção deste trabalho é buscar o conhecimento acerca dos aceleradores escolhidos para realização dos testes, comparando o seu desempenho, velocidade e

Este artigo descreve a atividade antiviral de dois extratos etanólicos de própolis de duas diferentes origens frente ao adenovírus canino tipo 2 CAV-2, calicivírus felino FCV e vírus

uma forma eficiente de realizar a interseção entre duas esferas e duas cascas esféricas no R 3 , desejamos investigar o efeito de acrescentarmos mais uma casca esférica extra

Após, consegui contrato pelo estado e fui trabalhar em São Vendelino, em um grupo escolar com um quinto ano, tendo 36 alunos, sendo que dois alunos eram mais

Para o HIDRALERTA utilizou-se uma série de dados de agitação marítima compreendidos entre 1979 e 2014 como input para o sistema, a fim de simular a ocorrência de