• Nenhum resultado encontrado

UNIVERSIDADE ESTADUAL PAULISTA JOSÉ MARCATO JUNIOR FOTOTRIANGULAÇÃO EM BLOCO DE IMAGENS ORBITAIS COM MODELOS RIGOROSOS BASEADOS EM PONTOS E RETAS

N/A
N/A
Protected

Academic year: 2021

Share "UNIVERSIDADE ESTADUAL PAULISTA JOSÉ MARCATO JUNIOR FOTOTRIANGULAÇÃO EM BLOCO DE IMAGENS ORBITAIS COM MODELOS RIGOROSOS BASEADOS EM PONTOS E RETAS"

Copied!
120
0
0

Texto

(1)

UNIVERSIDADE ESTADUAL PAULISTA

CAMPUS DE PRESIDENTE PRUDENTE FACULDADE DE CIÊNCIAS E TECNOLOGIA

Programa de Pós-Graduação em Ciências Cartográficas

JOSÉ MARCATO JUNIOR

FOTOTRIANGULAÇÃO EM BLOCO DE IMAGENS ORBITAIS COM

MODELOS RIGOROSOS BASEADOS EM PONTOS E RETAS

Presidente Prudente

2011

(2)

UNIVERSIDADE ESTADUAL PAULISTA

CAMPUS DE PRESIDENTE PRUDENTE FACULDADE DE CIÊNCIAS E TECNOLOGIA

Programa de Pós-Graduação em Ciências Cartográficas

JOSÉ MARCATO JUNIOR

FOTOTRIANGULAÇÃO EM BLOCO DE IMAGENS ORBITAIS COM

MODELOS RIGOROSOS BASEADOS EM PONTOS E RETAS

Dissertação de mestrado apresentada ao Programa de Pós-Graduação em Ciências Cartográficas, da Faculdade de Ciências e Tecnologia - UNESP campus de Presidente Prudente.

Orientador: Prof. Dr. Antonio M. G. Tommaselli

Presidente Prudente

2011

(3)

Marcato Junior, José.

M262f Fototriangulação em bloco de imagens orbitais com modelos rigorosos baseados em pontos e retas / José Marcato Junior. - Presidente Prudente : [s.n], 2011

119f.

Orientador: Antonio Maria Garcia Tommaselli

Dissertação (mestrado) - Universidade Estadual Paulista, Faculdade de Ciências e Tecnologia

Inclui bibliografia

1. Fotogrametria. 2. Fototriangulação. 3. Imagens Orbitais. I. Tommaselli, Antonio Maria Garcia. II. Universidade Estadual Paulista. Faculdade de Ciências e Tecnologia. III. Título.

CDD 623.72

Ficha catalográfica elaborada pela Seção Técnica de Aquisição e Tratamento da Informação – Serviço Técnico de Biblioteca e Documentação - UNESP, Câmpus de Presidente Prudente.

(4)
(5)
(6)

DEDICATÓRIA

A Deus.

Aos meus pais José Marcato e Eliane, pelo amor incondicional, exemplo de vida e incentivo.

À minha amada irmã, parceira de todos os momentos.

Aos meus tios e padrinhos Pedro e Maria, por todo carinho e incentivo.

Ao meu grande amor e futura esposa Daniela, pelo amor e compreensão.

(7)

AGRADECIMENTOS

Ao professor Dr. Antonio Maria Garcia Tommaselli, pela imprescindível orientação e pelos ensinamentos, que transcenderam o campo científico, passados neste longo período de parceria.

Aos amigos Nilcilene Medeiros, predecessora na pesquisa do tema tratado neste trabalho, Raquel Oliveira e Marcus Moraes que tanto me ajudaram, sobretudo nos dias ensolarados de levantamento de campo.

Aos companheiros de grupo de pesquisa Roberto Ruy, Renzo Petri, Carlos Rodrigo e Vander Freitas pelo companheirismo e auxílio prestado no desenvolvimento deste trabalho.

Aos professores do Departamento de Cartografia da FCT/UNESP, em especial aos professores Aluir Porfírio Dal Poz e Maurício Galo que contribuíram significativamente para o desenvolvimento deste trabalho.

Ao Dr. Antonio José Ferreira Machado e Silva por disponibilizar prontamente os dados técnicos do sensor HRC.

Aos amigos do PPGCC, pelos bons momentos de convivência e trocas de experiência, incluindo as confraternizações e as partidas de futsal.

Ao INPE por ceder as imagens do sensor CBERS-2B HRC utilizadas neste trabalho.

À UNESP, por proporcionar todos os meios para o desenvolvimento deste trabalho.

(8)

EPÍGRAFE

"Saber que sabemos o que sabemos, e saber que não sabemos o que não sabemos, isso é conhecimento verdadeiro."

(9)

RESUMO

A partir da década de 1970, com o início dos programas espaciais civis para fins de sensoriamento remoto, foi possível observar, fotografar e analisar a Terra a partir de dados gerados por plataformas orbitais. Atualmente, embora os sistemas orbitais sejam equipados com sensores de orientação direta (GNSS, giroscópios, sensores de estrelas, dentre outros), nem sempre as imagens corrigidas a partir dos dados (efemérides e atitude) provenientes destes sensores apresentam a acurácia requerida para certas aplicações. Para solucionar este problema é necessário orientar indiretamente estas imagens com elementos de controle no espaço objeto (pontos, retas e/ou áreas) ou corrigir os parâmetros orbitais a partir destes elementos de controle. O objetivo principal deste trabalho consiste em estudar, adaptar e avaliar experimentalmente modelos matemáticos rigorosos para a Fototriangulação de imagens orbitais utilizando pontos e retas como controle de campo. Os modelos matemáticos que relacionam os espaços objeto e imagem se baseiam nas condições de colinearidade (pontos) e coplanaridade (retas). Estes modelos foram implementados no programa TMS, seguindo a abordagem de triangulação multissensor com controle multi-feições. As entidades do espaço objeto (pontos e retas) foram levantadas em campo com o uso de um receptor GNSS de dupla frequência. Foram realizados experimentos com dados simulados e reais referentes ao sensor CBERS-2B HRC. Nos casos estudados, não houve melhora significativa nos resultados ao aplicar a Fototriangulação em bloco, quando comparado à orientação individual das imagens. Verificou-se também que a combinação dos modelos de colinearidade (pontos) e coplanaridade (retas) proporcionam uma melhora significativa nos resultados da Fototriangulação. Além disso, verificou-se a importância em usar as informações de órbita, à medida que possibilita aplicar a Fototriangulação com um número reduzido de pontos de apoio.

(10)

ABSTRACT

Earth observation and analysis became feasible since the 70s with the civil spatial programs for remote sensing purpose. Nowadays, orbital imaging systems are equipped with direct orientation sensors. However, the images corrected using the orientation data (ephemeris and attitude) provided by these sensors are not always suitable for applications that require high metric accuracy. As a consequence, it is necessary to estimate indirectly the orientation elements of these images using ground control elements in the object space (points, lines and area), or to correct the orbital parameters using these control elements. The aim of this work is to study, adapt and experimentally assess rigorous bundle block adjustment models for orbital imagery using points and lines as control elements. The mathematical models relating object and image spaces are based on collinearity (points) and coplanarity (lines) conditions. The models were implemented in the in-house developed software TMS (Triangulation with Multiple Sensors), considering the multissensor triangulation with multifeatures control (points and lines) approach. The object space entities were surveyed with a dual-frequency GNSS receiver. Experiments with simulated and real data from the CBERS-2B HRC sensor were accomplished. The results showed that applying the bundle block adjustment instead of the single image orientation did not lead to significant accuracy improvements. It was also verified that the combination of collinearity and coplanarity models provided better results in the bundle block adjustment. Besides that, the importance of using orbital data in the bundle block adjustment was verified, providing solution with few ground control points.

(11)

LISTA DE FIGURAS

Figura 1: Relação entre o FOV, IFOV, GIFOV, distância do sensor ao objeto (H) e ângulo off-

nadir (Q) (POLI, 2005). ... 23

Figura 2: Modelo de sensor (a) câmara de quadro e (b) câmara de varredura linear (MIKHAIL et al., 2001). ... 24

Figura 3: Sistema da imagem (CL). ... 29

Figura 4: Relação entre o sistema central e o sistema CL – Imagem de quadro. ... 29

Figura 5: Sistema Fotogramétrico (diapositivo) – Imagem de quadro. ... 30

Figura 6: Sistema Fotogramétrico (negativo) – Imagem de quadro. ... 31

Figura 7: Relação entre o sistema fotogramétrico (negativo) e o sistema do sensor. ... 32

Figura 8: Sistema de Referência da Órbita (MACHADO E SILVA, 2007). ... 34

Figura 9: Relação entre o SRO e SRGI (MACHADO E SILVA, 2007)... 36

Figura 10: Sistema de Referência WGS-84 (MONICO, 2008). ... 37

Figura 11: Referencial geodésico cartesiano local. Adaptado de Lugnani (1987). ... 41

Figura 12: Representação da condição de colinearidade para o sensor de varredura linear. ... 45

Figura 13: O efeito de pequenas variações nos parâmetros de orientação exterior para imagens de quadro e pushbroom. Fonte: Adaptado de Orun e Natarajan (1994). ... 47

Figura 14: Geometria do Sensor de varredura linear (modelo orbital). Adaptado de Kim e Dowman (2006). ... 50

Figura 15: Condição de coplanaridade entre o vetor de visada e o plano de projeção no espaço objeto. ... 51

Figura 16: Padrão da matriz A (derivadas com relação aos parâmetros). ... 62

Figura 17: Padrão da matriz N do ajustamento. ... 62

Figura 18: Representação do processo de geração de dados simulados para o modelo de Coplanaridade com retas. ... 65

Figura 19: Estrutura de funcionamento do programa TMS. Adaptado de Ruy (2008). ... 67

Figura 20: Condição de colinearidade aplicada às retas de controle (rodovias). ... 69

Figura 21: Imagem CBERS-2B HRC (a) Histograma da imagem; (b) Definição do ponto na imagem original (c) e na imagem com ampliação do contraste. ... 69

Figura 22: Conjunto de Pontos de apoio total (40) e pontos de verificação (22) – Simulação.73 Figura 23: Conjunto de Pontos de apoio reduzido (12) e pontos de verificação (22) – Simulação. ... 74

Figura 24: Médias do EMQ (m) (para 40 repetições) nos pontos de verificação considerando um erro aleatório de 1,5 pixel (Teste 1) – Imagem 1. ... 75

Figura 25: Média do EMQ (m) nos pontos de verificação considerando um erro aleatório de 1,5 pixel (Teste 1) – Imagem 2. ... 76

Figura 26: Média do EMQ (m) nos pontos de verificação para o Teste 2 (2,5 pixel) - Imagem 1. ... 77

Figura 27: Média do EMQ (m) nos pontos de verificação para o Teste 2 (2,5 pixel) - Imagem 2. ... 77

Figura 28: Configuração das retas de controle (44). ... 79

Figura 29: EMQ (m) nos pontos de verificação – Teste 1 (a) Imagem 1; (b) Imagem 2. ... 79

Figura 30: EMQ (m) nos pontos de verificação – Teste 2 (a) Imagem 1; (b) Imagem 2. ... 80

Figura 31: Configuração do bloco de imagens CBERS-2B HRC. ... 81

Figura 32: Configuração dos pontos de apoio (54) e verificação (14). ... 83

Figura 33: Configuração das retas de apoio (84). ... 83

Figura 34: EMQ (m) nos pontos de verificação (a) Imagem 1; (b) Imagem 2; (c) Imagem 3 e (d) Imagem 4. ... 85

(12)

Figura 35: Distribuição dos 23 pontos de apoio. ... 86

Figura 36: EMQ(m) nos pontos de verificação – Experimentos com 18 pontos de apoio. ... 86

Figura 37: Distribuição dos 14 pontos de apoio (7 PA por imagem). ... 87

Figura 38: EMQ nos pontos de verificação – Experimentos com 7 pontos de apoio. ... 87

Figura 39: Distribuição dos 11 pontos de apoio (5 PA por imagem). ... 88

Figura 40: EMQ (m) nos pontos de verificação – Experimento D com 5 pontos de apoio. .... 89

Figura 41: EMQ (m) nos pontos de verificação considerando 5 PAs e 84 RAs. ... 89

(13)

LISTA DE TABELAS

Tabela 1: Níveis de processamento das imagens CBERS. ... 27 Tabela 2: Ordem das matrizes A e N para o caso hipotético. ... 61 Tabela 3: Características técnicas do sensor HRC. ... 72 Tabela 4: Descrição dos experimentos com dados simulados – Modelo de Colinearidade. .... 72 Tabela 5: Desvio-padrão para cada parâmetro de orientação exterior. ... 74 Tabela 7: Configuração dos experimentos com dados reais... 82 Tabela 8: Teste de hipótese qui-quadrado para os experimentos com dados reais – Conjunto total de pontos e retas de apoio. ... 84 Tabela 9: EMQ nos pontos de apoio considerando diferentes configurações de dados. ... 92 Tabela B.1: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 1) – 40 pontos de apoio. ... 110 Tabela B.2: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 1) – 40 pontos de apoio. ... 110 Tabela B.3: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 1) – 12 pontos de apoio. ... 111 Tabela B.4: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 1) – 12 pontos de apoio. ... 111 Tabela B.5: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 1) – 40 pontos de apoio. ... 112 Tabela B.6: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 1) – 40 pontos de apoio. ... 112 Tabela B.7: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 1) – 12 pontos de apoio. ... 113 Tabela B.8: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 1) – 12 pontos de apoio. ... 113 Tabela B.9: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 2) – 40 pontos de apoio. ... 114 Tabela B.10: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 2) – 40 pontos de apoio. ... 114 Tabela B.11: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 2) – 12 pontos de apoio. ... 115 Tabela B.12: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 2) – 12 pontos de apoio. ... 115 Tabela B.13: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 2) – 40 pontos de apoio. ... 116 Tabela B.14: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 2) – 40 pontos de apoio. ... 116 Tabela B.15: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 2) – 12 pontos de apoio. ... 117 Tabela B.16: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 2) – 12 pontos de apoio. ... 117

(14)

LISTA DE QUADROS

Quadro1: Ângulos de boresight (º) da câmara HRC - CBERS-2B. ... 63

Quadro 2: Data de coleta das imagens CBERS-2B HRC. ... 81

Quadro C.1: Arquivo de projeto. ... 118

Quadro C.2: Arquivo de orientação interior. ... 118

Quadro C.3: Arquivo de orientação exterior das quatro imagens – Modelo com 12 POE. ... 118

Quadro C.4: Arquivo com as coordenadas de alguns pontos e retas de apoio. ... 119

(15)

LISTA DE ABREVIATURAS E SIGLAS

ASP: American Society of Photogrammetry (Sociedade Americana de Fotogrametria) B/H: Base/Altura

CBERS: China-Brazil Earth Resources Satellite (Satélite Sino-Brasileiro de Recursos Terrestres)

CCD: Charge Coupled Device (Dispositivo de carga acoplada) CMS: Centro de Massa do Satélite

CP: Centro Perspectivo

CPEq: Calibração com o modelo dos Planos Equivalentes

CTP: Conventional Terrestrial Pole (Polo Terrestre Convencional) DETER: Detecção de Desmatamento em Tempo Real

DLT: Direct Linear Transformation (Transformação Linear Direta)

EIFOV: Effective Instantaneous Field of View (Campo de visada instantâneo efetivo) FOV: Field of View (Campo de Visada)

GEIFOV: Ground Effective Instantaneous Field of View (Campo de visada instantâneo efetivo no terreno)

GIFOV: Ground Instantaneous Field of View (Campo de visada instantâneo no terreno) HRC: High Resolution Camera (Câmara de Alta Resolução)

IAU2000: International Astronomical Union 2000 (União Astronômica Internacional 2000) IBGE: Instituto Brasileiro de Geografia e Estatística

INPE: Instituto Nacional de Pesquisas Espaciais

IFOV: Instantaneous Field of View (Campo de visada instantâneo) IRMSS: Infrared Multispectral Scanner

GNSS: Global Navigation Satellite System (Sistema global de navegação por satélite) GPS: Global Positioning System (Sistema global de posicionamento)

GSD: Ground Sample Distance (Elemento de resolução no terreno) LPS: Leica Photogrammetry Suite

MCP: Modelo de Colinearidade com Pontos

MCPO: Modelo de Colinearidade com Pontos considerando dados de Órbita MCR: Modelo de Coplanaridade com Retas

MCRO: Modelo de Coplanaridade com Retas considerando dados de Órbita MDE: Modelo Digital de Elevação

(16)

PA: Ponto de Apoio

PAA: Ponto de Apoio Altimétrico PF: Ponto Fotogramétrico

POE: Parâmetros de Orientação Exterior POI: Parâmetros de Orientação Interior pp: Ponto Principal

PPP: Posicionamento por Ponto Preciso

PRODES: Programa de Monitoramento do Deflorestamento da Amazônia Legal RA: Reta de Apoio

RBMC: Rede Brasileira de Monitoramento Contínuo

RPF: Rational Polinomial Function (Função Polinomial Racional)

SAD 69: South American Datum of 1967 (Datum Sul-americano de 1967) SIRGAS: Sistema de Referência Geocêntrico para as Américas

SGB: Sistema Geodésico Brasileiro

SOFA: Standards of Fundamental Astronomy SRGCL: Sistema de Referência Cartesiano Local SRGI: Sistema de Referência Geocêntrico Inercial SRG: Sistema de Referência Geodésico

SRGC: Sistema de Referência Geodésico Cartesiano

SRGGC: Sistema de Referência Geodésico Geocêntrico Cartesiano SRO: Sistema de Referência da Órbita

SRP: Sistema de referência da Plataforma SRS: Sistema de Referência do Sensor TDB: Tempo Dinâmico Baricêntrico TLE: Two Line Elements

TMC: Triangulação Multi-câmaras TMS: Triangulação MultiSsensor

UTM: Universal Transversa de Mercator

WFI: Wide Field Imager (Câmara Imageadora de Amplo Campo de Visada) WGS-84: World Geodetic System of 1984 (Sistema Geodésico Global de 1984)

(17)

SUMÁRIO 1. INTRODUÇÃO ... 17 1.1 Considerações Gerais ... 17 1.2 Contextualização da pesquisa ... 20 1.3 Objetivos da Pesquisa ... 21 2. REVISÃO BIBLIOGRÁFICA ... 22

2.1 Geometria do sensor de varredura linear (pushbroom) ... 22

2.1.1 Modelo de sensor ... 23

2.1.2 Modelo de plataforma ... 25

2.2 Programa CBERS ... 25

2.3 Referenciais envolvidos na Fototriangulação considerando dados de órbita ... 28

2.3.1 Sistemas de Referência da Imagem/Sensor ... 28

2.3.2 Sistema de Referência da Plataforma (SRP) ... 32

2.3.3 Sistema de Referência da Órbita (SRO) ... 33

2.3.4 Sistema de Referência Geocêntrico Inercial (SRGI) ... 34

2.3.5 Sistema de Referência Geodésico Geocêntrico Cartesiano (SRGGC) ... 37

2.3.6 Sistema de Referência Geodésico Cartesiano (SRGC) ... 38

2.3.7 Sistema de Referência Geodésico Cartesiano Local (SRGCL) ... 39

2.3.8 Sistema de Referência Geodésico (SRG) ... 41

2.4 Fototriangulação de imagens orbitais ... 42

2.4.1 Modelo de Colinearidade adaptado para a geometria de varredura linear ... 43

2.4.2 Modelo de Colinearidade adaptado para a geometria de varredura linear considerando dados de órbita ... 48

2.4.3 Modelo de Coplanaridade com retas adaptado para a geometria de varredura linear ... 50

2.4.4 Modelo de Coplanaridade com retas adaptado para a geometria de varredura linear considerando dados de órbita ... 52

2.5 Triangulação Multissensor com controle multi-feições ... 52

3. MATERIAIS E MÉTODOS ... 54

3.1 Materiais ... 54

3.2 Métodos ... 54

3.2.1 Estudo teórico ... 55

3.2.1.1 Modelos matemáticos para a Fototriangulação de imagens orbitais ... 55

3.2.1.2 Estimação dos parâmetros pelo MMQ ... 58

3.2.2 Desenvolvimento de aplicativos ... 63

3.2.3 Experimentação ... 68

4. EXPERIMENTOS E RESULTADOS ... 71

4.1 Experimentos com a câmara HRC: Dados simulados ... 71

4.2 Experimentos com a câmara HRC: Dados reais ... 80

4.2.1 Discussão dos experimentos com dados reais ... 90

5. CONCLUSÕES ... 93

5.1 CONSIDERAÇÕES FINAIS ... 93

5.2 SUGESTÕES PARA TRABALHOS FUTUROS ... 95

REFERÊNCIAS ... 97

APÊNDICE A ... 103

APÊNDICE B ... 109

(18)

1. INTRODUÇÃO

1.1 Considerações Gerais

De acordo com Thompson e Gruner (1980), Fotogrametria, tradicionalmente, é definida como ciência e arte de obter medidas confiáveis por meio de fotografias. Com o início dos programas espaciais e com a criação de novos tipos de sensores, na década de 1970, uma definição mais abrangente de Fotogrametria foi proposta pela ASP (American Society of Photogrammetry – Sociedade Americana de Fotogrametria) em 1979:

Fotogrametria é a arte, ciência e tecnologia de obtenção de informações confiáveis sobre objetos físicos e o meio ambiente através de processos de gravação, medição e interpretação de imagens fotográficas e padrões de energia eletromagnética radiante e outras fontes (THOMPSON e GRUNER, 1980, p. 1, tradução nossa).

Desde o surgimento dos programas espaciais houve um grande desenvolvimento de novas tecnologias, que permitiram a construção de múltiplos sensores de imageamento, com alta resolução espacial, temporal, espectral e radiométrica. O Brasil faz parte do grupo de países detentores desta tecnologia espacial, com o programa CBERS (China-Brazil Earth Resources Satellite), que se diferencia dos demais sistemas por prover as imagens gratuitamente aos usuários.

Atualmente, embora os satélites de alta resolução sejam equipados com sensores de orientação direta (GNSS, giroscópios, sensores de estrelas, dentre outros), nem sempre as imagens corrigidas a partir das informações (efemérides e atitude) provenientes destes sensores apresentam a acurácia requerida por certas aplicações, como, por exemplo, no mapeamento em escala grande. Assim, surgem duas possibilidades para alcançar a acurácia desejada: (1) orientar indiretamente essas imagens utilizando elementos de controle no espaço objeto (pontos, retas e/ou áreas) (TOUTIN e ROCHON, 1986; DEREN e JIAYU, 1988; ORUN e NATARAJAN, 1994; TOMMASELLI e MEDEIROS, 2010) ou; (2) corrigir os parâmetros que definem a órbita por meio desses elementos de controle (RADHADEVI et al., 1998; HABIB et al., 2001; TOUTIN, 2003; KIM e DOWMAN, 2006; JACOBSEN, 2007).

Os modelos para o georreferenciamento de imagens coletadas por sensores de varredura linear (pushbroom), presentes em sistemas orbitais, podem ser divididos,

(19)

genericamente, em dois grupos: os modelos rigorosos (ou físicos), que são baseados em parâmetros físicos e; os modelos generalizados (KIM e DOWMAN, 2006), também chamados de empíricos (TOUTIN, 2004) ou genéricos (KOCAMAN, 2008), que não descrevem fisicamente a tomada da imagem, como as funções racionais (RPF- Rational Polinomial Function), a transformação linear direta (DLT – Direct Linear Transformation), a projeção paralela, a transformação afim 3D, entre outros. Segundo Jacobsen (2007) os modelos rigorosos, quando comparados aos modelos generalizados, proporcionam melhores resultados no processo de orientação com menor número de pontos de apoio e também apresentam maior flexibilidade na distribuição destes pontos.

O processo de orientação de imagens de varredura linear com o uso de modelos rigorosos pode ser aplicado considerando apenas uma imagem ou um bloco de imagens (Ajuste em Bloco – Fototriangulação em bloco). Existem algumas vantagens em aplicar a Fototriangulação em bloco ao invés da orientação individual (TOUTIN, 2003):

 redução do número de pontos de apoio à medida que há a possibilidade de utilizar pontos fotogramétricos na área de sobreposição das imagens;

 obtenção de uma melhor acurácia relativa entre as imagens;

 geração de um Modelo Digital de Elevação (MDE) homogêneo desde que o bloco tenha uma completa cobertura estereoscópica;  obtenção de um orto-mosaico de grandes áreas mais homogêneo e

acurado.

Atualmente, existem diversos tipos de sensores, cabendo destacar: o sensor de quadro (frame), o sensor de varredura linear (pushbroom), o sensor de varredura a laser e o sensor de varredura mecânica. Surge assim, a triangulação multissensor, que pode ser entendida como uma técnica flexível, capaz de processar os diferentes modelos de sensores, isolada ou simultaneamente (SHIN et al., 2007; ROSE e FRADKIN, 2007). Alguns sistemas fotogramétricos comerciais exploram esta técnica, mas utilizando apenas pontos como elementos de projeção por meio das equações de colinearidade. Não foram incorporados modelos baseados em feições lineares em nenhum destes sistemas, embora esta possibilidade já esteja em desenvolvimento no ambiente acadêmico (TOMMASELLI e TOZZI, 1996; LEE et al, 2000; HABIB et al., 2000; TOMMASELLI e MEDEIROS, 2010).

Existem diversas vantagens que motivam o uso de feições lineares em atividades fotogramétricas, cabendo destacar: a extração de feições lineares é mais fácil quando comparada à extração de pontos, o que ocorre devido à natureza das feições lineares,

(20)

pois, representam descontinuidades em tons de cinza em uma direção, ao passo que os pontos representam descontinuidades em todas as direções; as feições lineares na imagem podem ser extraídas com precisão sub-pixel ao longo da direção do gradiente; as imagens de ambientes antrópicos possuem uma grande quantidade de feições lineares e; as feições lineares aumentam a redundância e proporcionam uma melhoria na geometria, contribuindo nas atividades que envolvem ajustamento em Fotogrametria (TOMMASELLI e TOZZI, 1996; LEE et al., 2000; HABIB et al., 2002).

Neste contexto, torna-se de grande relevância realizar um estudo sobre métodos de Fototriangulação em bloco de imagens orbitais com modelos rigorosos, considerando a abordagem multissensor, usando pontos e retas como controle de campo.

No Brasil, os modelos rigorosos, embora propiciem soluções mais acuradas, são frequentemente evitados em favor dos modelos generalizados (DLT, RPF, Afim 3D, dentre outros), mesmo em casos onde se conhece a priori os parâmetros de aquisição do sistema, devido, provavelmente, à facilidade de implementação dos modelos generalizados (CRUZ et al., 2005; DAL POZ e SCALCO, 2006; DEBIASI et al., 2007; RODRIGUES et al., 2009).

Com relação ao modelo RPF, popularizado com o advento dos sensores de alta resolução espacial, existem duas formas para estimar os coeficientes das funções racionais: (1) estimação dos coeficientes utilizando pontos de apoio (terrain dependent); (2) estimação dos coeficientes a partir de uma grade 3D de pontos gerada com o uso do modelo físico da câmara considerando um número de planos de elevação constante, como apresentado por Grodecki (2001). Os coeficientes distribuídos pelas empresas ou agências são gerados através dessa segunda alternativa, com o uso, portanto, de modelos rigorosos, como aquele baseado na condição de colinearidade.

Rodrigues et al. (2009) utilizaram o modelo das funções racionais de primeiro grau baseado em pontos de apoio (terrain dependent) para ortorretificar uma imagem coletada pelo sensor HRC (High Resolution Camera) do CBERS-2B. Em alguns pontos de verificação as discrepâncias foram maiores que 50 metros. Jacobsen (2007) realizou experimentos com imagens IKONOS utilizando o modelo de funções racionais, com coeficientes determinados indiretamente com base em pontos de apoio (terrain dependent), e verificou que os resultados proporcionados por este modelo não podem ser controlados e, portanto, o seu uso deve ser evitado. Através da análise dos resultados, Jacobsen (2007) notou que, em pontos de verificação localizados fora do intervalo de variação de altitude dos pontos de apoio, as discrepâncias podem atingir 500 metros.

(21)

1.2 Contextualização da pesquisa

Tommaselli e Telles (2006) desenvolveram um modelo matemático para calibração de câmaras digitais que usa feições retas, baseado no modelo dos planos equivalentes, com estimação dos parâmetros pelo método combinado. Este modelo foi implementado em linguagem C++, dando origem ao programa de calibração CPEq (Calibração com o modelo dos Planos Equivalentes). Cabe ressaltar, que no programa CPEq, além do modelo de retas, foi implementado o método convencional que usa as equações de colinearidade (modelo com pontos), de modo a permitir a calibração com pontos e retas.

Neste sentido, Marcato Junior et al. (2007) realizaram um estudo comparativo entre os métodos de calibração que utilizam pontos e retas como controle, e verificaram a viabilidade em se utilizar o modelo baseado em retas na pré-calibração de câmaras digitais de quadro.

A partir desse estudo, verificou-se, também, que o programa CPEq apresentava algumas peculiaridades, tais como: realizava a calibração de apenas uma câmara; realizava o ajustamento sem aproveitar a natureza esparsa e simétrica da matriz normal; invertia a matriz normal na solução do sistema de equações normais, o que implicava em um número excessivo de operações, limitando, também, o número de imagens e de pontos e; não permitia o uso de pontos e retas como fotogramétricos, ou seja, pontos e retas que não fossem controle de campo.

Assim, resolveu-se iniciar em 2007 o desenvolvimento de outro programa de Fototriangulação com parâmetros adicionais (TMC – Triangulação Multi-Câmaras), com características mais otimizadas, para permitir o processamento de grandes blocos de imagens, o que não era possível no programa CPEq. Este programa usa partes do programa CPEq, mas tem como característica principal a possibilidade de calibrar múltiplas câmaras simultaneamente utilizando o método convencional que usa as equações de colinearidade. O desenvolvimento desse programa foi realizado em conjunto por Ruy (2008), Marcato Junior et al. (2008) e Bazan (2008).

A orientação (individual) indireta de imagens orbitais foi um tema tratado por Medeiros e Tommaselli (2007), em que foram estudados dois modelos rigorosos para orientação de imagens pushbroom orbitais usando linhas retas como controle de campo. No caso estudado, foram utilizados eixos de rodovias levantados em campo, para orientar as imagens. Os experimentos foram realizados com imagens coletadas pelo sensor CBERS-2

(22)

CCD, obtendo-se uma exatidão ao redor de 30 m (1,5 GSD) nos pontos de verificação reconstruídos, o que pode ser considerado um excelente resultado. Este projeto mostrou a viabilidade de utilizar retas para orientar imagens de varredura linear (pushbroom), como, aliás, já mostravam outros trabalhos similares (HABIB et al, 2000; SHIN et al, 2007). Neste trabalho foi utilizado como base para comparação o modelo de colinearidade modificado para a geometria do sensor de varredura linear (pushbroom).

Marcato Junior et al. (2009) incorporaram ao TMC o modelo de colinearidade, adaptado para a geometria pushbroom (MEDEIROS e TOMMASELLI, 2007), dando origem ao programa TMS (Triangulação MultiSsensor), permitindo, assim, realizar a Fototriangulação em bloco de imagens de quadro e de varredura linear, isolada ou simultaneamente, com o modelo de colinearidade (modelo de pontos).

Diante do exposto, surge, então, o interesse em realizar a Fototriangulação em bloco de imagens orbitais usando pontos e retas como controle de campo. Outro aspecto a ser investigado é o ajuste simultâneo com pontos e retas de apoio. Por fim, há também o interesse de avaliar o uso de informações de órbita na Fototriangulação.

Dentro deste contexto, apresenta-se a seguir os objetivos desta pesquisa.

1.3 Objetivos da Pesquisa

O objetivo principal deste trabalho consiste em estudar, adaptar e avaliar experimentalmente modelos matemáticos de Fototriangulação em bloco de imagens orbitais.

Como objetivos específicos, têm-se:

 avaliar a importância em considerar as informações de órbita na Fototriangulação;

 verificar se há vantagens em aplicar a Fototriangulação em bloco com relação à orientação individual para imagens CBERS-2B HRC;  comparar o modelo de coplanaridade (retas) com o modelo de

colinearidade (pontos);

 analisar os benefícios existentes em combinar pontos e retas de controle na Fototriangulação;

 implementar os modelos matemáticos no programa TMS seguindo a abordagem de triangulação multissensor com controle multi-feições.

(23)

2. REVISÃO BIBLIOGRÁFICA

Nesta seção os seguintes temas serão abordados: geometria do sensor de varredura linear (pushbroom); programa CBERS; referenciais envolvidos na Fototriangulação considerando dados de órbita; Fototriangulação de imagens orbitais e; Triangulação multissensor com controle multi-feições.

2.1 Geometria do sensor de varredura linear (pushbroom)

Ao longo deste trabalho diferentes termos específicos, relacionados com a tomada de imagens por sensores de varredura linear, serão apresentados. Nesse sentido, a seguir, são definidos alguns destes termos.

O FOV (Field of View), conforme Figura 1, consiste no ângulo de visibilidade do sensor. Já o IFOV (Instantaneous Field of View), é o ângulo de visibilidade de cada fotodetector do sensor e determina a área na superfície da Terra que é imageada pelo elemento sensor (pixel) a partir de uma determinada altitude em um momento particular (POLI, 2005). Portanto, a partir do IFOV é possível estimar o campo de visada instantâneo no terreno, denominado de GIFOV (Ground Instantaneous Field of View). No entanto, devido à geometria de visada e à curvatura da Terra, o GIFOV apresenta certa variação. O tamanho do GIFOV aumenta à medida que o ângulo off-nadir (Q – ver Figura 1) aumenta. Assim, utiliza-se o GSD (Ground Sample Distance) como elemento de resolução espacial no terreno, que apresenta um valor constante para todos os pixels na imagem (MACHADO E SILVA, 2007).

Jensen (2009) define resolução espacial como “uma medida da menor separação angular ou linear entre dois objetos que pode ser determinada pelo sistema de sensoriamento remoto”. Segundo Dowman (1996), a resolução espacial é uma medida da capacidade do sistema de imageamento em distinguir entre feições adjacentes em um objeto. Em geral, a resolução espacial é confundida com o tamanho do pixel no terreno (GSD). No entanto, de acordo com o teorema da amostragem de Shannon-Nyquist (HAYES, 2009) e como também apresentado por Dowman (1996, p.58) a resolução é de, no mínimo, duas vezes a frequência da amostragem, ou mais precisamente: resolução=2 2×GSD.

(24)

Figura 1: Relação entre o FOV, IFOV, GIFOV, distância do sensor ao objeto (H) e ângulo off- nadir (Q) (POLI, 2005).

Para os sensores orbitais de alta resolução é aplicado um movimento para o lado dos satélites, denominado de crab movement (andar de caranguejo) que associado com a com a tecnologia TDI (Time Delay Integration) tem por objetivo evitar o borramento nas imagens. No entanto, mesmo com esta correção, alguns componentes ópticos destes sensores, como as lentes e os prismas, podem provocar o efeito de borramento, degradando, portanto, a resolução espacial das imagens. Surge, então, o termo resolução espacial efetiva que pode ser representada pelo EIFOV (Effective Instantaneous Field of View), IFOV efetivo. O GEIFOV (Ground Effective Instantaneous Field of View) representa o campo de visada instantâneo efetivo no terreno.

Para realizar a orientação de imagens orbitais coletadas por sensores de varredura linear com modelos rigorosos é necessário definir o modelo de sensor (geometria interna do sensor) e o modelo de plataforma (trajetória e orientação do sensor no intervalo de coleta da imagem), descritos a seguir.

2.1.1 Modelo de sensor

O modelo de sensor define a geometria interna de coleta da imagem que é representada pelos Parâmetros de Orientação Interior (POI) – distância focal (f); coordenadas

(25)

do Ponto Principal (pp), que é projeção ortogonal do Centro Perspectivo - CP no plano focal do sensor; coeficientes das distorções das lentes (radial simétrica - K1, K2 e K3; e descentrada

- P1 e P2) e; parâmetros de afinidade (A e B) (MIKHAIL et. al., 2001).

Ao conhecer os POI é possível reconstruir os feixes de raios que originaram a imagem. A Figura 2 apresenta a geometria interna de um sensor de quadro e de um sensor de varredura linear, representando apenas a distância focal (f).

Figura 2: Modelo de sensor (a) câmara de quadro e (b) câmara de varredura linear (MIKHAIL et al., 2001).

Os POI são estimados no processo de calibração, em geral, realizado em laboratório. No entanto, quando se realiza a aquisição das imagens em ambientes não controlados com diferentes condições de temperatura e pressão, os POI podem sofrer alterações, o que ressalta a importância em se realizar a calibração em serviço (in situ) (RUY, 2008; MARCATO et al., 2008). Galo et al. (2010) realizaram um estudo experimental e verificaram a existência de correlação entre a variação da temperatura e alterações na distância focal para uma câmara digital de médio formato. No caso dos sensores orbitais, que sofrem grandes variações de ambiente e são submetidos a diversas forças ao serem lançados em órbita, os valores calibrados dos POI podem ser recalculados com recursos de calibração em serviço (in situ) (JACOBSEN, 1998; KORNUS et. al., 1999; FRITSCH e STALLMANN, 2000; KOCAMAN e GRUEN, 2007; SRINIVASAN et al., 2008). É importante ressaltar que este processo de calibração em serviço deve ser realizado ao longo de toda a vida útil do satélite.

(26)

2.1.2 Modelo de plataforma

O modelo de plataforma é definido pelos Parâmetros de Orientação Exterior (POE), que permitem posicionar e orientar o feixe de raios no espaço objeto. Para o sensor de quadro, cada feixe exige um conjunto de seis POE (três rotações e as coordenadas do CP).

Os sensores de quadro são representados por apenas um feixe de raios. Já para o sensor de varredura linear cada linha da imagem define um feixe de raios (ver Figura 2). Assim, cada linha apresenta um conjunto de seis POE (ou nove POE, quando são usadas as informações de órbita, pois se considera também a velocidade), o que implica em um elevado número de parâmetros por imagem. Por exemplo, uma imagem CBERS-2B HRC com 12.246 linhas, apresenta 73.476 POE (ou 110.214 POE, considerando 9 POE por linha). Como alternativa a esse problema, utilizam-se polinômios para descrever as efemérides e atitude do sensor no intervalo de coleta da imagem, à medida que o intervalo de coleta de uma imagem é bastante curto (por exemplo, uma imagem CBERS-2B HRC com 12.246 linhas é adquirida em aproximadamente quatro segundos).

Após a discussão acerca de alguns termos relacionados à tomada de imagens por sensores de varredura linear, apresenta-se, a seguir, uma descrição do programa CBERS.

2.2 Programa CBERS

O programa CBERS nasceu de uma parceria entre o Brasil e a China com o intuito de derrubar as barreiras que impedem o desenvolvimento e a transferência de tecnologias sensíveis, impostas pelos países desenvolvidos. As imagens CBERS são utilizadas para diversas finalidades, cabendo destacar: o controle do desmatamento e queimadas na Amazônia Legal; o monitoramento de recursos hídricos, áreas agrícolas, crescimento urbano e ocupação do solo; e a geração de bases cartográficas. Além disso, é de fundamental importância em projetos nacionais estratégicos, como o PRODES, de avaliação do desflorestamento da Amazônia, e o DETER, de avaliação do desflorestamento em tempo real, entre outros (INPE, 2010).

Em um primeiro instante, o programa CBERS contemplou apenas dois satélites, o CBERS-1 e 2. No entanto, devido ao sucesso obtido, foi assinado um acordo em

(27)

2002, para a continuação do programa CBERS, com a construção de dois novos satélites, CBERS-3 e 4. Em função do lançamento do CBERS-3 ter viabilidade prevista apenas para 2009, e também devido a um possível fim de vida útil do CBERS-2 ocorrer antes de 2009, foi decidido, por ambos os países em 2004, construir o CBERS-2B e lançá-lo em 2007. O CBERS-2B esteve em operação até abril de 2010 e o CBERS-3 tem previsão para ser lançado apenas no segundo semestre de 2011 (INPE, 2010; EPIPHANIO, 2009).

Os satélites CBERS-1 e 2 possuíam os seguintes sistemas imageadores: CCD (Câmara imageadora de alta resolução, com um GSD de 20 metros e resolução temporal de 26 dias); IRMSS (Imageador por Varredura de Média Resolução com GSD de 80 metros e resolução temporal de 26 dias) e; WFI (Câmara Imageadora de Amplo Campo de Visada com um GSD de 260 metros e resolução temporal de 5 dias).

Nesses satélites a câmara CCD possuía a capacidade de orientar o campo de visada lateralmente dentro de ±32 graus, o que possibilitava a obtenção de pares estereoscópicos. Assim, era possível aplicar técnicas fotogramétricas com a finalidade de mapeamento e de geração de modelos digitais de terreno (INPE, 2010).

O satélite CBERS-2B apresentava características bastante parecidas quando comparado aos satélites CBERS-1 e 2, porém o IRMSS foi substituído pela HRC - Câmara Pancromática de Alta Resolução que apresentava um elemento de resolução no terreno (GSD) de 2,5 metros e resolução temporal de 130 dias. Outro aspecto que o diferenciava dos CBERS-1 e 2, foi a instalação de um receptor GPS e de um sensor de estrelas, com o objetivo de proporcionar as efemérides e a atitude do satélite com maior acurácia quando comparado aos sistemas dos satélites CBERS-1 e 2 (INPE, 2010). No entanto, um problema que foi enfrentado e que acarretou na qualidade do georreferenciamento das imagens CBERS-2B foi a falta sistemática de dados de atitude por parte do sensor de estrelas, que conforme Arcanjo e Ferreira (2009) apresentava forte correlação com a área de maior pronunciamento da Anomalia Magnética do Atlântico Sul.

Além destes aspectos, o satélite CBERS-2B apresentava diferenças quanto a sua operação. Isto se deu devido à presença da câmara HRC, a qual apresentava uma faixa de recobrimento de apenas 27 km. Assim como nos satélites 1 e 2, a órbita do CBERS-2B era cíclica com duração de 26 dias possibilitando o recobrimento do território compreendido entre as latitudes 80º S e 80º N com o sensor CCD, que possuía capacidade de recobrir uma faixa de 113 km. Para possibilitar o amplo imageamento com a HRC, que apresentava uma faixa de recobrimento cerca de cinco vezes inferior à área do sensor CCD, de todo o território compreendido entre as latitudes citadas anteriormente, o seguinte

(28)

procedimento foi realizado: aplicava-se uma rotação em roll (rotação em torno do eixo x – direção do movimento do satélite) variando de ± 3,2º no satélite. Para que a visada do sensor CCD se mantivesse no nadir, aplicava-se um movimento em seu espelho de visada lateral. Assim, era possível recobrir em 130 dias todo o território entre as latitudes 80ºS e 80ºN com o sensor HRC (EPHIPANIO, 2009).

Na Tabela 1 são apresentados os níveis de processamento das imagens CBERS. No site do INPE são disponibilizadas imagens no nível 2, dotadas de correções radiométrica e geométrica. Conforme Tabela 1, a correção geométrica é aplicada com o uso de dados orbitais, de informações sobre a montagem do instrumento no satélite, da geometria de visada do instrumento e de um modelo representativo da superfície terrestre. Como consequência da baixa qualidade dos dados de órbita (efemérides e principalmente atitude), a qualidade do georreferenciamento dessas imagens também é baixa (SILVA et al., 2009). Outro aspecto apontado por Silva et al. (2009) que afeta significativamente a qualidade da correção geométrica das imagens CBERS-2B HRC é a fraca geometria interna do sensor HRC.

Tabela 1: Níveis de processamento das imagens CBERS. Níveis de

Processamento

Descrição Nível 0 Imagem em estado bruto

Nível 1 Imagem com correção radiométrica (calibração e restauração do sinal transmitido)

Nível 2 Imagem do nível 1 com correção geométrica, aplicada com o uso de dados orbitais, de informações sobre a montagem do instrumento no satélite, da geometria de visada do instrumento e de um modelo representativo da superfície terrestre.

Nível 3 Imagem do nível 2 geometricamente refinada com o uso de pontos de controle

Nível 4 Imagem do nível 2 ortorretificada com o uso de um MDT (Modelo Digital do Terreno) ou MNET (Modelo Numérico de elevação do Terreno)

(29)

Portanto, para que haja uma melhor qualidade no georreferenciamento das imagens CBERS é necessário corrigir os dados de órbita (que apresentam baixa qualidade) utilizando elementos de controle no espaço objeto (pontos, retas e/ou áreas). Dentro desse contexto, torna-se de extrema relevância conhecer os sistemas de referência envolvidos neste processo, bem como as relações existentes entre eles.

2.3 Referenciais envolvidos na Fototriangulação considerando dados de órbita

Nesta seção os seguintes sistemas de referência serão abordados: Sistema de Referência da Imagem/Sensor; Sistema de Referência da Plataforma (SRP); Sistema de Referência da Órbita (SRO); Sistema de Referência Geocêntrico Inercial (SRGI); Sistema de Referência Geodésico Geocêntrico Cartesiano (SRGGC); Sistema de Referência Geodésico Cartesiano (SRGC); Sistema de Referência Geodésico Cartesiano Local (SRGCL) e; Sistema de Referência Geodésico (SRG).

2.3.1 Sistemas de Referência da Imagem/Sensor

Dentro desta categoria serão descritos o sistema de referência da imagem CL (Coluna/Linha), o sistema central da imagem, o sistema fotogramétrico e o sistema de referência do sensor (SRS).

Sistema da imagem (CL):

O sistema imagem CL está associado a uma imagem digital, a qual pode ser representada por uma matriz bidimensional (ver Figura 3) em um sistema de coordenadas Linha (L) e Coluna (C). Em geral, a origem desse sistema coincide com o centro do pixel localizado no canto superior esquerdo. O eixo L coincide com a primeira coluna da imagem e o eixo C com a primeira linha.

(30)

Figura 3: Sistema da imagem (CL).

Sistema Central da imagem:

O sistema central da imagem (ver Figura 4) é definido como segue:

 A origem coincide com o centro da imagem (intersecção entre as diagonais da imagem);

 O eixo xc tem a direção das linhas ou colunas da imagem e o sentido

que mais se aproxima do sentido de voo;

 O eixo yc é ortogonal ao eixo xc com sentido 90º anti-horário.

Figura 4: Relação entre o sistema central e o sistema CL – Imagem de quadro.

A transformação do sistema CL para o sistema central da imagem é dada por: X X c L C S x =( − ). (1) Y Y c C C S y =( − ). (2) Colunas (C) Linhas (L) L C xc yc

(31)

em que: CX e CY representam as coordenadas do centro da imagem. Para um sensor digital: 2 / ) 1 ( − = Colunas

CY e CX = Linhas( −1)/2 - Colunas e Linhas representam o número de

linhas e colunas da imagem, respectivamente e; SX e SY representam o tamanho do fotodetector.

Para o sensor de varredura linear cada linha apresenta o seu próprio sistema central, portanto, xc =0.

Sistema Fotogramétrico:

O sistema fotogramétrico é um sistema tridimensional de coordenadas com origem no CP. Os eixos xfot e yfot apresentam a mesma definição do sistema central da

imagem e; o eixo zfot completa o sistema de forma que seja dextrogiro. Na Figura 5

apresenta-se o sistema fotogramétrico considerando o plano do diapositivo.

Figura 5: Sistema Fotogramétrico (diapositivo) – Imagem de quadro.

Ao analisar a Figura 5, verifica-se que o pp (projeção do CP no plano focal do sensor) não coincide com a origem do sistema central. As coordenadas do pp no sistema central da imagem são representadas por x0 e y0.

Apresenta-se, a seguir, a transformação de coordenadas do sistema central da imagem para o sistema fotogramétrico do diapositivo.

0 x x xfot = c− (3) pp Diapositivo xc yc CP zfot yfot xfot -f

(32)

0 y y

yfot = c (4)

Em Fotogrametria, geralmente, utiliza-se o sistema fotogramétrico do diapositivo. No entanto, para representar fisicamente a tomada da imagem deve-se considerar o plano do negativo. Nesse caso, a origem do sistema fotogramétrico coincide com o CP, os eixos xfot e yfot sofrem uma reflexão em relação ao sistema anterior (diapositivo) e o eixo zfot,

é tal que, torna o sistema dextrogiro (Figura 6).

Figura 6: Sistema Fotogramétrico (negativo) – Imagem de quadro.

Apresenta-se, a seguir, a transformação de coordenadas do sistema central da imagem para o sistema fotogramétrico do negativo.

0 x x xfot = c+ (5) 0 y y yfot = c + (6)

Para o sensor de varredura linear, basta considerarxc =0.

Sistema de Referência do Sensor (SRS):

O Sistema de Referência do Sensor (SRS) é um sistema dextrogiro com origem no centro de massa do satélite (CMS). É um sistema fixo ao satélite e tem como referência o plano focal do instrumento (ver Figura 7). Assim, cada sensor possui seu próprio sistema de referência (MACHADO E SILVA, 2007).

yc xc Negativo f CP zfot yfot xfot

(33)

Figura 7: Relação entre o sistema fotogramétrico (negativo) e o sistema do sensor.

A relação entre o sistema fotogramétrico (negativo) e o sistema de referência do sensor está apresentada na Figura 7. Para tornar ambos os sistemas paralelos deve ser aplicada uma rotação em yfot de 180°. Portanto:

          ° =           f y x R z y x fot fot S S S ). 180 ( 2 (7) em que:           − − =           − = 1 0 0 0 1 0 0 0 1 ) º 180 cos( 0 ) º 180 ( 0 1 0 ) º 180 ( 0 ) º 180 cos( ) º 180 ( 2 sen sen R (8)

Na Equação (7) a origem do sistema do sensor ficou como sendo o CP, pois nenhuma translação foi aplicada. Este sistema do sensor com origem no CP será denominado de sistema de referência do sensor modificado.

2.3.2 Sistema de Referência da Plataforma (SRP)

Assim como o Sistema de Referência do Sensor (SRS), o Sistema de Referência da Plataforma (SRP) é um sistema dextrogiro com origem no CMS. No entanto, o que difere ambos os sistemas são os ângulos de boresight (bX, bY, bZ) (MACHADO E SILVA,

CP f Linha i Ys Xs zfot yfot xfot CMS XS YS ZS

(34)

2007). De acordo com Machado e Silva (2007), esses ângulos são definidos no projeto do satélite e são medidos na fase de integração. A transformação entre o SRP e SRS é dada por:

SRS Plataforma Sensor SRP Z Y X R Z Y X           =           . (9) em que:           + + + + = ) cos( ) ( cos ) ( ) ( cos -) ( sen ) ( ) ( cos ) ( cos ) ( sen ) ( sen ) cos( ) ( cos ) ( sen ) ( sen ) ( sen -) ( cos ) ( sen -) ( ) ( sen ) ( cos ) ( sen ) ( cos -) cos( ) ( sen ) ( sen ) ( sen ) ( cos ) ( cos ) ( cos X Y X Y Y X Z X Y Z X Z X Y Z Y Z X Z X Y Z X Z X Y Z Y Z Plataforma Sensor b b b sen b b b sen b b b b b b b b b b b b sen b b b b b b b b b b b R (10)

2.3.3 Sistema de Referência da Órbita (SRO)

O sistema de referência da órbita (SRO) é um sistema dextrogiro, com origem no centro de massa do satélite, e é definido pelas efemérides (posição e velocidade). Conforme a Figura 8, o eixo OZ passa pelo centro da Terra, com sentido do satélite para a Terra (contido no plano orbital); o eixo OY é perpendicular ao plano orbital, ou seja, ao eixo OZ e ao vetor velocidade do satélite, com o sentido igual ao do vetor resultante do produto vetorial do versor do eixo OZ e versor do vetor velocidade do satélite, e finalmente; o eixo OX é definido de forma a tornar o sistema dextrogiro (MACHADO E SILVA, 2007). De acordo com Jovanovic et al. (1999) o eixo OX aponta na direção comum (general direction) ao vetor velocidade do satélite, mas não é instantaneamente alinhado com ele devido à excentricidade da órbita.

Segundo Jovanovic et al. (1999) e Machado e Silva (2007), o que difere o SRO do SRP são os ângulos de atitude (rolamento – roll, arfagem – pitch e guinada – yaw), medidos pelo sistema de controle de atitude e órbita. A seguir, apresenta-se a matriz de rotação considerando os ângulos de atitude (JOVANOVIC et al., 1999; KIM e DOWMAN, 2006).

(35)

          + + + + = R cos cosP R cosP -senP R cos cosR senP sen R cos cos senR senP sen -cosP sen -R sen cosR senP cos -R cos sen senR senP cos cosP cos RÓrbita Plataforma sen sen sen

ψ

ψ

ψ

ψ

ψ

ψ

ψ

ψ

ψ

ψ

(11) em que: ψ e P

R, representam os ângulos roll, pitch e yaw, respectivamente.

Assim, tem-se que:

SRP Órbita Plataforma SRO Z Y X R Z Y X           =           . (12)

Figura 8: Sistema de Referência da Órbita (MACHADO E SILVA, 2007).

2.3.4 Sistema de Referência Geocêntrico Inercial (SRGI)

O Sistema de Referência Geocêntrico Inercial (SRGI), também denominado de Sistema de Referência Geocêntrico Celeste, é definido a partir das posições de objetos

(36)

extragalácticos (quasars – Quase Stelar Rádio Source), os quais possuem movimentos desprezíveis, quando comparados com a acurácia das medidas realizadas sobre eles, ou seja, as direções dos eixos coordenados do SRGI não apresentam rotação global com relação a esses objetos, se mantendo fixos (MONICO, 2008).

De acordo com Monico (2008), o eixo OX aponta muito próximo ao equinócio dinâmico às 12h TDB (Tempo Dinâmico Baricêntrico) em 1º de janeiro de 2000, o eixo OZ aponta para a direção do pólo de referência convencional, na mesma época, e o eixo OY completa o sistema de forma que seja dextrogiro.

Cabe ressaltar que os dados de efemérides transmitidos pelos satélites ou processados e tornados disponíveis via arquivos TLE (Two Line Elements) estão referenciados ao SRGI (MACHADO E SILVA, 2007).

De acordo com Jovanovic et al. (1999) e Machado e Silva (2007), a relação do SRO com o SRGI (ver Figura 9) se dá por meio dos dados de efemérides. Assim, tem-se que: 0 0 . SR SRGI SR SRGI Z Y X R Z Y X           =           (13)

A Equação 14 apresenta o cálculo da matriz das efemérides (WERTZ, 1978; JOVANOVIC et al., 1999; MACHADO E SILVA, 2007).

[

( ' ' ) ' ' ' '

]

sat sat sat sat sat sat SRGI SRO r v r r v r R = ∧ ∧ − ∧ − (14)

Na Equação 14, tem-se que:  Vetor posição (SRGI):

[

]

T sat sat sat sat X Y Z r = (15)  Versor do vetor posição (SRGI):

T P sat P sat P sat sat L Z L Y L X r       = ' (16) ) ( 2 2 2 s s s P X Y Z L = + + (17)

(37)

 Vetor velocidade (SRGI):

[

]

T sat sat sat sat Vx Vy Vz v = (18)  Versor do vetor velocidade (SRGI):

T V sat V sat V sat sat L Vz L Vy L Vx v       = ' (19) ) (Vx2 Vy2 Vz2 LV = + + (20)

Finalmente, tem-se que:

                  − − + − − − − + − − − − + − − = P s V P s s V P s s s s s s P s V P s s V P s s s s s s P s V P s s V P s s s s s s SRGI SRO L Z L L Vy X Y Vx L L Vx Z X X Vz Vz Y Y Z Vy L Y L L Vx Z X Vz L L Vz Z Y Z Vy Vy X X Y Vx L X L L Vz Y Z Vy L L Vy Y X Y Vx Vx Z Z X Vz R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 2 2 2 2 2 2 2 (21)

(38)

2.3.5 Sistema de Referência Geodésico Geocêntrico Cartesiano (SRGGC)

Nesta seção apresenta-se a descrição do WGS-84, por se tratar do sistema de referência adotado pelo GPS que foi utilizado no levantamento dos pontos e retas de apoio. Cabe ressaltar que o SIRGAS (Sistema de Referência Geocêntrico para as Américas), adotado pelo Sistema Geodésico Brasileiro - SGB, apresenta compatibilidade com as últimas realizações do WGS-84 (MONICO, 2008).

O WGS-84 (ver Figura 10) possui origem no centro de massa da Terra; o eixo OZ aponta para o Pólo Norte CTP (Conventional Terrestrial Pole), conforme definido pelo BIH1984; o eixo OX aponta para o meridiano origem (longitude 0°), conforme definido pelo BIH1984 e; o eixo OY completa o sistema de forma que seja dextrogiro (MONICO, 2008).

Figura 10: Sistema de Referência WGS-84 (MONICO, 2008).

Segundo Monico (2008) a transformação entre os sistemas terrestre (WGS84) e o SRGI deve ser realizada de acordo com as recomendações da IAU2000 (International Astronomical Union 2000 – União Astronômica Internacional 2000) que passaram a vigorar a partir de 2003. Para a realização dessa tarefa, são disponibilizadas sub-rotinas, em linguagem de programação Fortran e C, que compõe o SOFA (Standards of Fundamental Astronomy).

(39)

As efemérides distribuídas podem estar referenciadas tanto ao SRGI (TLE) quanto ao WGS-84 (GPS). Para o caso de estarem referenciadas ao SRGI deve-se transformá-las para o WGS-84 de acordo com as recomendações da IAU2000.

No caso de estarem referenciadas ao WGS-84, o mesmo procedimento aplicado na Seção 2.3.4, em que se calculou a transformação do SRO para o SRGI, pode ser aplicado para calcular a matriz de rotação que relaciona o WGS84 (sistema terrestre) com o SRO (JOVANOVIC et al., 1999; POLI, 2005).

                  − − + − − − − + − − − − + − − = P s V P s s V P s s s s s s P s V P s s V P s s s s s s P s V P s s V P s s s s s s Terrestre Órbita L Z L L Vy X Y Vx L L Vx Z X X Vz Vz Y Y Z Vy L Y L L Vx Z X Vz L L Vz Z Y Z Vy Vy X X Y Vx L X L L Vz Y Z Vy L L Vy Y X Y Vx Vx Z Z X Vz R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 2 2 2 2 2 2 2 (22) em que:

 XS,YSeZS são as componentes das coordenadas do satélite referenciadas ao WGS-84;  Vx,VyeVzsão as componentes da velocidade do satélite referenciadas ao WGS-84;

 ( 2 2 2) s s s P X Y Z L = + + ;  L (Vx2 Vy2 Vz2) V = + + .

Assim, tem-se que:

0 84 . SR Terrestre Órbita WGS Z Y X R Z Y X           =           (23)

2.3.6 Sistema de Referência Geodésico Cartesiano (SRGC)

Nessa seção apresenta-se a descrição do sistema de referência SAD-69 (South American Datum of 1969), por se tratar de um sistema, mesmo não geocêntrico, ainda bastante utilizado pela comunidade cartográfica brasileira. Cabe ressaltar, que as imagens

(40)

CBERS no nível 2 (com correções radiométrica e geométrica) são distribuídas em SAD-69. O Datum Sul-Americano de 1969, segundo a Resolução IBGE – R.PR – 1/2005 , de 25/2/2005, FOLHA 1/1, é definido a partir dos parâmetros:

 Figura geométrica para a Terra: Elipsóide Internacional de 1967;  Semi eixo maior a = 6.378,160 m;

 Achatamento f = 1/298,25;

 Parâmetros referentes ao posicionamento espacial do elipsóide: Orientação geocêntrica:

 Eixo de rotação paralelo ao eixo de rotação da Terra; plano meridiano origem paralelo ao plano meridiano de Greenwhich, como definido pelo BIH.

Orientação topocêntrica:

 Ponto Datum = Vértice de triângulação Chuá;  φG = 19º 45' 41,6527" S (Latitude Geodésica);

 λG = 48º 06' 04,0639" W (Longitude Geodésica);

 φA = 19º 45’ 41,34” S (Latitude Astronômica);

 λA = 48º 06’07,80” W (Longitude Astronômica);

 AG = 271° 30' 04,05" SWNE para o vértice Uberaba (Az. Geodésico);

 N = 0,0 m (Ondulação Geoidal).

Segundo MONICO(2008), a transformação do SAD-69 para o WGS-84 é dada por: m Z Y X Z Y X WGS SAD           − − +           =           − − 38,52 37 , 4 87 , 66 84 69 (24)

2.3.7 Sistema de Referência Geodésico Cartesiano Local (SRGCL)

O SRGCL, assim como o referencial geodésico cartesiano, é um sistema de coordenadas tridimensional. A Figura 11 ilustra este sistema, o qual é definido da seguinte forma:

(41)

 Origem (OL) é estabelecida sobre a normal ao elipsóide passando pela

estação de observação, e, geralmente, é considerada sobre o elipsóide, geóide ou nas imediações da superfície física;

 eixo OZL é coincidente com a normal ao elipsóide na origem;

 eixo OYL, tangente ao meridiano de origem, aponta para o norte

geodésico;

 eixo OXL é definido de forma a tornar o SRGCL um sistema dextrogiro.

Na transformação do sistema geodésico cartesiano para o sistema geodésico cartesiano local, utiliza-se um modelo baseado em rotações e translações, dado por:

          − − − ⋅ =           0 0 0 Z Z Y Y X X R Z Y X L L L L (25) em que:

 (X,Y,Z) são as coordenadas de um ponto P no referencial geodésico cartesiano;

 (XL,YL,ZL) são as coordenadas de um ponto no referencial cartesiano local;

 (

φ

0,

λ

0) são as coordenadas geodésicas da origem do sistema local;  (X0,Y0,Z0) são as coordenadas geodésicas cartesianas da origem do

sistema local. A transformação de coordenadas geodésicas para coordenadas cartesianas geodésicas se encontra na Seção 2.3.9;

 RL =⋅R1(90º−

φ

0).R3(90°+

λ

0). R3 e R2 são matrizes de rotação (Equações 26 e 27).           + + − + + = + 1 0 0 0 ) º 90 cos( ) º 90 ( 0 ) º 90 ( ) º 90 cos( ) º 90 ( 0 0 0 0 0 3

λ

λ

λ

λ

λ

sen sen R (26)           − − − − − = − ) º 90 cos( ) º 90 ( 0 ) º 90 ( ) º 90 cos( 0 0 0 1 ) º 90 ( 0 0 0 0 0 1

φ

φ

φ

φ

φ

sen sen R (27)

(42)

Equador (φ = 0) Greenwich (λ = 0) O OL YL ZL XL X Y Z

Figura 11: Referencial geodésico cartesiano local. Adaptado de Lugnani (1987).

Para realizar a transformação inversa, aplica-se:

          ⋅ +           =           − L L L L Z Y X R Z Y X Z Y X 1 0 0 0 (28)

2.3.8 Sistema de Referência Geodésico (SRG)

O referencial geodésico é definido por meio de um modelo geométrico que objetiva facilitar os cálculos e criar uma representação simplificada da Terra. O modelo geométrico adotado é um elipsóide de revolução, o qual fica definido pelos seus parâmetros f (achatamento) e a (semi-eixo maior). O referencial geodésico utiliza as coordenadas latitude geodésica )(

φ

e longitude geodésica(λ), além da altura geométrica(h) para representar a posição de um ponto sobre a superfície terrestre (MONICO, 2008).

(43)

Para realizar a transformação do sistema geodésico para o sistema cartesiano, utilizam-se as seguintes equações (MONICO, 2008):

) cos( ) cos( ) ( + ⋅

φ

λ

= N h X (29) ) sen( ) cos( ) ( + ⋅

φ

λ

= N h Y (30) ) sen( ] ) 1 ( [ 2

φ

⋅ + − ⋅ = N e h Z (31) em que:

 N é a grande normal do elipsóide passando pelo ponto de coordenadas geodésicas (

φ

,

λ

), dada por: 2 2 12

) sen 1 ( e φ a N − = ;

 a é o comprimento do semi-eixo maior do elipsóide de referência adotado;  e2 é o quadrado da primeira excentricidade do elipsóide, dado por

2 2 2 f f e = ⋅ − ;

 f é o valor do achatamento do elipsóide de referência adotado.

Após a descrição dos sistemas de referências envolvidos no processo de Fototriangulação considerando os dados de órbita, apresenta-se, a seguir, os modelos matemáticos para realizar a Fototriangulação de imagens orbitais.

2.4 Fototriangulação de imagens orbitais

Tradicionalmente, Fototriangulação é definida como sendo um método fotogramétrico no qual se determina as coordenadas dos pontos no espaço objeto (pontos fotogramétricos) por meio da relação geométrica de fotos adjacentes devidamente tomadas, de um esparso controle de campo e de um conjunto de valores aproximados de parâmetros (LUGNANI, 1987).

À medida que se considera os pontos fotogramétricos, há uma redução significativa da quantidade de pontos a serem levantados em campo, o que torna o mapeamento fotogramétrico mais viável economicamente. Por exemplo, para um modelo

Referências

Documentos relacionados

Outros avanços oriundos da indução das políticas nacionais merecem destaque, como: ampliação da oferta de serviços e produtos da fitoterapia na rede pública; instituição de

A psicanálise foi acusada de normatizadora (FOUCAULT, 1996) por haver mantido o modelo familiar burguês nuclear como o centro de sua teoria como é manifestado

Como cada município teve a APAA quantificada de forma absoluta (em hectares) e relativa (em porcentagem da área do município), para testar a adequação desta

como a gente enfatiza muito a prática, dentro, NE, da sala de aula, eu acho que a arte ela vem complementar todas as matérias, né, porque através desse projeto a gente pode fazer

Assim, a presente pesquisa objetiva apresentar uma proposta voltada à re- ferida zona de esperança, que pressuponha o uso correto dos direitos do homem, a partir de uma

to values observed in mussels exposed to contaminated seawater (conditions A, B, C) (Figure 426.. 4B,