universidade estadual paulista - :: unesp : campus de ... · aos amigos nilcilene medeiros,...

120
UNIVERSIDADE ESTADUAL PAULISTA CAMPUS DE PRESIDENTE PRUDENTE FACULDADE DE CIÊNCIAS E TECNOLOGIA Programa de Pós-Graduação em Ciências Cartográficas JOSÉ MARCATO JUNIOR FOTOTRIANGULAÇÃO EM BLOCO DE IMAGENS ORBITAIS COM MODELOS RIGOROSOS BASEADOS EM PONTOS E RETAS Presidente Prudente 2011

Upload: vuongkhanh

Post on 14-Oct-2018

215 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDADE ESTADUAL PAULISTA CAMPUS DE PRESIDENTE PRUDENTE

FACULDADE DE CIÊNCIAS E TECNOLOGIA

Programa de Pós-Graduação em Ciências Cartográficas

JOSÉ MARCATO JUNIOR

FOTOTRIANGULAÇÃO EM BLOCO DE IMAGENS ORBITAIS COM

MODELOS RIGOROSOS BASEADOS EM PONTOS E RETAS

Presidente Prudente 2011

UNIVERSIDADE ESTADUAL PAULISTA CAMPUS DE PRESIDENTE PRUDENTE

FACULDADE DE CIÊNCIAS E TECNOLOGIA

Programa de Pós-Graduação em Ciências Cartográficas

JOSÉ MARCATO JUNIOR

FOTOTRIANGULAÇÃO EM BLOCO DE IMAGENS ORBITAIS COM

MODELOS RIGOROSOS BASEADOS EM PONTOS E RETAS

Dissertação de mestrado apresentada ao

Programa de Pós-Graduação em Ciências

Cartográficas, da Faculdade de Ciências e

Tecnologia - UNESP campus de Presidente

Prudente.

Orientador: Prof. Dr. Antonio M. G. Tommaselli

Presidente Prudente 2011

Marcato Junior, José.

M262f Fototriangulação em bloco de imagens orbitais com modelos rigorosos baseados em pontos e retas / José Marcato Junior. - Presidente Prudente : [s.n], 2011

119 f. Orientador: Antonio Maria Garcia Tommaselli Dissertação (mestrado) - Universidade Estadual Paulista,

Faculdade de Ciências e Tecnologia Inclui bibliografia 1. Fotogrametria. 2. Fototriangulação. 3. Imagens Orbitais. I.

Tommaselli, Antonio Maria Garcia. II. Universidade Estadual Paulista. Faculdade de Ciências e Tecnologia. III. Título.

CDD 623.72

Ficha catalográfica elaborada pela Seção Técnica de Aquisição e Tratamento da Informação – Serviço

Técnico de Biblioteca e Documentação - UNESP, Câmpus de Presidente Prudente.

DEDICATÓRIA

A Deus.

Aos meus pais José Marcato e Eliane, pelo

amor incondicional, exemplo de vida e

incentivo.

À minha amada irmã, parceira de todos os

momentos.

Aos meus tios e padrinhos Pedro e Maria, por

todo carinho e incentivo.

Ao meu grande amor e futura esposa Daniela,

pelo amor e compreensão.

Família é tudo.

AGRADECIMENTOS

Ao professor Dr. Antonio Maria Garcia Tommaselli, pela imprescindível orientação e pelos

ensinamentos, que transcenderam o campo científico, passados neste longo período de

parceria.

Aos amigos Nilcilene Medeiros, predecessora na pesquisa do tema tratado neste trabalho,

Raquel Oliveira e Marcus Moraes que tanto me ajudaram, sobretudo nos dias ensolarados de

levantamento de campo.

Aos companheiros de grupo de pesquisa Roberto Ruy, Renzo Petri, Carlos Rodrigo e Vander

Freitas pelo companheirismo e auxílio prestado no desenvolvimento deste trabalho.

Aos professores do Departamento de Cartografia da FCT/UNESP, em especial aos

professores Aluir Porfírio Dal Poz e Maurício Galo que contribuíram significativamente para

o desenvolvimento deste trabalho.

Ao Dr. Antonio José Ferreira Machado e Silva por disponibilizar prontamente os dados

técnicos do sensor HRC.

Aos amigos do PPGCC, pelos bons momentos de convivência e trocas de experiência,

incluindo as confraternizações e as partidas de futsal.

Ao INPE por ceder as imagens do sensor CBERS-2B HRC utilizadas neste trabalho.

À UNESP, por proporcionar todos os meios para o desenvolvimento deste trabalho.

À FAPESP e à CAPES, pelo financiamento prestado a esta pesquisa.

EPÍGRAFE

"Saber que sabemos o que sabemos, e saber que não sabemos o que não sabemos, isso é conhecimento verdadeiro." Nicolau Copérnico

RESUMO A partir da década de 1970, com o início dos programas espaciais civis para fins de sensoriamento remoto, foi possível observar, fotografar e analisar a Terra a partir de dados gerados por plataformas orbitais. Atualmente, embora os sistemas orbitais sejam equipados com sensores de orientação direta (GNSS, giroscópios, sensores de estrelas, dentre outros), nem sempre as imagens corrigidas a partir dos dados (efemérides e atitude) provenientes destes sensores apresentam a acurácia requerida para certas aplicações. Para solucionar este problema é necessário orientar indiretamente estas imagens com elementos de controle no espaço objeto (pontos, retas e/ou áreas) ou corrigir os parâmetros orbitais a partir destes elementos de controle. O objetivo principal deste trabalho consiste em estudar, adaptar e avaliar experimentalmente modelos matemáticos rigorosos para a Fototriangulação de imagens orbitais utilizando pontos e retas como controle de campo. Os modelos matemáticos que relacionam os espaços objeto e imagem se baseiam nas condições de colinearidade (pontos) e coplanaridade (retas). Estes modelos foram implementados no programa TMS, seguindo a abordagem de triangulação multissensor com controle multi-feições. As entidades do espaço objeto (pontos e retas) foram levantadas em campo com o uso de um receptor GNSS de dupla frequência. Foram realizados experimentos com dados simulados e reais referentes ao sensor CBERS-2B HRC. Nos casos estudados, não houve melhora significativa nos resultados ao aplicar a Fototriangulação em bloco, quando comparado à orientação individual das imagens. Verificou-se também que a combinação dos modelos de colinearidade (pontos) e coplanaridade (retas) proporcionam uma melhora significativa nos resultados da Fototriangulação. Além disso, verificou-se a importância em usar as informações de órbita, à medida que possibilita aplicar a Fototriangulação com um número reduzido de pontos de apoio. Palavras-chave: Fotogrametria, Fototriangulação, Imagens orbitais, CBERS.

ABSTRACT

Earth observation and analysis became feasible since the 70s with the civil spatial programs for remote sensing purpose. Nowadays, orbital imaging systems are equipped with direct orientation sensors. However, the images corrected using the orientation data (ephemeris and attitude) provided by these sensors are not always suitable for applications that require high metric accuracy. As a consequence, it is necessary to estimate indirectly the orientation elements of these images using ground control elements in the object space (points, lines and area), or to correct the orbital parameters using these control elements. The aim of this work is to study, adapt and experimentally assess rigorous bundle block adjustment models for orbital imagery using points and lines as control elements. The mathematical models relating object and image spaces are based on collinearity (points) and coplanarity (lines) conditions. The models were implemented in the in-house developed software TMS (Triangulation with Multiple Sensors), considering the multissensor triangulation with multifeatures control (points and lines) approach. The object space entities were surveyed with a dual-frequency GNSS receiver. Experiments with simulated and real data from the CBERS-2B HRC sensor were accomplished. The results showed that applying the bundle block adjustment instead of the single image orientation did not lead to significant accuracy improvements. It was also verified that the combination of collinearity and coplanarity models provided better results in the bundle block adjustment. Besides that, the importance of using orbital data in the bundle block adjustment was verified, providing solution with few ground control points. Keywords: Photogrammetry, Triangulation, Orbital images, CBERS.

LISTA DE FIGURAS

Figura 1: Relação entre o FOV, IFOV, GIFOV, distância do sensor ao objeto (H) e ângulo off- nadir (Q) (POLI, 2005). ........................................................................................................... 23

Figura 2: Modelo de sensor (a) câmara de quadro e (b) câmara de varredura linear (MIKHAIL et al., 2001). .............................................................................................................................. 24

Figura 3: Sistema da imagem (CL). ......................................................................................... 29

Figura 4: Relação entre o sistema central e o sistema CL – Imagem de quadro. ..................... 29

Figura 5: Sistema Fotogramétrico (diapositivo) – Imagem de quadro. .................................... 30

Figura 6: Sistema Fotogramétrico (negativo) – Imagem de quadro. ........................................ 31

Figura 7: Relação entre o sistema fotogramétrico (negativo) e o sistema do sensor. .............. 32

Figura 8: Sistema de Referência da Órbita (MACHADO E SILVA, 2007). ........................... 34

Figura 9: Relação entre o SRO e SRGI (MACHADO E SILVA, 2007).................................. 36

Figura 10: Sistema de Referência WGS-84 (MONICO, 2008). ............................................... 37

Figura 11: Referencial geodésico cartesiano local. Adaptado de Lugnani (1987). .................. 41

Figura 12: Representação da condição de colinearidade para o sensor de varredura linear. ... 45

Figura 13: O efeito de pequenas variações nos parâmetros de orientação exterior para imagens de quadro e pushbroom. Fonte: Adaptado de Orun e Natarajan (1994). .................................. 47

Figura 14: Geometria do Sensor de varredura linear (modelo orbital). Adaptado de Kim e Dowman (2006). ....................................................................................................................... 50

Figura 15: Condição de coplanaridade entre o vetor de visada e o plano de projeção no espaço objeto. ....................................................................................................................................... 51

Figura 16: Padrão da matriz A (derivadas com relação aos parâmetros). ................................ 62

Figura 17: Padrão da matriz N do ajustamento. ....................................................................... 62

Figura 18: Representação do processo de geração de dados simulados para o modelo de Coplanaridade com retas. ......................................................................................................... 65

Figura 19: Estrutura de funcionamento do programa TMS. Adaptado de Ruy (2008). ........... 67

Figura 20: Condição de colinearidade aplicada às retas de controle (rodovias). ..................... 69

Figura 21: Imagem CBERS-2B HRC (a) Histograma da imagem; (b) Definição do ponto na imagem original (c) e na imagem com ampliação do contraste. .............................................. 69

Figura 22: Conjunto de Pontos de apoio total (40) e pontos de verificação (22) – Simulação.73

Figura 23: Conjunto de Pontos de apoio reduzido (12) e pontos de verificação (22) – Simulação. ................................................................................................................................ 74

Figura 24: Médias do EMQ (m) (para 40 repetições) nos pontos de verificação considerando um erro aleatório de 1,5 pixel (Teste 1) – Imagem 1. .............................................................. 75

Figura 25: Média do EMQ (m) nos pontos de verificação considerando um erro aleatório de 1,5 pixel (Teste 1) – Imagem 2. ................................................................................................ 76

Figura 26: Média do EMQ (m) nos pontos de verificação para o Teste 2 (2,5 pixel) - Imagem 1. ............................................................................................................................................... 77

Figura 27: Média do EMQ (m) nos pontos de verificação para o Teste 2 (2,5 pixel) - Imagem 2. ............................................................................................................................................... 77

Figura 28: Configuração das retas de controle (44). ................................................................ 79

Figura 29: EMQ (m) nos pontos de verificação – Teste 1 (a) Imagem 1; (b) Imagem 2. ........ 79

Figura 30: EMQ (m) nos pontos de verificação – Teste 2 (a) Imagem 1; (b) Imagem 2. ........ 80

Figura 31: Configuração do bloco de imagens CBERS-2B HRC. ........................................... 81

Figura 32: Configuração dos pontos de apoio (54) e verificação (14). .................................... 83

Figura 33: Configuração das retas de apoio (84). ..................................................................... 83

Figura 34: EMQ (m) nos pontos de verificação (a) Imagem 1; (b) Imagem 2; (c) Imagem 3 e (d) Imagem 4. ........................................................................................................................... 85

Figura 35: Distribuição dos 23 pontos de apoio. ...................................................................... 86

Figura 36: EMQ(m) nos pontos de verificação – Experimentos com 18 pontos de apoio. ...... 86

Figura 37: Distribuição dos 14 pontos de apoio (7 PA por imagem). ...................................... 87

Figura 38: EMQ nos pontos de verificação – Experimentos com 7 pontos de apoio. ............. 87

Figura 39: Distribuição dos 11 pontos de apoio (5 PA por imagem). ...................................... 88

Figura 40: EMQ (m) nos pontos de verificação – Experimento D com 5 pontos de apoio. .... 89

Figura 41: EMQ (m) nos pontos de verificação considerando 5 PAs e 84 RAs. ..................... 89

Figura 42: Descrição do plano focal do sensor HRC. Fonte: Epiphanio (2009). ..................... 91

LISTA DE TABELAS

Tabela 1: Níveis de processamento das imagens CBERS. ....................................................... 27

Tabela 2: Ordem das matrizes A e N para o caso hipotético. ................................................... 61

Tabela 3: Características técnicas do sensor HRC. .................................................................. 72

Tabela 4: Descrição dos experimentos com dados simulados – Modelo de Colinearidade. .... 72

Tabela 5: Desvio-padrão para cada parâmetro de orientação exterior. .................................... 74

Tabela 7: Configuração dos experimentos com dados reais..................................................... 82

Tabela 8: Teste de hipótese qui-quadrado para os experimentos com dados reais – Conjunto total de pontos e retas de apoio. ................................................................................................ 84

Tabela 9: EMQ nos pontos de apoio considerando diferentes configurações de dados. .......... 92

Tabela B.1: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 1) – 40 pontos de apoio. ...................................................................................................................................... 110

Tabela B.2: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 1) – 40 pontos de apoio. ...................................................................................................................... 110

Tabela B.3: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 1) – 12 pontos de apoio. ...................................................................................................................................... 111

Tabela B.4: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 1) – 12 pontos de apoio. ...................................................................................................................... 111

Tabela B.5: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 1) – 40 pontos de apoio. ...................................................................................................................................... 112

Tabela B.6: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 1) – 40 pontos de apoio. ...................................................................................................................... 112

Tabela B.7: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 1) – 12 pontos de apoio. ...................................................................................................................................... 113

Tabela B.8: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 1) – 12 pontos de apoio. ...................................................................................................................... 113

Tabela B.9: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 2) – 40 pontos de apoio. ...................................................................................................................................... 114

Tabela B.10: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 2) – 40 pontos de apoio. ...................................................................................................................... 114

Tabela B.11: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 2) – 12 pontos de apoio. ...................................................................................................................................... 115

Tabela B.12: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 2) – 12 pontos de apoio. ...................................................................................................................... 115

Tabela B.13: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 2) – 40 pontos de apoio. ...................................................................................................................................... 116

Tabela B.14: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 2) – 40 pontos de apoio. ...................................................................................................................... 116

Tabela B.15: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 2) – 12 pontos de apoio. ...................................................................................................................................... 117

Tabela B.16: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 2) – 12 pontos de apoio. ...................................................................................................................... 117

LISTA DE QUADROS

Quadro1: Ângulos de boresight (º) da câmara HRC - CBERS-2B. ......................................... 63

Quadro 2: Data de coleta das imagens CBERS-2B HRC. ........................................................ 81

Quadro C.1: Arquivo de projeto. ............................................................................................ 118

Quadro C.2: Arquivo de orientação interior. .......................................................................... 118

Quadro C.3: Arquivo de orientação exterior das quatro imagens – Modelo com 12 POE. ... 118

Quadro C.4: Arquivo com as coordenadas de alguns pontos e retas de apoio. ...................... 119

Quadro C.5: Arquivo com as observações de alguns pontos e retas. ..................................... 119

LISTA DE ABREVIATURAS E SIGLAS

ASP: American Society of Photogrammetry (Sociedade Americana de Fotogrametria)

B/H: Base/Altura

CBERS: China-Brazil Earth Resources Satellite (Satélite Sino-Brasileiro de Recursos

Terrestres)

CCD: Charge Coupled Device (Dispositivo de carga acoplada)

CMS: Centro de Massa do Satélite

CP: Centro Perspectivo

CPEq: Calibração com o modelo dos Planos Equivalentes

CTP: Conventional Terrestrial Pole (Polo Terrestre Convencional)

DETER: Detecção de Desmatamento em Tempo Real

DLT: Direct Linear Transformation (Transformação Linear Direta)

EIFOV: Effective Instantaneous Field of View (Campo de visada instantâneo efetivo)

FOV: Field of View (Campo de Visada)

GEIFOV: Ground Effective Instantaneous Field of View (Campo de visada instantâneo

efetivo no terreno)

GIFOV: Ground Instantaneous Field of View (Campo de visada instantâneo no terreno)

HRC: High Resolution Camera (Câmara de Alta Resolução)

IAU2000: International Astronomical Union 2000 (União Astronômica Internacional 2000)

IBGE: Instituto Brasileiro de Geografia e Estatística

INPE: Instituto Nacional de Pesquisas Espaciais

IFOV: Instantaneous Field of View (Campo de visada instantâneo)

IRMSS: Infrared Multispectral Scanner

GNSS: Global Navigation Satellite System (Sistema global de navegação por satélite)

GPS: Global Positioning System (Sistema global de posicionamento)

GSD: Ground Sample Distance (Elemento de resolução no terreno)

LPS: Leica Photogrammetry Suite

MCP: Modelo de Colinearidade com Pontos

MCPO: Modelo de Colinearidade com Pontos considerando dados de Órbita

MCR: Modelo de Coplanaridade com Retas

MCRO: Modelo de Coplanaridade com Retas considerando dados de Órbita

MDE: Modelo Digital de Elevação

MMQ: Método dos Mínimos Quadrados

PA: Ponto de Apoio

PAA: Ponto de Apoio Altimétrico

PF: Ponto Fotogramétrico

POE: Parâmetros de Orientação Exterior

POI: Parâmetros de Orientação Interior

pp: Ponto Principal

PPP: Posicionamento por Ponto Preciso

PRODES: Programa de Monitoramento do Deflorestamento da Amazônia Legal

RA: Reta de Apoio

RBMC: Rede Brasileira de Monitoramento Contínuo

RPF: Rational Polinomial Function (Função Polinomial Racional)

SAD 69: South American Datum of 1967 (Datum Sul-americano de 1967)

SIRGAS: Sistema de Referência Geocêntrico para as Américas

SGB: Sistema Geodésico Brasileiro

SOFA: Standards of Fundamental Astronomy

SRGCL: Sistema de Referência Cartesiano Local

SRGI: Sistema de Referência Geocêntrico Inercial

SRG: Sistema de Referência Geodésico

SRGC: Sistema de Referência Geodésico Cartesiano

SRGGC: Sistema de Referência Geodésico Geocêntrico Cartesiano

SRO: Sistema de Referência da Órbita

SRP: Sistema de referência da Plataforma

SRS: Sistema de Referência do Sensor

TDB: Tempo Dinâmico Baricêntrico

TLE: Two Line Elements

TMC: Triangulação Multi-câmaras

TMS: Triangulação MultiSsensor

UTM: Universal Transversa de Mercator

WFI: Wide Field Imager (Câmara Imageadora de Amplo Campo de Visada)

WGS-84: World Geodetic System of 1984 (Sistema Geodésico Global de 1984)

SUMÁRIO

1. INTRODUÇÃO .................................................................................................................... 17

1.1 Considerações Gerais ..................................................................................................... 17

1.2 Contextualização da pesquisa ......................................................................................... 20

1.3 Objetivos da Pesquisa ..................................................................................................... 21

2. REVISÃO BIBLIOGRÁFICA ............................................................................................. 22

2.1 Geometria do sensor de varredura linear (pushbroom) .................................................. 22

2.1.1 Modelo de sensor ..................................................................................................... 23

2.1.2 Modelo de plataforma .............................................................................................. 25

2.2 Programa CBERS ........................................................................................................... 25

2.3 Referenciais envolvidos na Fototriangulação considerando dados de órbita ................. 28

2.3.1 Sistemas de Referência da Imagem/Sensor ............................................................. 28

2.3.2 Sistema de Referência da Plataforma (SRP) ........................................................... 32

2.3.3 Sistema de Referência da Órbita (SRO) .................................................................. 33

2.3.4 Sistema de Referência Geocêntrico Inercial (SRGI) ............................................... 34

2.3.5 Sistema de Referência Geodésico Geocêntrico Cartesiano (SRGGC) .................... 37

2.3.6 Sistema de Referência Geodésico Cartesiano (SRGC) ........................................... 38

2.3.7 Sistema de Referência Geodésico Cartesiano Local (SRGCL) ............................... 39

2.3.8 Sistema de Referência Geodésico (SRG) ................................................................ 41

2.4 Fototriangulação de imagens orbitais ............................................................................. 42

2.4.1 Modelo de Colinearidade adaptado para a geometria de varredura linear .............. 43

2.4.2 Modelo de Colinearidade adaptado para a geometria de varredura linear considerando dados de órbita ........................................................................................... 48

2.4.3 Modelo de Coplanaridade com retas adaptado para a geometria de varredura linear .......................................................................................................................................... 50

2.4.4 Modelo de Coplanaridade com retas adaptado para a geometria de varredura linear considerando dados de órbita ........................................................................................... 52

2.5 Triangulação Multissensor com controle multi-feições ................................................. 52

3. MATERIAIS E MÉTODOS ................................................................................................. 54

3.1 Materiais ......................................................................................................................... 54

3.2 Métodos .......................................................................................................................... 54

3.2.1 Estudo teórico .......................................................................................................... 55

3.2.1.1 Modelos matemáticos para a Fototriangulação de imagens orbitais ................ 55

3.2.1.2 Estimação dos parâmetros pelo MMQ ............................................................. 58

3.2.2 Desenvolvimento de aplicativos .............................................................................. 63

3.2.3 Experimentação ....................................................................................................... 68

4. EXPERIMENTOS E RESULTADOS ................................................................................. 71

4.1 Experimentos com a câmara HRC: Dados simulados .................................................... 71

4.2 Experimentos com a câmara HRC: Dados reais ............................................................. 80

4.2.1 Discussão dos experimentos com dados reais ......................................................... 90

5. CONCLUSÕES .................................................................................................................... 93

5.1 CONSIDERAÇÕES FINAIS ......................................................................................... 93

5.2 SUGESTÕES PARA TRABALHOS FUTUROS .......................................................... 95

REFERÊNCIAS ....................................................................................................................... 97

APÊNDICE A ........................................................................................................................ 103

APÊNDICE B ......................................................................................................................... 109

APÊNDICE C ......................................................................................................................... 118

17

1. INTRODUÇÃO

1.1 Considerações Gerais

De acordo com Thompson e Gruner (1980), Fotogrametria,

tradicionalmente, é definida como ciência e arte de obter medidas confiáveis por meio de

fotografias. Com o início dos programas espaciais e com a criação de novos tipos de sensores,

na década de 1970, uma definição mais abrangente de Fotogrametria foi proposta pela ASP

(American Society of Photogrammetry – Sociedade Americana de Fotogrametria) em 1979:

Fotogrametria é a arte, ciência e tecnologia de obtenção de informações confiáveis sobre objetos físicos e o meio ambiente através de processos de gravação, medição e interpretação de imagens fotográficas e padrões de energia eletromagnética radiante e outras fontes (THOMPSON e GRUNER, 1980, p. 1, tradução nossa).

Desde o surgimento dos programas espaciais houve um grande

desenvolvimento de novas tecnologias, que permitiram a construção de múltiplos sensores de

imageamento, com alta resolução espacial, temporal, espectral e radiométrica. O Brasil faz

parte do grupo de países detentores desta tecnologia espacial, com o programa CBERS

(China-Brazil Earth Resources Satellite), que se diferencia dos demais sistemas por prover as

imagens gratuitamente aos usuários.

Atualmente, embora os satélites de alta resolução sejam equipados com

sensores de orientação direta (GNSS, giroscópios, sensores de estrelas, dentre outros), nem

sempre as imagens corrigidas a partir das informações (efemérides e atitude) provenientes

destes sensores apresentam a acurácia requerida por certas aplicações, como, por exemplo, no

mapeamento em escala grande. Assim, surgem duas possibilidades para alcançar a acurácia

desejada: (1) orientar indiretamente essas imagens utilizando elementos de controle no espaço

objeto (pontos, retas e/ou áreas) (TOUTIN e ROCHON, 1986; DEREN e JIAYU, 1988;

ORUN e NATARAJAN, 1994; TOMMASELLI e MEDEIROS, 2010) ou; (2) corrigir os

parâmetros que definem a órbita por meio desses elementos de controle (RADHADEVI et al.,

1998; HABIB et al., 2001; TOUTIN, 2003; KIM e DOWMAN, 2006; JACOBSEN, 2007).

Os modelos para o georreferenciamento de imagens coletadas por sensores

de varredura linear (pushbroom), presentes em sistemas orbitais, podem ser divididos,

18

genericamente, em dois grupos: os modelos rigorosos (ou físicos), que são baseados em

parâmetros físicos e; os modelos generalizados (KIM e DOWMAN, 2006), também chamados

de empíricos (TOUTIN, 2004) ou genéricos (KOCAMAN, 2008), que não descrevem

fisicamente a tomada da imagem, como as funções racionais (RPF- Rational Polinomial

Function), a transformação linear direta (DLT – Direct Linear Transformation), a projeção

paralela, a transformação afim 3D, entre outros. Segundo Jacobsen (2007) os modelos

rigorosos, quando comparados aos modelos generalizados, proporcionam melhores resultados

no processo de orientação com menor número de pontos de apoio e também apresentam maior

flexibilidade na distribuição destes pontos.

O processo de orientação de imagens de varredura linear com o uso de

modelos rigorosos pode ser aplicado considerando apenas uma imagem ou um bloco de

imagens (Ajuste em Bloco – Fototriangulação em bloco). Existem algumas vantagens em

aplicar a Fototriangulação em bloco ao invés da orientação individual (TOUTIN, 2003):

� redução do número de pontos de apoio à medida que há a

possibilidade de utilizar pontos fotogramétricos na área de

sobreposição das imagens;

� obtenção de uma melhor acurácia relativa entre as imagens;

� geração de um Modelo Digital de Elevação (MDE) homogêneo

desde que o bloco tenha uma completa cobertura estereoscópica;

� obtenção de um orto-mosaico de grandes áreas mais homogêneo e

acurado.

Atualmente, existem diversos tipos de sensores, cabendo destacar: o sensor

de quadro (frame), o sensor de varredura linear (pushbroom), o sensor de varredura a laser e o

sensor de varredura mecânica. Surge assim, a triangulação multissensor, que pode ser

entendida como uma técnica flexível, capaz de processar os diferentes modelos de sensores,

isolada ou simultaneamente (SHIN et al., 2007; ROSE e FRADKIN, 2007). Alguns sistemas

fotogramétricos comerciais exploram esta técnica, mas utilizando apenas pontos como

elementos de projeção por meio das equações de colinearidade. Não foram incorporados

modelos baseados em feições lineares em nenhum destes sistemas, embora esta possibilidade

já esteja em desenvolvimento no ambiente acadêmico (TOMMASELLI e TOZZI, 1996; LEE

et al, 2000; HABIB et al., 2000; TOMMASELLI e MEDEIROS, 2010).

Existem diversas vantagens que motivam o uso de feições lineares em

atividades fotogramétricas, cabendo destacar: a extração de feições lineares é mais fácil

quando comparada à extração de pontos, o que ocorre devido à natureza das feições lineares,

19

pois, representam descontinuidades em tons de cinza em uma direção, ao passo que os pontos

representam descontinuidades em todas as direções; as feições lineares na imagem podem ser

extraídas com precisão sub-pixel ao longo da direção do gradiente; as imagens de ambientes

antrópicos possuem uma grande quantidade de feições lineares e; as feições lineares

aumentam a redundância e proporcionam uma melhoria na geometria, contribuindo nas

atividades que envolvem ajustamento em Fotogrametria (TOMMASELLI e TOZZI, 1996;

LEE et al., 2000; HABIB et al., 2002).

Neste contexto, torna-se de grande relevância realizar um estudo sobre

métodos de Fototriangulação em bloco de imagens orbitais com modelos rigorosos,

considerando a abordagem multissensor, usando pontos e retas como controle de campo.

No Brasil, os modelos rigorosos, embora propiciem soluções mais acuradas,

são frequentemente evitados em favor dos modelos generalizados (DLT, RPF, Afim 3D,

dentre outros), mesmo em casos onde se conhece a priori os parâmetros de aquisição do

sistema, devido, provavelmente, à facilidade de implementação dos modelos generalizados

(CRUZ et al., 2005; DAL POZ e SCALCO, 2006; DEBIASI et al., 2007; RODRIGUES et al.,

2009).

Com relação ao modelo RPF, popularizado com o advento dos sensores de

alta resolução espacial, existem duas formas para estimar os coeficientes das funções

racionais: (1) estimação dos coeficientes utilizando pontos de apoio (terrain dependent); (2)

estimação dos coeficientes a partir de uma grade 3D de pontos gerada com o uso do modelo

físico da câmara considerando um número de planos de elevação constante, como apresentado

por Grodecki (2001). Os coeficientes distribuídos pelas empresas ou agências são gerados

através dessa segunda alternativa, com o uso, portanto, de modelos rigorosos, como aquele

baseado na condição de colinearidade.

Rodrigues et al. (2009) utilizaram o modelo das funções racionais de

primeiro grau baseado em pontos de apoio (terrain dependent) para ortorretificar uma

imagem coletada pelo sensor HRC (High Resolution Camera) do CBERS-2B. Em alguns

pontos de verificação as discrepâncias foram maiores que 50 metros. Jacobsen (2007)

realizou experimentos com imagens IKONOS utilizando o modelo de funções racionais, com

coeficientes determinados indiretamente com base em pontos de apoio (terrain dependent), e

verificou que os resultados proporcionados por este modelo não podem ser controlados e,

portanto, o seu uso deve ser evitado. Através da análise dos resultados, Jacobsen (2007) notou

que, em pontos de verificação localizados fora do intervalo de variação de altitude dos pontos

de apoio, as discrepâncias podem atingir 500 metros.

20

1.2 Contextualização da pesquisa

Tommaselli e Telles (2006) desenvolveram um modelo matemático para

calibração de câmaras digitais que usa feições retas, baseado no modelo dos planos

equivalentes, com estimação dos parâmetros pelo método combinado. Este modelo foi

implementado em linguagem C++, dando origem ao programa de calibração CPEq

(Calibração com o modelo dos Planos Equivalentes). Cabe ressaltar, que no programa CPEq,

além do modelo de retas, foi implementado o método convencional que usa as equações de

colinearidade (modelo com pontos), de modo a permitir a calibração com pontos e retas.

Neste sentido, Marcato Junior et al. (2007) realizaram um estudo

comparativo entre os métodos de calibração que utilizam pontos e retas como controle, e

verificaram a viabilidade em se utilizar o modelo baseado em retas na pré-calibração de

câmaras digitais de quadro.

A partir desse estudo, verificou-se, também, que o programa CPEq

apresentava algumas peculiaridades, tais como: realizava a calibração de apenas uma câmara;

realizava o ajustamento sem aproveitar a natureza esparsa e simétrica da matriz normal;

invertia a matriz normal na solução do sistema de equações normais, o que implicava em um

número excessivo de operações, limitando, também, o número de imagens e de pontos e; não

permitia o uso de pontos e retas como fotogramétricos, ou seja, pontos e retas que não fossem

controle de campo.

Assim, resolveu-se iniciar em 2007 o desenvolvimento de outro programa

de Fototriangulação com parâmetros adicionais (TMC – Triangulação Multi-Câmaras), com

características mais otimizadas, para permitir o processamento de grandes blocos de imagens,

o que não era possível no programa CPEq. Este programa usa partes do programa CPEq, mas

tem como característica principal a possibilidade de calibrar múltiplas câmaras

simultaneamente utilizando o método convencional que usa as equações de colinearidade. O

desenvolvimento desse programa foi realizado em conjunto por Ruy (2008), Marcato Junior et

al. (2008) e Bazan (2008).

A orientação (individual) indireta de imagens orbitais foi um tema tratado

por Medeiros e Tommaselli (2007), em que foram estudados dois modelos rigorosos para

orientação de imagens pushbroom orbitais usando linhas retas como controle de campo. No

caso estudado, foram utilizados eixos de rodovias levantados em campo, para orientar as

imagens. Os experimentos foram realizados com imagens coletadas pelo sensor CBERS-2

21

CCD, obtendo-se uma exatidão ao redor de 30 m (1,5 GSD) nos pontos de verificação

reconstruídos, o que pode ser considerado um excelente resultado. Este projeto mostrou a

viabilidade de utilizar retas para orientar imagens de varredura linear (pushbroom), como,

aliás, já mostravam outros trabalhos similares (HABIB et al, 2000; SHIN et al, 2007). Neste

trabalho foi utilizado como base para comparação o modelo de colinearidade modificado para

a geometria do sensor de varredura linear (pushbroom).

Marcato Junior et al. (2009) incorporaram ao TMC o modelo de

colinearidade, adaptado para a geometria pushbroom (MEDEIROS e TOMMASELLI, 2007),

dando origem ao programa TMS (Triangulação MultiSsensor), permitindo, assim, realizar a

Fototriangulação em bloco de imagens de quadro e de varredura linear, isolada ou

simultaneamente, com o modelo de colinearidade (modelo de pontos).

Diante do exposto, surge, então, o interesse em realizar a Fototriangulação

em bloco de imagens orbitais usando pontos e retas como controle de campo. Outro aspecto a

ser investigado é o ajuste simultâneo com pontos e retas de apoio. Por fim, há também o

interesse de avaliar o uso de informações de órbita na Fototriangulação.

Dentro deste contexto, apresenta-se a seguir os objetivos desta pesquisa.

1.3 Objetivos da Pesquisa

O objetivo principal deste trabalho consiste em estudar, adaptar e avaliar

experimentalmente modelos matemáticos de Fototriangulação em bloco de imagens orbitais.

Como objetivos específicos, têm-se:

� avaliar a importância em considerar as informações de órbita na

Fototriangulação;

� verificar se há vantagens em aplicar a Fototriangulação em bloco

com relação à orientação individual para imagens CBERS-2B HRC;

� comparar o modelo de coplanaridade (retas) com o modelo de

colinearidade (pontos);

� analisar os benefícios existentes em combinar pontos e retas de

controle na Fototriangulação;

� implementar os modelos matemáticos no programa TMS seguindo a

abordagem de triangulação multissensor com controle multi-feições.

22

2. REVISÃO BIBLIOGRÁFICA

Nesta seção os seguintes temas serão abordados: geometria do sensor de

varredura linear (pushbroom); programa CBERS; referenciais envolvidos na Fototriangulação

considerando dados de órbita; Fototriangulação de imagens orbitais e; Triangulação

multissensor com controle multi-feições.

2.1 Geometria do sensor de varredura linear (pushbroom)

Ao longo deste trabalho diferentes termos específicos, relacionados com a

tomada de imagens por sensores de varredura linear, serão apresentados. Nesse sentido, a

seguir, são definidos alguns destes termos.

O FOV (Field of View), conforme Figura 1, consiste no ângulo de

visibilidade do sensor. Já o IFOV (Instantaneous Field of View), é o ângulo de visibilidade de

cada fotodetector do sensor e determina a área na superfície da Terra que é imageada pelo

elemento sensor (pixel) a partir de uma determinada altitude em um momento particular

(POLI, 2005). Portanto, a partir do IFOV é possível estimar o campo de visada instantâneo no

terreno, denominado de GIFOV (Ground Instantaneous Field of View). No entanto, devido à

geometria de visada e à curvatura da Terra, o GIFOV apresenta certa variação. O tamanho do

GIFOV aumenta à medida que o ângulo off-nadir (Q – ver Figura 1) aumenta. Assim, utiliza-

se o GSD (Ground Sample Distance) como elemento de resolução espacial no terreno, que

apresenta um valor constante para todos os pixels na imagem (MACHADO E SILVA, 2007).

Jensen (2009) define resolução espacial como “uma medida da menor

separação angular ou linear entre dois objetos que pode ser determinada pelo sistema de

sensoriamento remoto”. Segundo Dowman (1996), a resolução espacial é uma medida da

capacidade do sistema de imageamento em distinguir entre feições adjacentes em um objeto.

Em geral, a resolução espacial é confundida com o tamanho do pixel no terreno (GSD). No

entanto, de acordo com o teorema da amostragem de Shannon-Nyquist (HAYES, 2009) e

como também apresentado por Dowman (1996, p.58) a resolução é de, no mínimo, duas vezes

a frequência da amostragem, ou mais precisamente: GSDresolução ×= 22 .

23

Figura 1: Relação entre o FOV, IFOV, GIFOV, distância do sensor ao objeto (H) e ângulo off-

nadir (Q) (POLI, 2005).

Para os sensores orbitais de alta resolução é aplicado um movimento para o

lado dos satélites, denominado de crab movement (andar de caranguejo) que associado com a

com a tecnologia TDI (Time Delay Integration) tem por objetivo evitar o borramento nas

imagens. No entanto, mesmo com esta correção, alguns componentes ópticos destes sensores,

como as lentes e os prismas, podem provocar o efeito de borramento, degradando, portanto, a

resolução espacial das imagens. Surge, então, o termo resolução espacial efetiva que pode ser

representada pelo EIFOV (Effective Instantaneous Field of View), IFOV efetivo. O GEIFOV

(Ground Effective Instantaneous Field of View) representa o campo de visada instantâneo

efetivo no terreno.

Para realizar a orientação de imagens orbitais coletadas por sensores de

varredura linear com modelos rigorosos é necessário definir o modelo de sensor (geometria

interna do sensor) e o modelo de plataforma (trajetória e orientação do sensor no intervalo de

coleta da imagem), descritos a seguir.

2.1.1 Modelo de sensor

O modelo de sensor define a geometria interna de coleta da imagem que é

representada pelos Parâmetros de Orientação Interior (POI) – distância focal (f); coordenadas

FOV

24

do Ponto Principal (pp), que é projeção ortogonal do Centro Perspectivo - CP no plano focal

do sensor; coeficientes das distorções das lentes (radial simétrica - K1, K2 e K3; e descentrada

- P1 e P2) e; parâmetros de afinidade (A e B) (MIKHAIL et. al., 2001).

Ao conhecer os POI é possível reconstruir os feixes de raios que originaram

a imagem. A Figura 2 apresenta a geometria interna de um sensor de quadro e de um sensor

de varredura linear, representando apenas a distância focal (f).

Figura 2: Modelo de sensor (a) câmara de quadro e (b) câmara de varredura linear (MIKHAIL

et al., 2001).

Os POI são estimados no processo de calibração, em geral, realizado em

laboratório. No entanto, quando se realiza a aquisição das imagens em ambientes não

controlados com diferentes condições de temperatura e pressão, os POI podem sofrer

alterações, o que ressalta a importância em se realizar a calibração em serviço (in situ) (RUY,

2008; MARCATO et al., 2008). Galo et al. (2010) realizaram um estudo experimental e

verificaram a existência de correlação entre a variação da temperatura e alterações na

distância focal para uma câmara digital de médio formato. No caso dos sensores orbitais, que

sofrem grandes variações de ambiente e são submetidos a diversas forças ao serem lançados

em órbita, os valores calibrados dos POI podem ser recalculados com recursos de calibração

em serviço (in situ) (JACOBSEN, 1998; KORNUS et. al., 1999; FRITSCH e STALLMANN,

2000; KOCAMAN e GRUEN, 2007; SRINIVASAN et al., 2008). É importante ressaltar que

este processo de calibração em serviço deve ser realizado ao longo de toda a vida útil do

satélite.

25

2.1.2 Modelo de plataforma

O modelo de plataforma é definido pelos Parâmetros de Orientação Exterior

(POE), que permitem posicionar e orientar o feixe de raios no espaço objeto. Para o sensor de

quadro, cada feixe exige um conjunto de seis POE (três rotações e as coordenadas do CP).

Os sensores de quadro são representados por apenas um feixe de raios. Já

para o sensor de varredura linear cada linha da imagem define um feixe de raios (ver Figura

2). Assim, cada linha apresenta um conjunto de seis POE (ou nove POE, quando são usadas as

informações de órbita, pois se considera também a velocidade), o que implica em um elevado

número de parâmetros por imagem. Por exemplo, uma imagem CBERS-2B HRC com 12.246

linhas, apresenta 73.476 POE (ou 110.214 POE, considerando 9 POE por linha). Como

alternativa a esse problema, utilizam-se polinômios para descrever as efemérides e atitude do

sensor no intervalo de coleta da imagem, à medida que o intervalo de coleta de uma imagem é

bastante curto (por exemplo, uma imagem CBERS-2B HRC com 12.246 linhas é adquirida

em aproximadamente quatro segundos).

Após a discussão acerca de alguns termos relacionados à tomada de imagens

por sensores de varredura linear, apresenta-se, a seguir, uma descrição do programa CBERS.

2.2 Programa CBERS

O programa CBERS nasceu de uma parceria entre o Brasil e a China com o

intuito de derrubar as barreiras que impedem o desenvolvimento e a transferência de

tecnologias sensíveis, impostas pelos países desenvolvidos. As imagens CBERS são utilizadas

para diversas finalidades, cabendo destacar: o controle do desmatamento e queimadas na

Amazônia Legal; o monitoramento de recursos hídricos, áreas agrícolas, crescimento urbano e

ocupação do solo; e a geração de bases cartográficas. Além disso, é de fundamental

importância em projetos nacionais estratégicos, como o PRODES, de avaliação do

desflorestamento da Amazônia, e o DETER, de avaliação do desflorestamento em tempo real,

entre outros (INPE, 2010).

Em um primeiro instante, o programa CBERS contemplou apenas dois

satélites, o CBERS-1 e 2. No entanto, devido ao sucesso obtido, foi assinado um acordo em

26

2002, para a continuação do programa CBERS, com a construção de dois novos satélites,

CBERS-3 e 4. Em função do lançamento do CBERS-3 ter viabilidade prevista apenas para

2009, e também devido a um possível fim de vida útil do CBERS-2 ocorrer antes de 2009, foi

decidido, por ambos os países em 2004, construir o CBERS-2B e lançá-lo em 2007. O

CBERS-2B esteve em operação até abril de 2010 e o CBERS-3 tem previsão para ser lançado

apenas no segundo semestre de 2011 (INPE, 2010; EPIPHANIO, 2009).

Os satélites CBERS-1 e 2 possuíam os seguintes sistemas imageadores:

CCD (Câmara imageadora de alta resolução, com um GSD de 20 metros e resolução temporal

de 26 dias); IRMSS (Imageador por Varredura de Média Resolução com GSD de 80 metros e

resolução temporal de 26 dias) e; WFI (Câmara Imageadora de Amplo Campo de Visada com

um GSD de 260 metros e resolução temporal de 5 dias).

Nesses satélites a câmara CCD possuía a capacidade de orientar o campo de

visada lateralmente dentro de ±32 graus, o que possibilitava a obtenção de pares

estereoscópicos. Assim, era possível aplicar técnicas fotogramétricas com a finalidade de

mapeamento e de geração de modelos digitais de terreno (INPE, 2010).

O satélite CBERS-2B apresentava características bastante parecidas quando

comparado aos satélites CBERS-1 e 2, porém o IRMSS foi substituído pela HRC - Câmara

Pancromática de Alta Resolução que apresentava um elemento de resolução no terreno (GSD)

de 2,5 metros e resolução temporal de 130 dias. Outro aspecto que o diferenciava dos

CBERS-1 e 2, foi a instalação de um receptor GPS e de um sensor de estrelas, com o objetivo

de proporcionar as efemérides e a atitude do satélite com maior acurácia quando comparado

aos sistemas dos satélites CBERS-1 e 2 (INPE, 2010). No entanto, um problema que foi

enfrentado e que acarretou na qualidade do georreferenciamento das imagens CBERS-2B foi

a falta sistemática de dados de atitude por parte do sensor de estrelas, que conforme Arcanjo e

Ferreira (2009) apresentava forte correlação com a área de maior pronunciamento da

Anomalia Magnética do Atlântico Sul.

Além destes aspectos, o satélite CBERS-2B apresentava diferenças quanto a

sua operação. Isto se deu devido à presença da câmara HRC, a qual apresentava uma faixa de

recobrimento de apenas 27 km. Assim como nos satélites CBERS-1 e 2, a órbita do CBERS-

2B era cíclica com duração de 26 dias possibilitando o recobrimento do território

compreendido entre as latitudes 80º S e 80º N com o sensor CCD, que possuía capacidade de

recobrir uma faixa de 113 km. Para possibilitar o amplo imageamento com a HRC, que

apresentava uma faixa de recobrimento cerca de cinco vezes inferior à área do sensor CCD,

de todo o território compreendido entre as latitudes citadas anteriormente, o seguinte

27

procedimento foi realizado: aplicava-se uma rotação em roll (rotação em torno do eixo x –

direção do movimento do satélite) variando de ± 3,2º no satélite. Para que a visada do sensor

CCD se mantivesse no nadir, aplicava-se um movimento em seu espelho de visada lateral.

Assim, era possível recobrir em 130 dias todo o território entre as latitudes 80ºS e 80ºN com o

sensor HRC (EPHIPANIO, 2009).

Na Tabela 1 são apresentados os níveis de processamento das imagens

CBERS. No site do INPE são disponibilizadas imagens no nível 2, dotadas de correções

radiométrica e geométrica. Conforme Tabela 1, a correção geométrica é aplicada com o uso

de dados orbitais, de informações sobre a montagem do instrumento no satélite, da geometria

de visada do instrumento e de um modelo representativo da superfície terrestre. Como

consequência da baixa qualidade dos dados de órbita (efemérides e principalmente atitude), a

qualidade do georreferenciamento dessas imagens também é baixa (SILVA et al., 2009).

Outro aspecto apontado por Silva et al. (2009) que afeta significativamente a qualidade da

correção geométrica das imagens CBERS-2B HRC é a fraca geometria interna do sensor

HRC.

Tabela 1: Níveis de processamento das imagens CBERS.

Níveis de

Processamento

Descrição

Nível 0 Imagem em estado bruto

Nível 1 Imagem com correção radiométrica (calibração e restauração do sinal

transmitido)

Nível 2 Imagem do nível 1 com correção geométrica, aplicada com o uso de

dados orbitais, de informações sobre a montagem do instrumento no

satélite, da geometria de visada do instrumento e de um modelo

representativo da superfície terrestre.

Nível 3 Imagem do nível 2 geometricamente refinada com o uso de pontos de

controle

Nível 4 Imagem do nível 2 ortorretificada com o uso de um MDT (Modelo

Digital do Terreno) ou MNET (Modelo Numérico de elevação do

Terreno)

Fonte: Machado e Silva (2007).

28

Portanto, para que haja uma melhor qualidade no georreferenciamento das

imagens CBERS é necessário corrigir os dados de órbita (que apresentam baixa qualidade)

utilizando elementos de controle no espaço objeto (pontos, retas e/ou áreas). Dentro desse

contexto, torna-se de extrema relevância conhecer os sistemas de referência envolvidos neste

processo, bem como as relações existentes entre eles.

2.3 Referenciais envolvidos na Fototriangulação considerando dados de órbita

Nesta seção os seguintes sistemas de referência serão abordados: Sistema de

Referência da Imagem/Sensor; Sistema de Referência da Plataforma (SRP); Sistema de

Referência da Órbita (SRO); Sistema de Referência Geocêntrico Inercial (SRGI); Sistema de

Referência Geodésico Geocêntrico Cartesiano (SRGGC); Sistema de Referência Geodésico

Cartesiano (SRGC); Sistema de Referência Geodésico Cartesiano Local (SRGCL) e; Sistema

de Referência Geodésico (SRG).

2.3.1 Sistemas de Referência da Imagem/Sensor

Dentro desta categoria serão descritos o sistema de referência da imagem

CL (Coluna/Linha), o sistema central da imagem, o sistema fotogramétrico e o sistema de

referência do sensor (SRS).

Sistema da imagem (CL):

O sistema imagem CL está associado a uma imagem digital, a qual pode ser

representada por uma matriz bidimensional (ver Figura 3) em um sistema de coordenadas

Linha (L) e Coluna (C). Em geral, a origem desse sistema coincide com o centro do pixel

localizado no canto superior esquerdo. O eixo L coincide com a primeira coluna da imagem e

o eixo C com a primeira linha.

29

Figura 3: Sistema da imagem (CL).

Sistema Central da imagem:

O sistema central da imagem (ver Figura 4) é definido como segue:

� A origem coincide com o centro da imagem (intersecção entre as

diagonais da imagem);

� O eixo xc tem a direção das linhas ou colunas da imagem e o sentido

que mais se aproxima do sentido de voo;

� O eixo yc é ortogonal ao eixo xc com sentido 90º anti-horário.

Figura 4: Relação entre o sistema central e o sistema CL – Imagem de quadro.

A transformação do sistema CL para o sistema central da imagem é dada

por:

XXc SCLx ).( −= (1)

YYc SCCy ).( −= (2)

Colunas (C)

Linhas (L)

L

C

xc

yc

30

em que: XC e YC representam as coordenadas do centro da imagem. Para um sensor digital:

2/)1( −= ColunasCY e 2/)1( −= LinhasCX - Colunas e Linhas representam o número de

linhas e colunas da imagem, respectivamente e; XS e YS representam o tamanho do

fotodetector.

Para o sensor de varredura linear cada linha apresenta o seu próprio sistema

central, portanto, 0=cx .

Sistema Fotogramétrico:

O sistema fotogramétrico é um sistema tridimensional de coordenadas com

origem no CP. Os eixos xfot e yfot apresentam a mesma definição do sistema central da

imagem e; o eixo zfot completa o sistema de forma que seja dextrogiro. Na Figura 5 apresenta-

se o sistema fotogramétrico considerando o plano do diapositivo.

Figura 5: Sistema Fotogramétrico (diapositivo) – Imagem de quadro.

Ao analisar a Figura 5, verifica-se que o pp (projeção do CP no plano focal

do sensor) não coincide com a origem do sistema central. As coordenadas do pp no sistema

central da imagem são representadas por x0 e y0.

Apresenta-se, a seguir, a transformação de coordenadas do sistema central

da imagem para o sistema fotogramétrico do diapositivo.

0xxx cfot −= (3)

pp Diapositivo

xc yc

CP

zfot

yfot

xfot

-f

31

0yyy cfot −= (4)

Em Fotogrametria, geralmente, utiliza-se o sistema fotogramétrico do

diapositivo. No entanto, para representar fisicamente a tomada da imagem deve-se considerar

o plano do negativo. Nesse caso, a origem do sistema fotogramétrico coincide com o CP, os

eixos xfot e yfot sofrem uma reflexão em relação ao sistema anterior (diapositivo) e o eixo zfot,

é tal que, torna o sistema dextrogiro (Figura 6).

Figura 6: Sistema Fotogramétrico (negativo) – Imagem de quadro.

Apresenta-se, a seguir, a transformação de coordenadas do sistema central

da imagem para o sistema fotogramétrico do negativo.

0xxx cfot += (5)

0yyy cfot += (6)

Para o sensor de varredura linear, basta considerar 0=cx .

Sistema de Referência do Sensor (SRS):

O Sistema de Referência do Sensor (SRS) é um sistema dextrogiro com

origem no centro de massa do satélite (CMS). É um sistema fixo ao satélite e tem como

referência o plano focal do instrumento (ver Figura 7). Assim, cada sensor possui seu próprio

sistema de referência (MACHADO E SILVA, 2007).

yc

xc

Negativo f

CP

zfot

yfot

xfot

32

Figura 7: Relação entre o sistema fotogramétrico (negativo) e o sistema do sensor.

A relação entre o sistema fotogramétrico (negativo) e o sistema de

referência do sensor está apresentada na Figura 7. Para tornar ambos os sistemas paralelos

deve ser aplicada uma rotação em yfot de 180°. Portanto:

°=

f

y

x

R

z

y

x

fot

fot

S

S

S

).180(2 (7)

em que:

=

=

100

010

001

)º180cos(0)º180(

010

)º180(0)º180cos(

)º180(2

sen

sen

R (8)

Na Equação (7) a origem do sistema do sensor ficou como sendo o CP, pois

nenhuma translação foi aplicada. Este sistema do sensor com origem no CP será denominado

de sistema de referência do sensor modificado.

2.3.2 Sistema de Referência da Plataforma (SRP)

Assim como o Sistema de Referência do Sensor (SRS), o Sistema de

Referência da Plataforma (SRP) é um sistema dextrogiro com origem no CMS. No entanto, o

que difere ambos os sistemas são os ângulos de boresight (bX, bY, bZ) (MACHADO E SILVA,

CP

f

Linha i

Ys

Xs

zfot

yfot

xfot CMS

XS

YS

ZS

33

2007). De acordo com Machado e Silva (2007), esses ângulos são definidos no projeto do

satélite e são medidos na fase de integração. A transformação entre o SRP e SRS é dada por:

SRS

PlataformaSensor

SRPZ

Y

X

R

Z

Y

X

=

. (9)

em que:

++

++

=

)cos()(cos)()(cos-)(sen

)()(cos )(cos )(sen)(sen)cos()(cos )(sen )(sen)(sen-)(cos)(sen-

)()(sen )(cos )(sen)(cos-)cos()(sen )(sen )(sen)(cos)(cos)(cos

XYXYY

XZXYZXZXYZYZ

XZXYZXZXYZYZ

PlataformaSensor

bbbsenbb

bsenbbbbbbbbbbb

bsenbbbbbbbbbbb

R

(10)

2.3.3 Sistema de Referência da Órbita (SRO)

O sistema de referência da órbita (SRO) é um sistema dextrogiro, com

origem no centro de massa do satélite, e é definido pelas efemérides (posição e velocidade).

Conforme a Figura 8, o eixo OZ passa pelo centro da Terra, com sentido do satélite para a

Terra (contido no plano orbital); o eixo OY é perpendicular ao plano orbital, ou seja, ao eixo

OZ e ao vetor velocidade do satélite, com o sentido igual ao do vetor resultante do produto

vetorial do versor do eixo OZ e versor do vetor velocidade do satélite, e finalmente; o eixo

OX é definido de forma a tornar o sistema dextrogiro (MACHADO E SILVA, 2007). De

acordo com Jovanovic et al. (1999) o eixo OX aponta na direção comum (general direction)

ao vetor velocidade do satélite, mas não é instantaneamente alinhado com ele devido à

excentricidade da órbita.

Segundo Jovanovic et al. (1999) e Machado e Silva (2007), o que difere o

SRO do SRP são os ângulos de atitude (rolamento – roll, arfagem – pitch e guinada – yaw),

medidos pelo sistema de controle de atitude e órbita. A seguir, apresenta-se a matriz de

rotação considerando os ângulos de atitude (JOVANOVIC et al., 1999; KIM e DOWMAN,

2006).

34

++

++

=

RcoscosPRcosP-senP

Rcos cosR senPsenRcoscos senR senPsen-cosPsen-

Rsen cosR senPcos-Rcossen senR senPcoscosPcos

R ÓrbitaPlataforma

sen

sen

sen

ψψψψψ

ψψψψψ

(11)

em que:

ψePR, representam os ângulos roll, pitch e yaw, respectivamente.

Assim, tem-se que:

SRP

ÓrbitaPlataforma

SROZ

Y

X

R

Z

Y

X

=

. (12)

Figura 8: Sistema de Referência da Órbita (MACHADO E SILVA, 2007).

2.3.4 Sistema de Referência Geocêntrico Inercial (SRGI)

O Sistema de Referência Geocêntrico Inercial (SRGI), também denominado

de Sistema de Referência Geocêntrico Celeste, é definido a partir das posições de objetos

35

extragalácticos (quasars – Quase Stelar Rádio Source), os quais possuem movimentos

desprezíveis, quando comparados com a acurácia das medidas realizadas sobre eles, ou seja,

as direções dos eixos coordenados do SRGI não apresentam rotação global com relação a

esses objetos, se mantendo fixos (MONICO, 2008).

De acordo com Monico (2008), o eixo OX aponta muito próximo ao

equinócio dinâmico às 12h TDB (Tempo Dinâmico Baricêntrico) em 1º de janeiro de 2000, o

eixo OZ aponta para a direção do pólo de referência convencional, na mesma época, e o eixo

OY completa o sistema de forma que seja dextrogiro.

Cabe ressaltar que os dados de efemérides transmitidos pelos satélites ou

processados e tornados disponíveis via arquivos TLE (Two Line Elements) estão referenciados

ao SRGI (MACHADO E SILVA, 2007).

De acordo com Jovanovic et al. (1999) e Machado e Silva (2007), a relação

do SRO com o SRGI (ver Figura 9) se dá por meio dos dados de efemérides. Assim, tem-se

que:

0

0 .

SR

SRGISR

SRGIZ

Y

X

R

Z

Y

X

=

(13)

A Equação 14 apresenta o cálculo da matriz das efemérides (WERTZ, 1978;

JOVANOVIC et al., 1999; MACHADO E SILVA, 2007).

[ ]'''''' )( satsatsatsatsatsatSRGISRO rvrrvrR −∧−∧∧= (14)

Na Equação 14, tem-se que:

� Vetor posição (SRGI):

[ ]Tsatsatsatsat ZYXr = (15)

� Versor do vetor posição (SRGI):

T

P

sat

P

sat

P

satsat L

Z

L

Y

L

Xr

=' (16)

)( 222sssP ZYXL ++= (17)

36

� Vetor velocidade (SRGI):

[ ]Tsatsatsatsat VzVyVxv = (18)

� Versor do vetor velocidade (SRGI):

T

V

sat

V

sat

V

satsat L

Vz

L

Vy

L

Vxv

=' (19)

)( 222 VzVyVxLV ++= (20)

Finalmente, tem-se que:

−−+−−

−−+−−

−−+−−

=

P

s

VP

ss

VP

ssssss

P

s

VP

ss

VP

ssssss

P

s

VP

ss

VP

ssssss

SRGISRO

L

Z

LL

VyXYVx

LL

VxZXXVzVzYYZVyL

Y

LL

VxZXVz

LL

VzZYZVyVyXXYVxL

X

LL

VzYZVy

LL

VyYXYVxVxZZXVz

R

.

..

.

.......

..

.

.......

..

.

......

2

22

2

22

2

22

(21)

Figura 9: Relação entre o SRO e SRGI (MACHADO E SILVA, 2007).

37

2.3.5 Sistema de Referência Geodésico Geocêntrico Cartesiano (SRGGC)

Nesta seção apresenta-se a descrição do WGS-84, por se tratar do sistema de

referência adotado pelo GPS que foi utilizado no levantamento dos pontos e retas de apoio.

Cabe ressaltar que o SIRGAS (Sistema de Referência Geocêntrico para as Américas), adotado

pelo Sistema Geodésico Brasileiro - SGB, apresenta compatibilidade com as últimas

realizações do WGS-84 (MONICO, 2008).

O WGS-84 (ver Figura 10) possui origem no centro de massa da Terra; o

eixo OZ aponta para o Pólo Norte CTP (Conventional Terrestrial Pole), conforme definido

pelo BIH1984; o eixo OX aponta para o meridiano origem (longitude 0°), conforme definido

pelo BIH1984 e; o eixo OY completa o sistema de forma que seja dextrogiro (MONICO,

2008).

Figura 10: Sistema de Referência WGS-84 (MONICO, 2008).

Segundo Monico (2008) a transformação entre os sistemas terrestre

(WGS84) e o SRGI deve ser realizada de acordo com as recomendações da IAU2000

(International Astronomical Union 2000 – União Astronômica Internacional 2000) que

passaram a vigorar a partir de 2003. Para a realização dessa tarefa, são disponibilizadas sub-

rotinas, em linguagem de programação Fortran e C, que compõe o SOFA (Standards of

Fundamental Astronomy).

38

As efemérides distribuídas podem estar referenciadas tanto ao SRGI (TLE)

quanto ao WGS-84 (GPS). Para o caso de estarem referenciadas ao SRGI deve-se transformá-

las para o WGS-84 de acordo com as recomendações da IAU2000.

No caso de estarem referenciadas ao WGS-84, o mesmo procedimento

aplicado na Seção 2.3.4, em que se calculou a transformação do SRO para o SRGI, pode ser

aplicado para calcular a matriz de rotação que relaciona o WGS84 (sistema terrestre) com o

SRO (JOVANOVIC et al., 1999; POLI, 2005).

−−+−−

−−+−−

−−+−−

=

P

s

VP

ss

VP

ssssss

P

s

VP

ss

VP

ssssss

P

s

VP

ss

VP

ssssss

TerrestreÓrbita

L

Z

LL

VyXYVx

LL

VxZXXVzVzYYZVyL

Y

LL

VxZXVz

LL

VzZYZVyVyXXYVxL

X

LL

VzYZVy

LL

VyYXYVxVxZZXVz

R

.

..

.

.......

..

.

.......

..

.

......

2

22

2

22

2

22

(22)

em que:

� SSS ZeYX , são as componentes das coordenadas do satélite referenciadas ao WGS-84;

� VzeVyVx, são as componentes da velocidade do satélite referenciadas ao WGS-84;

� )( 222sssP ZYXL ++= ;

� )( 222 VzVyVxLV ++= .

Assim, tem-se que:

084

.

SR

TerrestreÓrbita

WGSZ

Y

X

R

Z

Y

X

=

(23)

2.3.6 Sistema de Referência Geodésico Cartesiano (SRGC)

Nessa seção apresenta-se a descrição do sistema de referência SAD-69

(South American Datum of 1969), por se tratar de um sistema, mesmo não geocêntrico, ainda

bastante utilizado pela comunidade cartográfica brasileira. Cabe ressaltar, que as imagens

39

CBERS no nível 2 (com correções radiométrica e geométrica) são distribuídas em SAD-69. O

Datum Sul-Americano de 1969, segundo a Resolução IBGE – R.PR – 1/2005 , de 25/2/2005,

FOLHA 1/1, é definido a partir dos parâmetros:

� Figura geométrica para a Terra: Elipsóide Internacional de 1967;

� Semi eixo maior a = 6.378,160 m;

� Achatamento f = 1/298,25;

� Parâmetros referentes ao posicionamento espacial do elipsóide:

Orientação geocêntrica:

� Eixo de rotação paralelo ao eixo de rotação da Terra; plano meridiano

origem paralelo ao plano meridiano de Greenwhich, como definido

pelo BIH.

Orientação topocêntrica:

� Ponto Datum = Vértice de triângulação Chuá;

� φG = 19º 45' 41,6527" S (Latitude Geodésica);

� λG = 48º 06' 04,0639" W (Longitude Geodésica);

� φA = 19º 45’ 41,34” S (Latitude Astronômica);

� λA = 48º 06’07,80” W (Longitude Astronômica);

� AG = 271° 30' 04,05" SWNE para o vértice Uberaba (Az. Geodésico);

� N = 0,0 m (Ondulação Geoidal).

Segundo MONICO(2008), a transformação do SAD-69 para o WGS-84 é

dada por:

m

Z

Y

X

Z

Y

X

WGSSAD

+

=

−−52,38

37,4

87,66

8469

(24)

2.3.7 Sistema de Referência Geodésico Cartesiano Local (SRGCL)

O SRGCL, assim como o referencial geodésico cartesiano, é um sistema de

coordenadas tridimensional. A Figura 11 ilustra este sistema, o qual é definido da seguinte

forma:

40

� Origem (OL) é estabelecida sobre a normal ao elipsóide passando pela

estação de observação, e, geralmente, é considerada sobre o elipsóide,

geóide ou nas imediações da superfície física;

� eixo OZL é coincidente com a normal ao elipsóide na origem;

� eixo OYL, tangente ao meridiano de origem, aponta para o norte

geodésico;

� eixo OXL é definido de forma a tornar o SRGCL um sistema dextrogiro.

Na transformação do sistema geodésico cartesiano para o sistema geodésico

cartesiano local, utiliza-se um modelo baseado em rotações e translações, dado por:

⋅=

0

0

0

ZZ

YY

XX

R

Z

Y

X

L

L

L

L

(25)

em que:

� ),,( ZYX são as coordenadas de um ponto P no referencial geodésico

cartesiano;

� ),,( LLL ZYX são as coordenadas de um ponto no referencial cartesiano

local;

� ),( 00 λφ são as coordenadas geodésicas da origem do sistema local;

� ),,( 000 ZYX são as coordenadas geodésicas cartesianas da origem do

sistema local. A transformação de coordenadas geodésicas para

coordenadas cartesianas geodésicas se encontra na Seção 2.3.9;

� )90().º90( 0301 λφ +°−⋅= RRRL . R3 e R2 são matrizes de rotação

(Equações 26 e 27).

++−

++

=+

100

0)º90cos()º90(

0)º90()º90cos(

)º90( 00

00

03 λλ

λλ

λ sen

sen

R (26)

−−−

−−=−

)º90cos()º90(0

)º90()º90cos(0

001

)º90(

00

0001

φφ

φφφ

sen

senR (27)

41

Equador (φ = 0)

Greenwich (λ = 0)

O

OL

YL ZL

XL

X

Y

Z

Figura 11: Referencial geodésico cartesiano local. Adaptado de Lugnani (1987).

Para realizar a transformação inversa, aplica-se:

⋅+

=

L

L

L

L

Z

Y

X

R

Z

Y

X

Z

Y

X1

0

0

0

(28)

2.3.8 Sistema de Referência Geodésico (SRG)

O referencial geodésico é definido por meio de um modelo geométrico que

objetiva facilitar os cálculos e criar uma representação simplificada da Terra. O modelo

geométrico adotado é um elipsóide de revolução, o qual fica definido pelos seus parâmetros f

(achatamento) e a (semi-eixo maior). O referencial geodésico utiliza as coordenadas latitude

geodésica )(φ e longitude geodésica( λ ), além da altura geométrica(h) para representar a

posição de um ponto sobre a superfície terrestre (MONICO, 2008).

42

Para realizar a transformação do sistema geodésico para o sistema

cartesiano, utilizam-se as seguintes equações (MONICO, 2008):

)cos()cos()( λφ ⋅⋅+= hNX (29)

)sen()cos()( λφ ⋅⋅+= hNY (30)

)sen(])1([ 2 φ⋅+−⋅= heNZ (31)

em que:

� N é a grande normal do elipsóide passando pelo ponto de coordenadas

geodésicas ),( λφ , dada por: 2122 )sen1( φe

aN

−= ;

� a é o comprimento do semi-eixo maior do elipsóide de referência adotado;

� 2e é o quadrado da primeira excentricidade do elipsóide, dado por

22 ff2e −⋅= ;

� f é o valor do achatamento do elipsóide de referência adotado.

Após a descrição dos sistemas de referências envolvidos no processo de

Fototriangulação considerando os dados de órbita, apresenta-se, a seguir, os modelos

matemáticos para realizar a Fototriangulação de imagens orbitais.

2.4 Fototriangulação de imagens orbitais

Tradicionalmente, Fototriangulação é definida como sendo um método

fotogramétrico no qual se determina as coordenadas dos pontos no espaço objeto (pontos

fotogramétricos) por meio da relação geométrica de fotos adjacentes devidamente tomadas, de

um esparso controle de campo e de um conjunto de valores aproximados de parâmetros

(LUGNANI, 1987).

À medida que se considera os pontos fotogramétricos, há uma redução

significativa da quantidade de pontos a serem levantados em campo, o que torna o

mapeamento fotogramétrico mais viável economicamente. Por exemplo, para um modelo

43

estereoscópico de imagens de quadro seriam necessários dois pontos de controle horizontal,

três pontos de controle vertical, além de pontos de verificação, caso não fosse aplicado o

ajuste em bloco – Fototriangulação em bloco (MIKHAIL et al., 2001), tornando o processo de

mapeamento por Fotogrametria bastante oneroso.

Além das coordenadas tridimensionais, pertencentes ao espaço objeto, dos

pontos fotogramétricos, como resultado da Fototriangulação obtém-se os POE, os quais

podem ser utilizados diretamente nos processos subsequentes, como a correção geométrica e

ortorretificação das imagens.

Para calcular as coordenadas tridimensionais de um ponto fotogramétrico

(ponto deve estar contido em pelo menos duas imagens) a partir das coordenadas imagem

desse mesmo ponto, é necessário estabelecer um modelo matemático que relacione o espaço

objeto e o espaço imagem. Em geral, a relação entre ambos os espaços é estabelecida por

meio do modelo de Colinearidade, que utiliza feições do tipo ponto. No entanto, há também a

possibilidade de se utilizar feições lineares. Dentro deste contexto, a seguir serão apresentados

os modelos matemáticos adaptados para a geometria de varredura linear, os quais consideram

tanto feições do tipo ponto quanto feições lineares para relacionar os espaços objeto e

imagem.

2.4.1 Modelo de Colinearidade adaptado para a geometria de varredura linear

O modelo de colinearidade é um dos modelos matemáticos mais utilizados

em Fotogrametria para relacionar o espaço imagem e o espaço objeto. O princípio básico

deste modelo estabelece que um ponto no espaço objeto, o seu correspondente no espaço

imagem e o CP são colineares no instante da tomada da imagem (ver Figura 12) (MIKHAIL,

2001). Ao considerar a condição de colinearidade para uma imagem de quadro (frame), tem-

se que (MIKHAIL et al., 2001):

=

− CPi

CPi

CPi

is

s

ZZ

YY

XX

R

f

y

x

λ (32)

44

em que:

� (xs, ys) são as coordenadas de um ponto no sistema fotogramétrico;

� f é a distância focal da câmara;

� λi é o fator de escala para cada ponto;

� (Xi, Yi, Zi) são as coordenadas do mesmo ponto no referencial cartesiano do

espaço objeto;

� (XCP, YCP, ZCP) são as coordenadas do CP no referencial cartesiano do espaço

objeto;

� R é a matriz de rotação, dada pela Equação (33). Por convenção, essa matriz é

definida do sistema de referência do espaço objeto para o sistema de referência do

espaço imagem.

++

++

=

ωϕωϕϕ

ωκωϕκωκωϕψϕκ

ωκωϕκωκωϕκϕκ

coscoscos-sen

cos cos sensencoscos sen sensen-cossen-

sen cos sencos-cossen sen sencoscoscos

R

sen

sen

sen

(33)

A Equação (32) proporciona três equações. Dividindo as duas primeiras

equações pela terceira, elimina-se o fator de escala para cada ponto (λi), resultando nas

Equações de colinearidade (MIKHAIL et al., 2001):

)Z.(Z)Y.(Y)X.(X

)Z.(Z)Y.(Y)X.(Xfx

333231

131211

CPCPCP

CPCPCPs rrr

rrr

−+−+−

−+−+−⋅−= (34)

)Z.(Z)Y.(Y)X.(X

)Z.(Z)Y.(Y)X.(Xfy

333231

232221

CPCPCP

CPCPCPs rrr

rrr

−+−+−

−+−+−⋅−= (35)

45

Figura 12: Representação da condição de colinearidade para o sensor de varredura linear.

As Equações de Colinearidade, mesmo sendo desenvolvidas para imagens

de quadro (frame), podem ser utilizadas em qualquer modelo geométrico de imageamento,

desde que adaptadas. No modelo de colinearidade, modificado para o caso do sensor de

varredura linear (pushbroom), são incorporados polinômios para modelar a geometria de

deslocamento desses sensores. A seguir, por meio da Equação (36), apresenta-se o modelo de

colinearidade adaptado para a geometria pushbroom (KIM e DOWMAN, 2006):

=

=

− Si

Si

Si

Tiss

s

ZZ

YY

XX

R

f

y

f

y

x

λ

0

(36)

Na Equação (36), XS, YS e ZS representam as coordenadas da posição do CP

(descritos por polinômios – Equação (37)), referenciadas ao sistema de terreno (espaço

objeto), no instante da tomada da linha que contém o ponto com coordenadas Xi, Yi e Zi; xs e

ys são as coordenadas de um ponto no sistema do sensor modificado com origem no CP; RT é

xj

Imagem pushbroom

yj

pi

vi

zj

j

CP

Pi (Xi, Yi, Zi)

X

Y Z

-f

46

a matriz de rotação, similar à Equação (33), mas transposta. Neste caso, diferentemente da

Equação (32), a matriz de rotação foi definida do sistema de referência do espaço imagem

para o sistema de referência do espaço objeto. Uma das justificativas para essa diferença é a

de possibilitar a comparação desse modelo com os modelos que levam em conta informações

de órbita (Seção 2.4.2), pois nos modelos orbitais as matrizes de rotação são definidas do

espaço imagem para o espaço objeto (conforme Seção 2.3). Como a direção do movimento da

plataforma é ao longo do eixo x (ver Figura 12) o valor desta coordenada é igualado a zero

para representar a geometria do sensor de varredura linear.

Conforme já citado, os parâmetros da plataforma (POE) variam

continuamente e podem ser descritos por um grupo de polinômios. A seguir, apresentam-se os

polinômios de segunda ordem (18 parâmetros), que descrevem a trajetória e a atitude do

satélite no intervalo de aquisição da imagem (ORUN e NATARAJAN, 1994; KIM e

DOWMAN, 2006).

2660

2550

2440

2330

2220

2110

tbta

tbta

tbta

tbtaZZ

tbtaYY

tbtaXX

S

S

S

++=

++=

++=

++=

++=

++=

ωω

ϕϕ

κκ (37)

Na Figura 13, apresenta-se o efeito de pequenas variações nos POE tanto

para imagens de quadro (frame) quanto para imagens de varredura linear (pushbroom). Nota-

se pela Figura 13 que uma pequena variação em ω tem o mesmo efeito que uma pequena

mudança em SY , assim como, uma pequena mudança em φ apresenta efeito similar a uma

pequena mudança em SX . Como os efeitos destes movimentos são similares, sua

determinação indireta por meio do ajustamento é instável, devido à alta correlação. Dessa

forma pode ser vantajoso eliminar do conjunto de parâmetros ω ou SY e φ ou SX . Isto é

válido apenas quando as coordenadas do CP são referenciadas ao SRGCL ou a um sistema de

projeção, como o UTM.

47

Figura 13: O efeito de pequenas variações nos parâmetros de orientação exterior para imagens

de quadro e pushbroom. Fonte: Adaptado de Orun e Natarajan (1994).

Nesse sentido, Orun e Natarajan (1994) apresentaram o seguinte modelo,

considerando apenas 12 POE:

2

440

2

330

2

220

2110

tbta

tbtaZZ

tbtaYY

tbtaXX

S

S

S

++=

++=

++=

++=

κκ

(38)

O modelo de colinearidade adaptado para a geometria pushbroom foi

desenvolvido pela comunidade fotogramétrica, e tem sido adotado em estações de trabalho

fotogramétricas digitais, mas apresentam uma limitação: os ângulos de rotação utilizados não

são físicos (KIM e DOWMAN, 2006). Nesse caso apenas dois sistemas de Referência

(Sistema de Referência do espaço imagem e Sistema de Referência do espaço objeto) são

considerados. Para utilizar dados de órbita (conforme apresentado na Seção 2.3) além desses

48

sistemas, deve-se considerar outros sistemas, tais como: o Sistema de Referência da

Plataforma e o Sistema de Referência da Órbita. Diante dessa constatação, apresenta-se a

seguir o modelo de colinearidade adaptado para a geometria de varredura linear (pushbroom)

considerando dados de órbita.

2.4.2 Modelo de Colinearidade adaptado para a geometria de varredura linear

considerando dados de órbita

Nos modelos orbitais são utilizados os parâmetros do sistema de referência

orbital, que podem ser representados tanto pelos elementos keplerianos (inclinação da órbita,

ascensão reta do nodo ascendente, anomalia média, argumento do perigeu, excentricidade e

movimento médio) quanto pela posição e vetor velocidade do satélite (KIM e DOWMAN,

2006).

Segundo Kim e Dowman (2006) o modelo de colinearidade considerando

dados de órbita é dado por:

[ ] [ ]

=

=

− Si

Si

Si

TTerrenoÓrbita

TÓrbitaSensoriss

s

ZZ

YY

XX

RR

f

y

f

y

x

λ

0

(39)

Na Equação (39), ÓrbitaSensorR (Equação (40)) representa a matriz de rotação do

sistema de referência do sensor (nesse caso, coincidente com o sistema de referência da

plataforma) para o sistema de referência orbital, dada em função dos ângulos de atitude Roll

(R), Pitch (P) e Yaw(ψ), e Terreno

ÓrbitaR (Equação 41) representa a matriz de rotação do sistema de

referência orbital para o sistema de referência terrestre, dada em função da posição e

velocidade do satélite. Cabe ressaltar que essas matrizes foram definidas para o satélite

KOMPSAT-1.

++

++

=

RcoscosPRcosP-senP

Rcos cosR senPsenRcoscos senR senPsen-cosPsen-

Rsen cosR senPcos-Rcossen senR senPcoscosPcos

sen

sen

sen

RÓrbitaSensor ψψψψψ

ψψψψψ

(40)

49

−+−

−+−

−+−

=

P

S

VP

SXYS

V

Z

P

S

VP

SZXS

V

Y

P

S

VP

SYZS

V

X

TerrenoOrbita

L

Z

LL

YVVX

L

VL

Y

LL

XVVZ

L

VL

X

LL

ZVVY

L

V

R (41)

Nesse modelo considerou-se os ângulos de boresight, que relacionam os

sistemas de referência do sensor e da plataforma, nulos e o vetor velocidade coincidente com

o eixo OX do Sistema de Referência da Órbita (ver Figura 14). No entanto, segundo

Jovanovic et al. (1999), esse eixo aponta na direção comum (general direction) ao vetor

velocidade do satélite, mas não é instantaneamente alinhado com ele devido à excentricidade

da órbita. Para maiores detalhes sobre o Sistema de Referência da Órbita, rever Seção 2.3.3.

A seguir, apresenta-se o modelo de plataforma utilizado por Kim e Dowman

(2006).

2

990

2

880

2770

2

660

2

550

2

440

2

330

2

220

2

110

tbta

tbtaPP

tbtaRR

tbtaVV

tbtaVV

tbtaVV

tbtaZZ

tbtaYY

tbtaXX

ZZ

YY

XX

S

S

S

++=

++=

++=

++=

++=

++=

++=

++=

++=

ψψ

(42)

50

Figura 14: Geometria do Sensor de varredura linear (modelo orbital). Adaptado de Kim e

Dowman (2006).

2.4.3 Modelo de Coplanaridade com retas adaptado para a geometria de varredura

linear

O modelo de Coplanaridade com o uso de linhas retas tem por princípio a

condição de coplanaridade entre o vetor de visada (projetante) (vi) e o plano de projeção no

espaço objeto (ver Figura 15). Para representar essa condição, tem-se que o vetor de visada,

após rotacionado, deve ser ortogonal ao vetor normal ao plano de projeção do espaço objeto -

Nj (MEDEIROS e TOMMASELLI, 2007; MULAWA e MIKHAIL, 1988). Como

consequência, o produto escalar entre esses vetores pode ser considerado nulo, conforme

apresentado na Equação (43).

51

Figura 15: Condição de coplanaridade entre o vetor de visada e o plano de projeção no espaço

objeto.

0=

f

y

x

RN s

sr

(43)

em que:

� Nr

é o vetor normal ao plano do espaço objeto definido pelo produto vetorial do vetor

direção (P2 - P1) da reta e do vetor diferença entre o ponto P1 e o CP (P1 - CP):

−−−−−

−−−−−

−−−−−

=

×

=

=

))(())((

))(())((

))(())((

)(

)(

)(

)(

)(

)(

121112

112121

121112

1

1

1

12

12

12

3

2

1

YYXXYYXX

ZZXXZZXX

ZZYYZZYY

ZZ

YY

XX

ZZ

YY

XX

N

N

N

SS

SS

SS

S

S

S

Nr

� R é a matriz de rotação do sistema de referência do espaço imagem para o sistema de

referência do espaço objeto;

� ),,( fyx ss − é o vetor de visada do ponto p no sistema do sensor modificado (com

origem no CP).

X

Y Z

xj

Imagem pushbroom

1P

2P

yj

pi

vi

zj

j

Ni

CP

-f

52

Desenvolvendo a Equação (43), tem-se que:

0

...

...

...

333231

232221

131211

3

2

1

=

−+

−+

−+

=

fryrxr

fryrxr

fryrxr

N

N

N

f

y

x

RN

ss

ss

ss

s

sr

(44)

Considerando o eixo x na direção do movimento da órbita, tem-se para um

determinado instante t que:

0

..

..

..0

)()(

3332

2322

1312

3

2

1

=

=

fryr

fryr

fryr

N

N

N

f

ytRtNts

ts

ts

ts

r (45)

2.4.4 Modelo de Coplanaridade com retas adaptado para a geometria de varredura

linear considerando dados de órbita

No modelo de Coplanaridade com retas, a matriz R da Equação (43) é

substituída pelo produto das matrizes Terreno

ÓrbitaR , Órbita

PlataformaR e PlataformaSensorR , que já foram previamente

definidas. Assim, o modelo de coplanaridade com retas, utilizando dados de órbita, é dado

por:

0

0

)()()( =

f

yRtRtRtN ts

PlataformaSensor

ÓrbitaPlataforma

TerrenoÓrbita

r (46)

2.5 Triangulação Multissensor com controle multi-feições

A triangulação multissensor exige a definição inicial dos modelos de sensor

(orientação interior) e de plataforma (orientação exterior), bem como o estabelecimento de

equações que permitam projetar entidades do espaço objeto para o espaço imagem e também,

53

as equações inversas. Essas entidades que relacionam ambos os espaços podem ser do tipo

ponto, reta ou área. Neste trabalho serão considerados apenas os modelos matemáticos

baseados em feições do tipo ponto e retas.

Para os sensores de quadro, o modelo de sensor é a câmara convencional e o

de plataforma é dado em função dos seis POE (três rotações e as coordenadas do CP). Para

sensores de varredura linear, os parâmetros da plataforma variam continuamente e podem ser

descritos por um grupo de polinômios, conforme apresentado na Seção 2.4.

Ao considerar o modelo de Colinearidade com pontos é possível gerar duas

equações para cada ponto observado, ao passo que ao se utilizar o modelo de Coplanaridade

com retas apenas uma equação é gerada para cada ponto (pertencente à reta) observado.

Assim, independente do tipo de sensor, é possível ajustar simultaneamente diferentes tipos de

imagens (quadro e varredura linear) considerando pontos e retas como elementos de controle.

Na Seção 3.2.1 apresenta-se o padrão das matrizes A (matriz das derivadas com relação aos

parâmetros) e N (matriz normal) do ajustamento para um caso hipotético considerando pontos

e retas como controle de campo.

54

3. MATERIAIS E MÉTODOS

3.1 Materiais

Os materiais utilizados neste trabalho foram:

� Receptor GNSS de dupla frequencia Hipper GGD;

� Softwares Microstation V8 e Borland C++ Builder 6;

� LPS (Leica Photogrammetry Suite);

� Bloco de imagens CBERS-2B, coletadas com a câmara HRC, que

apresentam um GSD de 2,5 metros.

3.2 Métodos

O objetivo principal deste trabalho consiste em estudar, adaptar e avaliar

experimentalmente modelos matemáticos rigorosos que usam pontos e retas na

Fototriangulação em blocos de imagens orbitais, em particular as imagens coletadas pelo

sensor HRC do satélite CBERS-2B.

Para tanto, algumas etapas foram realizadas, as quais podem ser divididas

em três classes:

1) Estudo teórico: definição dos modelos matemáticos para

Fototriangulação de imagens orbitais e estimação dos parâmetros

pelo MMQ;

2) Desenvolvimento de aplicativos: programa de simulação de imagens

sintéticas e programa TMS;

3) Experimentação: levantamento dos pontos e retas de apoio, medição

de pontos e retas nas imagens e; processamento dos dados e

avaliação dos resultados.

55

3.2.1 Estudo teórico

Nesta seção apresenta-se uma descrição detalhada tanto dos modelos

matemáticos utilizados para realizar a Fototriangulação de imagens orbitais bem como do

modelo estocástico, relacionado ao tratamento das observações e parâmetros no ajustamento.

É importante mencionar que os modelos de colinearidade e coplanaridade foram adaptados

para considerar as informações de órbita.

3.2.1.1 Modelos matemáticos para a Fototriangulação de imagens orbitais

A abordagem de triangulação multissensor, conforme Seção 2.5, exige a

definição de equações que permitam relacionar o espaço objeto e o espaço imagem. Para o

caso do sensor de varredura linear foram utilizados os modelos de Colinearidade com pontos

e Coplanaridade com retas, apresentados na Seção 2.4, e descritos em detalhes a seguir.

(1) Colinearidade (pontos) sem dados de órbita:

=

=

− Si

Si

Si

Tiss

s

ZZ

YY

XX

M

f

y

f

y

x

λ

0

(47)

Desenvolvendo a Equação (47), tem-se que:

)()()(.(0 312111 SiSiSiis ZZmYYmXXmx −+−+−== λ (48)

)()()(.( 232212 SiSiSiis ZZmYYmXXmy −+−+−= λ (49)

)()()(.( 333231 SiSiSii ZZmYYmXXmf −+−+−=− λ (50)

Por fim, dividindo as equações (48) e (49) por (50), tem-se que:

56

)Z.(Z)Y.(Y)X.(X

)Z.(Z)Y.(Y)X.(Xf0x

332313

312111

SiSiSi

SiSiSis mmm

mmm

−+−+−

−+−+−⋅−==

(51)

)Z.(Z)Y.(Y)X.(X

)Z.(Z)Y.(Y)X.(Xfy

332313

322212

CPiCPiCPi

CPiCPiCPis mmm

mmm

−+−+−

−+−+−⋅−=

(2) Coplanaridade (retas) sem dados de órbita:

0=

f

y

x

MN s

sr

(52)

Multiplicando a matriz de rotação M, pelo vetor de visada, tem-se que:

0

...

...

...

333231

232221

131211

3

2

1

=

−+

−+

−+

=

fmymxm

fmymxm

fmymxm

N

N

N

f

y

x

MN

ss

ss

ss

s

sr

(53)

em que:

−−−−−

−−−−−

−−−−−

=

×

=

=

))(())((

))(())((

))(())((

)(

)(

)(

)(

)(

)(

121112

112121

121112

1

1

1

12

12

12

3

2

1

YYXXYYXX

ZZXXZZXX

ZZYYZZYY

ZZ

YY

XX

ZZ

YY

XX

N

N

N

SS

SS

SS

S

S

S

Nr

(54)

Por fim, calculando o produto escalar do vetor normal ao plano de projeção

no espaço objeto ( Nr

) com o vetor de visada rotacionado, tem-se que:

0)...()...()....( 333231323222121312111 =−++−++−+ fmymxmNfmymxmNfmymxmN ssssss

(55)

Considerando xs = 0, tem-se que:

0)..()..()...( 333232322213121 =−+−+− fmymNfmymNfmymN sss (56)

57

(3) Colinearidade (pontos) com dados de órbita:

Ao considerar as informações de órbita foram utilizadas as matrizes de

rotação PlataformaSensorR Órbita

PlataformaR e TerrenoòrbitaR . A Equação (57) apresenta o modelo de colinearidade

considerando as informações de órbita.

[ ] [ ] [ ]

=

=

− S

S

S

TTerrenoÓrbita

TÓrbitaPlataforma

TPlataformaSensors

s

ZZ

YY

XX

RRR

f

y

f

y

x

λ

0

(57)

Considerando PlataformaSensor

ÓrbitaPlataforma

TerrenoÓrbita

TerrenoSensor RRRR ⋅⋅= , tem-se que:

[ ]

=

=

− S

S

S

TTerrenoSensorss

s

ZZ

YY

XX

R

f

y

f

y

x

λ

0

(58)

Desenvolvendo a Equação (58), têm-se as equações de colinearidade

(pontos) considerando informações de órbita:

)Z.(Z)Y.(Y)X.(X

)Z.(Z)Y.(Y)X.(Xf0x

332313

312111

SSS

SSSs rrr

rrr

−+−+−

−+−+−⋅−==

(59)

)Z.(Z)Y.(Y)X.(X

)Z.(Z)Y.(Y)X.(Xfy

332313

322212

CPCPCP

CPCPCPs rrr

rrr

−+−+−

−+−+−⋅−=

Nas Equações (59) e (63), rij (i e j variando de 1 a 3) são os elementos da

matriz de rotação TerrenoSensorR )( Plataforma

SensorÓrbitaPlataforma

TerrenoÓrbita

RRR ⋅⋅ .

(4) Coplanaridade (retas) com dados de órbita:

A Equação (60) apresenta o modelo de coplanaridade considerando

informações de órbita.

58

0=

f

y

x

RRRN s

s

PlataformaSensor

ÓrbitaPlataforma

TerrenoÓrbita

r (60)

Considerando PlataformaSensor

ÓrbitaPlataforma

TerrenoÓrbita

TerrenoSensor RRRR ⋅⋅= , tem-se que:

0=

f

y

x

RN s

s

TerrenoSensor

r (61)

Desenvolvendo a Equação (60), tem-se a equação de coplanaridade com

retas:

0)...()...()....( 333231323222121312111 =−++−++−+ fryrxrNfryrxrNfryrxrN ssssss (62)

Considerando xs = 0, tem-se que:

0)..()..()...( 333232322213121 =−+−+− fryrNfryrNfryrN sss (63)

3.2.1.2 Estimação dos parâmetros pelo MMQ

Para a estimação de parâmetros foi utilizado o método combinado com

injunção de peso (ver Apêndice A). O uso deste método de ajustamento exige definir as

observações e os parâmetros bem como os respectivos desvios-padrão. A partir dos desvios-

padrão é possível aplicar injunções relativas (com peso inversamente proporcional à variância

da injunção) nas observações e nos parâmetros.

Observações:

As coordenadas dos pontos e retas nas imagens, inicialmente, foram

medidas no sistema imagem CL. Em seguida, essas coordenadas foram transformadas para o

sistema do sensor modificado com origem no CP.

59

Embora a coordenada x no sistema do sensor seja nula (xs = 0), esta

coordenada é considerada uma observação, ou seja, a ela associa-se um resíduo (xs + υ).

Portanto, para cada ponto medido na imagem se tem duas observações, as quais recebem um

peso em função do erro de medida. Para as imagens CBERS-2B HRC foi considerado um

desvio padrão de 2 pixels para as observações.

Parâmetros:

Como parâmetros a serem estimados foram considerados os POE

(coeficientes polinomiais) bem como as coordenadas dos pontos e retas de controle e, em

alguns casos as coordenadas dos pontos fotogramétricos e de controle altimétrico

� Parâmetros de Orientação Exterior (POE):

Os POE permitem descrever a trajetória e orientação do sensor no intervalo

de coleta da imagem. Na Seção 2.4 foram apresentados dois conjuntos de POE (Equações

(37) e (42)). Devido à correlação entre os POE, os modelos de plataforma utilizados na seção

experimental estão apresentados nas Equações (64) e (65).

).(

).(

0

0

2440

2330

2220

2110

AbsolutaInj

AbsolutaInj

tbta

tbtaZZ

tbtaYY

tbtaXX

S

S

S

ωω

ϕϕ

κκ

=

=

++=

++=

++=

++=

(64)

É importante ressaltar que neste trabalho considerou-se que t (tempo)

apresenta uma relação linear com a linha (L) do ponto (t = t0 +k.L). Isto foi considerado, pois

a taxa de amostragem (k) é praticamente constante. Na Equação (64), os valores de 0ϕ e 0ω

foram considerados fixos e sem erro, ou seja, receberam uma injunção absoluta devido à alta

correlação existente entre estes parâmetros com X0 e Y0. É importante ressaltar que isso é

válido apenas quando se utiliza um sistema de coordenadas local. Neste trabalho foi utilizado

diretamente o sistema WGS84, o que alteraria estas correlações. Para minimizar o efeito

60

decorrente de considerar 0ϕ e 0ω constantes e sem erro, calculou-se o valor desses ângulos

em um pré-processamento considerando a posição do satélite (X0,Y0 Z0 – obtidos por

interpolação no arquivo de metadados) no instante t0 como conhecida. Assim, como a

precisão de X0,Y0 Z0 é da ordem de 100 metros, verificou-se, por meio de experimentos, que

o pequeno erro (gerado neste pré-processamento) nos ângulos 0ϕ e 0ω é absorvido pelos

demais POE. Neste caso, foram considerados 12 POE (coeficientes dos polinômios): X0,Y0

Z0, κ0, a1 a a4 e b1 a b4.

Oliveira et al. (2010) ajustaram os dados de efemérides (posição e

velocidade obtidas no arquivo de metadados – formato XML) do satélite CBERS-2B com

polinômios de primeira e segunda ordem e verificaram que os polinômios de segunda ordem

representam melhor a posição e velocidade do satélite no intervalo de coleta das imagens

CBERS-2B HRC, o que resultou na definição do modelo de plataforma apresentado na

Equação (65).

)Re.(

)Re.(

)Re.(

).(

).(

).(

)Re.(

)Re.(

)Re.(

2990

0

0

2660

2550

2440

2330

2220

2110

lativaInjtbta

lativaInjPP

lativaInjRR

AbsolutaInjtbtaVV

AbsolutaInjtbtaVV

AbsolutaInjtbtaVV

lativaInjtbtaZZ

lativaInjtbtaYY

lativaInjtbtaXX

ZZ

YY

XX

S

S

S

++=

=

=

++=

++=

++=

++=

++=

++=

ψψ

(65)

Na Equação (65), 654654000 ,,,,,,, bebbaaaVVV ZYX receberam injunções

absolutas, à medida que apresentam correlação com os parâmetros de posição, pois a

velocidade é calculada por meio da diferença de posição em um determinado intervalo de

tempo. Portanto, neste modelo de plataforma são considerados 14 POE: X0,Y0 Z0, R0, P0, ψ0,

a1, a2, a3, a9, b1, b2, b3 e b9. Os ângulos R0 e P0 foram considerados constantes para toda a

imagem, por apresentarem variação desprezível no intervalo (quatro segundos) de coleta da

imagem CBERS-2B HRC. Já para o ângulo de atitude Yaw (ψ) considerou-se uma variação

(representada pelos parâmetros a9, e b9), pois, como já citado, no satélite CBERS-2B é

aplicado um movimento para o lado denominado de crab movement (movimento em Yaw) no

61

processo de coleta das imagens. Os 14 POE receberam injunções relativas (com peso

inversamente proporcional às suas variâncias – σ2). Maiores detalhes sobre a matriz peso dos

parâmetros ( xP ) podem ser vistos no Apêndice A.

� Pontos e retas (controle, controle altimétrico):

As coordenadas dos pontos (X, Y e Z) e dos vértices das retas (X1, Y1, Z1,

X2, Y2 e Z2) de apoio receberam injunção relativa em função da qualidade do levantamento

com o receptor GNSS de dupla frequência. Maiores detalhes sobre o levantamento em campo

são apresentados na Seção 3.2.3. As coordenadas Z dos pontos de controle altimétrico

receberam injunção relativa em função da precisão do SRTM corrigido (σ = ±5 m). Com as

alturas geométricas dos pontos de apoio obtidas com o uso do receptor GNSS e com as alturas

geométricas destes mesmos pontos obtidas no SRTM, foi possível calcular as discrepâncias

em cada ponto. Foi calculada a média das discrepâncias e notou-se a presença de um erro

sistemático da ordem de 7 metros. Com esse valor foi possível corrigir o SRTM para a região

de interesse.

Após a definição dos parâmetros envolvidos na Fototriangulação de

imagens orbitais, nas Figuras 16 e 17 apresenta-se, para fins exemplificativos, o padrão da

matriz A (matriz das derivadas com relação aos parâmetros) e da matriz N (matriz normal)

para um caso hipotético considerando duas imagens (com 12 POE para cada imagem), 6

pontos e 6 retas. A Tabela 2 apresenta a ordem das matrizes A e N. É importante ressaltar que

para cada ponto observado duas equações (colinearidade) são geradas. Já para cada ponto da

reta observado apenas uma equação é gerada (coplanaridade).

Tabela 2: Ordem das matrizes A e N para o caso hipotético.

Matriz Linhas Colunas Linhas Colunas

A Número de

Equações (r)

Número de

parâmetros (u)

2*8+8=24

(2*obs_ptos+obs_retas)

2*12 + 3*6 + 6*6 = 78

(POE+3*num_pto+6*num_retas)

N Número de

parâmetros (u)

Número de

parâmetros (u)

78

78

62

Figura 16: Padrão da matriz A (derivadas com relação aos parâmetros).

Figura 17: Padrão da matriz N do ajustamento.

6

6

3 3

12

12

Pontos

Retas

POE

Imagem 1

Imagem 2

63

Como apresentado na Figura 17, as coordenadas dos pontos e retas de apoio,

embora pudessem ser consideradas como observações, foram definidas como parâmetros no

ajustamento. A justificativa se deve ao fato de considerar os pontos e retas como

fotogramétricos, ou seja, considerar as suas coordenadas como parâmetros. No caso de serem

controle basta aplicar um peso em suas coordenadas na matriz peso dos parâmetros ( xP ) (ver

Apêndice A).

No presente estudo não foram consideradas retas fotogramétricas, apenas de

apoio, devido à fraca geometria das imagens CBERS-2B HRC, que não permitiriam o cálculo

por intersecção. No entanto, a estrutura do TMS foi desenvolvida de forma a possibilitar o uso

de retas fotogramétricas (retas como incógnitas), desde que dois dos seis parâmetros sejam

fixados como injunção absoluta, o que se deixa como sugestão para trabalhos futuros.

É importante mencionar nesta seção que os ângulos de boresight (bX, bY e

bZ) da matriz PlataformaSensorR foram obtidos nos arquivos de metadados que acompanham as

imagens CBERS (ver Quadro 1). Esses ângulos foram fixados (considerados fixos e sem erro)

no ajustamento.

Quadro1: Ângulos de boresight (º) da câmara HRC - CBERS-2B.

3.2.2 Desenvolvimento de aplicativos

Programa de simulação de imagens sintéticas

De uma forma geral, a simulação é usada para reproduzir determinado

processo ou operação do mundo real. Um programa de simulação de imagens sintéticas tem

por objetivo determinar as coordenadas imagem (x,y) e/ou (C, L), referenciadas,

respectivamente, ao sistema do sensor e ao sistema imagem CL, a partir das coordenadas

(X,Y,Z) dos pontos do espaço objeto, e dos valores dos parâmetros de orientação interior e de

64

orientação exterior (neste caso, definidos por modelos polinomiais de segunda ordem). É

importante ressaltar que a essas coordenadas imagem são introduzidos erros randômicos.

Neste trabalho, conforme apresentado anteriormente, foram usados o

modelo de Colinearidade com pontos e o modelo de Coplanaridade com retas. Para a geração

de dados simulados, diferentes metodologias devem ser aplicadas para cada modelo

matemático.

Modelo de Colinearidade com pontos:

O modelo de colinearidade adaptado para a geometria do sensor de

varredura linear, conforme Seção 3.2.1, é dado por:

)Z.(Z)Y.(Y)X.(X

)Z.(Z)Y.(Y)X.(X0

333231

131211

SSS

SSSs rrr

rrrfx

−+−+−

−+−+−⋅−== (66)

)Z.(Z)Y.(Y)X.(X

)Z.(Z)Y.(Y)X.(X

333231

232221

SSS

SSSs rrr

rrrfy

−+−+−

−+−+−⋅−= (67)

O seguinte algoritmo foi utilizado para a geração de dados simulados:

Para cada linha da imagem

| Calcular os POE para a linha (a partir dos polinômios de 2ª ordem)

| Para cada ponto

| | Calcular as coordenadas x e y (Equações 66 e 67)

| | Se x for igual a 0

| | | Calcular as coordenadas C e L.

| | | Gerar erros randômicos e aplicar em C e L.

| | | Fornecer como resultado: identificador do ponto, C, L

| | Fim do Se

| Fim do para

Fim do para

Para o modelo de colinearidade considerando dados de órbita deve-se

aplicar o mesmo procedimento. A única diferença está no cálculo dos elementos da matriz de

rotação, que para o modelo orbital é função das três matrizes de rotação: PlataformaSensorR Órbita

PlataformaR e

Terreno

ÓrbitaR .

65

Modelo de Coplanaridade com retas:

Para o modelo de Coplanaridade com retas, inicialmente, projeta-se para o

espaço imagem as coordenadas dos vértices das retas (referenciadas ao sistema de referência

do espaço objeto) utilizando os parâmetros de orientação exterior de cada linha com as

equações de Colinearidade (Equações 66 e 67). Assim, para cada reta têm-se as coordenadas

de seus vértices referenciadas ao sistema do sensor - xp1, yp1, xp2 e yp2 (ver Figura 18). Com

essas coordenadas é possível definir a equação da reta (r) que passa por p1 e p2 e, a seguir,

calcular a intersecção de (r) com a reta x= 0. Se yp3 (resultado obtido da intersecção) estiver

entre yp1 e yp2, o ponto p3 pertence à reta. No exemplo apresentado na Figura 18 o ponto p3

não pertence à reta r.

Figura 18: Representação do processo de geração de dados simulados para o modelo de

Coplanaridade com retas.

Para uma melhor compreensão desse processo, apresenta-se o algoritmo

para geração de dados simulados utilizando o modelo de Coplanaridade com retas.

Linha (L)

xs

ys p3 Linha j

p1

p2

x = 0

r Coluna(C)

66

Algoritmo:

Para cada linha da imagem

| Calcular os parâmetros de OE (polinômios de 2ª ordem)

| Para cada reta

| | Calcular as coordenadas xp1, yp1, xp2 e yp2 (Equações 66 e 67)

| | Calcular a equação da reta (r) que passa por p1 e p2

| | Calcular a intersecção da reta (r) com a reta x = 0

| | Se yp2 maior que yp1

| | | Se yp3 está entre yp1 e yp2 (yp1<yp3< yp2)

| | | | Calcular C e L

| | | | Aplicar erro randômico em C e L

| | | | Fornecer como resultado: identificador do ponto, C e L

| | | Fim do Se

| | Fim do Se

| | Senão

| | | Se yp3 está entre yp2 e yp1 (yp2<yp3< yp1)

| | | | Calcular C e L

| | | | Aplicar erro randômico em C e L

| | | | Fornecer como resultado: identificador do ponto, C e L

| | | Fim do Se

| | Fim do Senão

| Fim do para

Fim do para

Desenvolvimento do programa TMS

Como apresentado na seção de contextualização da pesquisa (Seção 1.2),

Marcato Junior et al. (2009) incluiu no programa TMC, o modelo de colinearidade adaptado

para a geometria pushbroom, dando origem, assim, ao programa TMS (Triangulação

MultiSsensor).

Com o desenvolvimento da pesquisa atual, foi implementado no programa

TMS o modelo de colinearidade considerando dados de órbita bem como o modelo de

coplanaridade considerando e não dados de órbita (modelos matemáticos apresentados na

Seção 3.2.1).

Atualmente, a estrutura do TMS possibilita o processamento simultâneo

com o modelo de colinearidade e coplanaridade, ou seja, combinado pontos e retas de

controle na Fototriangulação. Além disso, permite o processamento simultâneo de

informações provenientes de sensores de quadro e de varredura linear. A Figura 19 apresenta

a estrutura de funcionamento do programa TMS.

67

O arquivo de projeto (param.prj) contém o nome dos arquivos de entrada,

bem como algumas informações que definem o projeto, como o número de câmaras, critério

de convergência, fator de variância a priori, dentre outros. No arquivo POI (.iop) é

apresentado o conjunto de parâmetros de orientação interior, que define o modelo do sensor.

No arquivo POE (.eop) define-se o tipo de sensor para cada imagem, bem

como o conjunto de POE que se deseja para o sensor de varredura linear, já que para o sensor

de quadro se tem apenas um conjunto único de 6 POE por imagem. Neste arquivo é possível

aplicar injunções (relativa ou absoluta) nos parâmetros. O arquivo de apoio (.gcp) apresenta as

coordenadas dos pontos e retas de apoio com seus respectivos desvios-padrão. Por fim, o

arquivo de observações contém as coordenadas imagem dos pontos e/ou retas associadas aos

desvios padrão.

No Apêndice C é apresentado exemplos de arquivos de entrada do programa

TMS.

Figura 19: Estrutura de funcionamento do programa TMS. Adaptado de Ruy (2008).

Sim

Não Atendeu ao critério de convergência?

ARQUIVOS DE ENTRADA: PARAM.PRJ � arquivo POI (.iop) � arquivo POE (.eop) � arquivo apoio (.gcp) � arquivo observação (.img)

Processamento:

� Formação direta da matriz de equações normais e cálculo da solução por Cholesky

Análise dos resíduos e cálculo das variâncias e covariâncias

Arquivo de saída: relatorio.rep

Fototriangulação com parâmetros adicionais

68

3.2.3 Experimentação

Alguns aspectos relacionados à parte experimental serão abordados nesta

seção, tais como: levantamento dos pontos e retas de apoio; medição dos pontos e retas na

imagem e; processamento dos dados e análise dos resultados.

Levantamento dos pontos e retas de apoio

Os pontos e retas de apoio foram levantados em campo com o uso do

receptor GNSS Hipper GGD de dupla frequência. Os pontos foram levantados no modo

estático com um tempo de rastreio de 15 minutos.

O processamento dos dados foi realizado utilizando o método de

Posicionamento por Ponto Preciso (PPP online) disponibilizado no site do IBGE. Para os

pontos de apoio, as precisões obtidas no processamento foram de 50 centímetros em

planimetria e 70 centímetros em altimetria. Para avaliar a acurácia, utilizou-se os dados da

estação PPTE da RBMC (Rede Brasileira de monitoramento contínuo) considerando um

tempo de rastreio de 15 minutos na mesma data dos levantamentos de campo. Com o

resultado do PPP, foi possível calcular o erro na estação PPTE, e verificou-se que a medida de

acurácia (erro) se encontra dentro do intervalo da medida de precisão (±σ).

O levantamento das retas de apoio foi realizado no modo cinemático. As

coordenadas coletadas no modo cinemático foram filtradas para eliminar pontos que

apresentassem um desvio-padrão maior que 1 metro e para estabelecer as coordenadas

representativas para cada segmento de rodovia.

Nessa última etapa foi aplicada uma condição de colinearidade 3D (ver

Figura 20) entre os pontos, de forma a assegurar que os pontos pertencem a uma determinada

reta. Na Figura 20, para verificar se o ponto P3 pertence ou não à reta definida pelos pontos P1

e P2, foram calculados: (1) distância do ponto P3 à reta; e (2) ângulos horizontal(θ) e

vertical(α). Assim, estabelecendo limiares (σL = ± 2,5m; σθ = ± 0,2°; σα = ±0,4°) foi possível

definir os pontos que pertencem às retas no espaço objeto. Com esse procedimento eliminou-

se os pontos referentes às curvas das rodovias bem como os pontos referentes à manobras (por

exemplo, ultrapassagem) do veículo.

Depois dessa análise, as coordenadas do centro das rodovias foram

calculadas aplicando um deslocamento (offset), que foi calculado por meio da trajetória do

69

veículo em ambas as direções da rodovia. Para o caso de pista dupla o veículo sempre

trafegou na pista da direita, permitindo, assim, aplicar a mesma técnica para calcular o centro

das rodovias.

Figura 20: Condição de colinearidade aplicada às retas de controle (rodovias).

Medição de pontos e retas nas imagens

A medição dos pontos e retas para os experimentos foi realizada

manualmente utilizando o programa LPS (Leica Photogrammetry Suite). A Figura 21 ilustra o

histograma bem como o contraste de um ponto na imagem CBERS-2B HRC. Ao observar o

histograma pode-se verificar que as imagens CBERS-2B HRC apresentam um pequeno

intervalo dinâmico, cerca de 40 tons de cinza, o que dificulta o processo de medição dos

pontos nas imagens causando um erro de 2 a 3 pixels neste processo.

0 255

(a)

(b) (c)

Figura 21: Imagem CBERS-2B HRC (a) Histograma da imagem; (b) Definição do ponto na

imagem original (c) e na imagem com ampliação do contraste.

P1

L

θ α

P2

Distância do ponto P3 à reta

P1P2

P3

70

Processamento dos dados e análise dos resultados

Após a coleta dos dados de campo e medição dos pontos nas imagens

(pontos de controle e pontos nas retas), a fototriangulação foi realizada no programa TMS. A

verificação da qualidade dos resultados, apresentados pelos modelos na Fototriangulação do

bloco de imagens CBERS, foi realizada com pontos de verificação independentes, os quais

permitiram calcular o EMQ (Erro Médio Quadrático) em suas coordenadas, e assim, verificar

a acurácia da Fototriangulação.

71

4. EXPERIMENTOS E RESULTADOS

Nesta seção são apresentados os resultados obtidos nos experimentos com

dados simulados e reais considerando a câmara CBERS-2B HRC. Os objetivos dos

experimentos são:

1) Analisar a influência das informações de órbita na Fototriangulação;

2) Comparar o modelo de Coplanaridade com retas com o modelo de

Colinearidade com pontos e estudar a combinação de ambos os

modelos;

3) Avaliar os resultados à medida que se reduz a quantidade de pontos

de apoio;

4) Verificar se existe vantagem em aplicar a Fototriangulação em bloco

quando comparada à orientação individual de cada imagem, para

imagens coletadas pelo sensor HRC que apresentam geometria de

intersecção fraca. A relação Base/Altura (B/H) de imagens coletadas

em órbitas adjacentes pelo sensor HRC é de aproximadamente 0,13.

Além disso, nos experimentos com dados simulados será possível avaliar a

influência na Fototriangulação dos erros de medida na imagem.

4.1 Experimentos com a câmara HRC: Dados simulados

As imagens sintéticas foram geradas a partir dos dados (distância focal,

tamanho do detector, atitude, efemérides, dentre outros) referentes às imagens 159-E_125-2 e

158-A_125-2, coletadas pelo sensor HRC. Algumas características técnicas utilizadas na

geração dos dados simulados da câmara HRC são apresentadas na Tabela 3.

Como apresentado por Machado e Silva (2009), existem algumas

divergências com relação ao valor da distância focal efetiva. Embora o valor nominal seja de

3300 mm, no Brasil utiliza-se o valor de 3398 mm para realizar o processo de correção

geométrica das imagens CBERS-2B HRC. Na China é usado o valor de 3396 mm. Neste

trabalho, como apresentado na Tabela 3, adotou-se o valor utilizado no Brasil, 3398 mm.

72

Tabela 3: Características técnicas do sensor HRC.

Distância focal (mm) 3398 Tamanho do detector (mm) 0,010 Tamanho da imagem (pixels) 12246x12246 Ângulos de boresight - bxº; byº; bzº -0,00277172; -0,00641415; 0,00874818

Fonte: INPE (2010); Machado e Silva (2009).

A seguir, são apresentados os resultados obtidos na Fototriangulação

utilizando os modelos de colinearidade (pontos) e coplanaridade (retas).

4.1.1 Modelo de Colinearidade com pontos

A Tabela 4 apresenta a configuração dos experimentos realizados com o

modelo de colinearidade. As Figuras 22 e 23 apresentam a distribuição dos pontos de apoio e

verificação.

Tabela 4: Descrição dos experimentos com dados simulados – Modelo de Colinearidade.

Experimento Pontos de

Apoio (PAs)

Pontos Fotogramétricos

(PFs)

Pontos de Controle

Altimétrico (PCAs)

Pontos de Verificação

(PVs)

Erro de medida (pixels)

Dados de

órbita Teste

1 Teste

2 A 40 - - 22 1,5 2,5 N B 40 26 - 22 1,5 2,5 N C 40 - 26 22 1,5 2,5 N D 40 - - 22 1,5 2,5 S E 40 26 - 22 1,5 2,5 S F 40 - 26 22 1,5 2,5 S G 12 - - 22 1,5 2,5 N H 12 26 - 22 1,5 2,5 N I 12 - 26 22 1,5 2,5 N J 12 - - 22 1,5 2,5 S K 12 26 - 22 1,5 2,5 S L 12 - 26 22 1,5 2,5 S

As características dos experimentos permitem:

� Comparar o Modelo de Colinearidade com Pontos considerando

dados de Órbita (MCPO) com o modelo de Colinearidade com

73

pontos (MCP- sem dados orbitais). Para tanto, basta comparar os

resultados obtidos nos experimentos D, E, F, I, K e L,

respectivamente, com os resultados obtidos em A, B, C, G, H e I;

� Analisar os resultados à medida que é reduzida a quantidade de

pontos de apoio e que se aumenta os erros de medida (Testes 1 e 2);

� Avaliar o uso de pontos fotogramétricos e de pontos de apoio

altimétrico na Fototriangulação em bloco. Isto permitirá verificar a

viabilidade da aplicação da Fototriangulação em bloco (Ajuste em

bloco) ao invés de aplicar a orientação individual de imagens. Para

tanto, basta comparar, por exemplo, os resultados obtidos nos

Experimentos B e C (Ajuste em bloco) com os resultados obtidos no

Experimento A (Orientação individual). No Experimento A, embora

os dados das duas imagens tenham sido processados em conjunto, o

resultado pode ser considerado similar ao obtido aplicando o

processo de orientação individual, pois nesse caso apenas pontos de

apoio foram considerados.

Figura 22: Conjunto de Pontos de apoio total (40) e pontos de verificação (22) – Simulação.

74

Figura 23: Conjunto de Pontos de apoio reduzido (12) e pontos de verificação (22) –

Simulação.

As informações de órbita nos experimentos D, E, F, J, K e L foram

consideradas por meio do modelo de plataforma definido pela Equação (65), por meio de

injunções absolutas e relativas nos POE. Na Tabela 5, apresenta-se o desvio-padrão

considerado para cada parâmetro. Esses valores são similares aos adotados nos experimentos

com dados reais.

Para estimar a magnitude destes desvios-padrão, inicialmente, os POE

foram calculados com o TMS considerando o número máximo de pontos e retas de apoio

disponível (54 pontos e 84 retas). Comparando o valor estimado dos POE com os valores

ajustados a partir do arquivo de metadados (OLIVEIRA et. al., 2010) calculou-se a

discrepância em cada parâmetro, permitindo, assim, definir o desvio-padrão relacionado a

cada parâmetro de orientação exterior.

Tabela 5: Desvio-padrão para cada parâmetro de orientação exterior.

Parâmetros de Orientação Exterior (POE) Desvio-padrão X0, Y0 e Z0 100 m

roll0, pitch0 e yaw0 4° a1, a2 e a3 0,4 (m/Linha) b1, b2, b3 0,000001 (m/Linha2)

Para cada experimento foram realizadas 40 repetições. Em cada repetição,

diferentes erros randômicos foram introduzidos nas observações (coordenadas imagem). Nos

75

POE aproximados foram introduzidas perturbações dentro do desvio-padrão definido na

Tabela 5. Os valores dos POE aproximados foram mantidos para todas as repetições.

Por se tratar de dados simulados, os POE são conhecidos, o que permite

calcular o erro verdadeiro em cada parâmetro. A média do erro verdadeiro e dos desvios-

padrão estimados para cada parâmetro de orientação exterior nas 40 repetições é apresentada

no Apêndice B.

Nas Figuras 24 e 25, apresenta-se para cada imagem a média dos EMQ

(Erro Médio Quadrático) para as 40 repetições, nas componentes planimétricas (X e Y) dos 22

pontos de verificação, para o Teste 1, considerando um erro aleatório de 1,5 pixel. Após a

estimação dos POE pelo programa TMS, neles foi aplicada uma transformação do sistema

WGS84 para o SGCL. As coordenadas (X e Y) dos pontos de verificação (referenciadas ao

Sistema Geodésico Cartesiano Local - SGCL) foram calculadas após a Fototriangulação

utilizando a Equação de Colinearidade Inversa. Neste método, as coordenadas imagem dos

pontos de verificação são projetadas para o espaço objeto utilizando a Equação de

Colinearidade em sua forma inversa. A componente altimétrica (Z) dos pontos de verificação

foi considerada conhecida. Este processo foi aplicado, pois, geralmente, essas imagens são

corrigidas com pontos de apoio e ortorretificadas utilizando o SRTM.

Figura 24: Médias do EMQ (m) (para 40 repetições) nos pontos de verificação considerando

um erro aleatório de 1,5 pixel (Teste 1) – Imagem 1.

MCP MCP MCP MCPO MCPO MCPO MCP MCP MCP MCPO MCPO MCPO (40) (40) (40) (40) (40) (40) (12) (12) (12) (12) (12) (12) PF PCA PF PCA PF PCA PF PCA

76

Figura 25: Média do EMQ (m) nos pontos de verificação considerando um erro aleatório de

1,5 pixel (Teste 1) – Imagem 2.

Ao analisar os resultados apresentados nas Figuras 24 e 25, nota-se que:

� O Modelo de Colinearidade com Pontos considerando dados de

Órbita - MCPO (experimentos D, E, F, J, K e L) proporcionou

melhores resultados quando comparado ao Modelo de

Colinearidade com Pontos - MCP (experimentos A, B C, G, H e

I). Verificou-se isto, principalmente, na componente X;

� A redução de pontos de apoio implicou em um aumento no

EMQ nos pontos de verificação;

� Em alguns casos houve melhora nos resultados ao considerar

Pontos Fotogramétricos (PFs) e Pontos de Apoio Altimétrico

(PAAs), principalmente para o modelo MCP. Isto fica ainda

mais evidente quando se reduz a quantidade de pontos de apoio

(Experimentos H e I). Já para o MCPO o uso de PFs e PAAs

não implicou em melhora significativa nos resultados. Em

geral, nem sempre há uma melhora significativa dos resultados,

o que pode ser justificado pela fraca geometria de intersecção

das imagens obtidas em órbitas adjacentes, que apresentam uma

relação B/H bastante pequena, aproximadamente 0,13.

MCP MCP MCP MCPO MCPO MCPO MCP MCP MCP MCPO MCPO MCPO (40) (40) (40) (40) (40) (40) (12) (12) (12) (12) (12) (12) PF PCA PF PCA PF PCA PF PCA

77

Nas Figuras 26 e 27, apresenta-se a média do EMQ (Erro Médio

Quadrático) nas componentes planimétricas (X e Y) dos pontos de verificação para o Teste 2,

considerando um erro aleatório de 2,5 pixel.

Figura 26: Média do EMQ (m) nos pontos de verificação para o Teste 2 (2,5 pixel) - Imagem 1.

Figura 27: Média do EMQ (m) nos pontos de verificação para o Teste 2 (2,5 pixel) - Imagem 2.

Por meio da análise dos resultados obtidos nos Testes 1 e 2, verifica-se que

o aumento do erro de medida implicou em um aumento do EMQ nos pontos de verificação.

MCP MCP MCP MCPO MCPO MCPO MCP MCP MCP MCPO MCPO MCPO (40) (40) (40) (40) (40) (40) (12) (12) (12) (12) (12) (12) PF PCA PF PCA PF PCA PF PCA

MCP MCP MCP MCPO MCPO MCPO MCP MCP MCP MCPO MCPO MCPO (40) (40) (40) (40) (40) (40) (12) (12) (12) (12) (12) (12) PF PCA PF PCA PF PCA PF PCA

78

Assim como no Teste 1, em alguns casos houve melhoras nos resultados ao

considerar Pontos Fotogramétricos (PFs) e Pontos de Apoio Altimétrico (PAAs),

principalmente para o modelo MCP. Já para o MCPO o uso de PFs e PAAs não implicou em

melhora significativa nos resultados

A análise das Figuras 26 e 27 permite verificar que neste caso, em que se

considerou um erro aleatório de 2,5 pixel, o modelo orbital (MCPO) não apresentou

resultados significativamente melhores (principalmente na imagem 2) quando comparado ao

modelo de colinearidade com pontos (MCP).

4.1.2 Modelo de Coplanaridade com retas

O objetivo principal desta seção consiste em apresentar os resultados

obtidos com o modelo de coplanaridade (retas) a partir de dados simulados referentes ao

sensor HRC. Além disso, serão apresentados os resultados obtidos com o ajuste simultâneo de

observações de pontos e retas na Fototriangulação. A Tabela 6 apresenta a configuração dos

experimentos.

Tabela 6: Descrição dos experimentos com dados simulados.

Experimento Retas de Apoio (RAs)

Pontos de Apoio (PAs)

Erro de medida (pixels)

Dados de

órbita Teste

1 Teste

2 A 42 - 1,5 2,5 N B 42 - 1,5 2,5 S C 42 12 1,5 2,5 N D 42 12 1,5 2,5 S

As características destes experimentos permitirão: (1) comparar o Modelo

de Coplanaridade com Retas considerando dados de Órbita (MCRO) com o Modelo de

Coplanaridade com Retas (MCR - sem dados orbitais); (2) analisar a influência do aumento

do erro de medida (Testes 1 e 2) e; (3) avaliar o uso combinado de pontos e retas na

Fototriangulação (Experimentos C e D). Os 12 pontos de apoio usados nos Experimentos C e

D são os mesmos que foram considerados na seção anterior – 4.1.1 (ver Figura 23).

79

Figura 28: Configuração das retas de controle (44).

Assim como apresentado na seção anterior, para cada experimento foram

realizadas 40 repetições. Nas Figuras 29 e 30, apresenta-se a média do EMQ nas componentes

planimétricas (X e Y) dos 22 pontos de verificação para os Testes 1 e 2, respectivamente.

Figura 29: EMQ (m) nos pontos de verificação – Teste 1 (a) Imagem 1; (b) Imagem 2.

MCR MCRO MCR/ MCRO/ MCP MCPO

(a)

MCR MCRO MCR/ MCRO/ MCP MCPO

(b)

80

Figura 30: EMQ (m) nos pontos de verificação – Teste 2 (a) Imagem 1; (b) Imagem 2.

A análise das Figuras 29 e 30 permite afirmar que:

� o MCRO, em geral proporcionou melhores resultados quando

comparado ao MCR;

� a combinação de pontos e retas (Experimentos C e D) implicou em

uma melhora significativa nos resultados. Por exemplo, no

Experimento C (Figura 30.b) quando comparado ao Experimento A

houve uma melhora de aproximadamente 2 metros no EMQ da

componente X;

� O aumento do erro de medida implicou, como já esperado, em um

aumento no EMQ nos pontos de verificação.

4.2 Experimentos com a câmara HRC: Dados reais

Foram realizados experimentos com um bloco composto por quatro imagens

do nível 1 (com apenas correção radiométrica) coletadas pelo sensor HRC (ver Figura 31). As

imagens são de órbitas adjacentes (158 e 159), de forma que as imagens 159-E_125-1 e 159-

E_125-2 foram coletadas no mesmo dia e as imagens 158-A_125-1 e 158-A_125-2 foram

adquiridas em diferentes datas (ver Quadro 2). Essas imagens englobam os municípios de

Rancharia, Quatá, João Ramalho, Bastos e Tupã, localizados a oeste do estado de

MCR MCRO MCR/ MCRO/ MCP MCPO

(a)

MCR MCRO MCR/ MCRO/ MCP MCPO

(b)

81

São Paulo (-22°18’<φ <-21°52’; -50°52’< λ <-50°23’). É importante enfatizar que para este

caso as imagens de órbitas adjacentes apresentam uma geometria fraca para a intersecção

apresentando uma relação Base/Altura (B/H) de aproximadamente 0,13.

Quadro 2: Data de coleta das imagens CBERS-2B HRC.

Identificador da Imagem Data de coleta

159-E_125-1 11/09/2008

159-E_125-2 11/09/2008

158-A_125-1 10/10/2008

158-A_125-2 10/04/2009

Figura 31: Configuração do bloco de imagens CBERS-2B HRC.

As características técnicas da câmara HRC foram apresentadas na seção 4.1.

Cabe ressaltar que a distância focal (3398 mm) foi fixada (considerada constante e sem erro)

na Fototriangulação. O ponto principal foi considerado na posição central da linha, coluna

6123. Foram realizados experimentos variando a quantidade de pontos de apoio, como

apresentado a seguir.

82

Controle de campo: conjunto total (54 pontos de apoio e 84 retas de apoio):

A Tabela 7 apresenta a descrição dos experimentos, ou seja, o modelo

matemático utilizado e a quantidade de pontos e retas de apoio usados em cada experimento.

Tabela 7: Configuração dos experimentos com dados reais.

Experimentos Modelo matemático Pontos de apoio (PAs)

Retas de Apoio (RAs)

A MCP – Modelo de Colinearidade com pontos 54 0 B MCR – Modelo de Coplanaridade com retas 0 84 C MCP/MCR 54 84 D MCPO – Modelo de Colinearidade com Pontos

considerando dados de Órbita 54 0

E MCRO – Modelo de Coplanaridade com Retas considerando dados de Órbita

0 84

F MCPO/MCRO 54 84

Nos modelos MCP e MCR foram usados o modelo de plataforma com 12

parâmetros, definido na Seção 3.2.1.2 pela Equação (64). Já os modelos MCPO e MCRO

usaram o modelo de plataforma com 14 parâmetros, descrito pela Equação (65).

Ao analisar a Tabela 7, verifica-se que foram utilizadas mais retas do que

pontos nos experimentos. Isto se justifica em termos práticos, pois parece natural que o tempo

gasto para levantar um ponto de apoio (levantamento estático) permita o levantamento de

várias retas de apoio (levantamento cinemático). Do ponto de vista operacional, o percurso até

os pontos de apoio pode ser aproveitado para o levantamento de retas de apoio.

Nas Figuras 32 e 33 apresentam-se, respectivamente, as configurações dos

pontos e retas de apoio.

83

Figura 32: Configuração dos pontos de apoio (54) e verificação (14).

Figura 33: Configuração das retas de apoio (84).

O processamento dos dados foi realizado no TMS. Para analisar a qualidade

do ajustamento foi aplicado o teste de hipótese Qui-quadrado (ver Apêndice A), que compara

o valor do fator de variância a priori )( 20σ com o fator de variância a posteriori )ˆ( 2

0σ . A

análise da Tabela 8, que apresenta os valores desse teste, permite afirmar que a hipótese

básica ( <20σ̂ )2

0σ foi rejeitada para todos os experimentos, considerando um nível de

significância de 5%. Essa rejeição ocorreu devido aos resíduos nos pontos e retas de apoio

que, em geral, se apresentaram maiores que o 0σ (2 pixels). Estes resultados apontam para

uma possível presença de erros sistemáticos não modelados.

84

Tabela 8: Teste de hipótese qui-quadrado para os experimentos com dados reais – Conjunto

total de pontos e retas de apoio.

Experimentos

( 220 1mm=σ )

pixels20 =σ

Sigma a

posteriori )ˆ( 20σ

Graus de

liberdade (S)

Qui-

quadrado

calculado

)( 2cχ

Qui-quadrado

teórico

)),05,0(( 2 Scχ

A (MCP) 3,2984309 132 435,39 159,81

B (MCR) 1,8407718 337 620,34 380,81

C (MCP/MCR) 2,4427395 517 1262,9 571,00

D (MCPO) 2,6020381 172 447,55 203,60

E (MCRO) 1,8345224 377 691,61 423,27

F (MCPO/MCRO) 2,3973069 557 1335,3 613,01

Em seguida, realizou-se a análise dos resultados por meio do EMQ nas

coordenadas dos 14 pontos de verificação. A Figura 34 apresenta o EMQ nas componentes X

e Y dos pontos de verificação para cada imagem.

Ao analisar os resultados apresentados na Figura 34, nota-se que o modelo

de colinearidade com pontos apresentou melhores resultados na imagem 1 (ver Figura 34.a).

Em contrapartida, na imagem 4 (Figura 34.d) o modelo de coplanaridade com retas

apresentou resultados superiores. Um aspecto que deve ser ressaltado é a combinação de

ambos os modelos matemáticos que, em certos casos, proporciona uma melhora nos

resultados. Como exemplo, para a imagem 2 (ver Figura 34.b), houve uma melhora na

estimação das coordenadas X e Y nos Experimentos C2 e F2, que combinam pontos e retas.

Além disso, verifica-se que, em geral (exceto para o MCR na imagem 3 –

Experimento B3), o EMQ é maior na componente X (com valores maiores que 3 GSDs – 7,5

m), o que aponta novamente para a presença de um erro sistemático não modelado na

geometria interna do sensor HRC, que afeta a estimação da componente X.

85

Figura 34: EMQ (m) nos pontos de verificação (a) Imagem 1; (b) Imagem 2; (c) Imagem 3 e

(d) Imagem 4.

Neste caso, em que se considerou um grande número de elementos de

controle em campo (54 pontos de apoio e 84 retas de apoio), não ficou evidente a influência

das informações de órbita nos resultados, ou seja, os modelos MCPO e MCRO não

apresentaram resultados superiores, quando comparados, respectivamente, aos modelos MCP

e MCR.

Foram realizados experimentos utilizando pontos fotogramétricos e pontos

de apoio altimétrico (com a altitude dos pontos obtidas do SRTM). No entanto, em

contraposição aos resultados obtidos nos experimentos com dados simulados, houve um

aumento no EMQ dos pontos de verificação em todos os experimentos, o que pode ser

justificado pela incerteza na geometria interna do sensor HRC combinado com a fraca

geometria de intersecção (pequena relação B/H).

O levantamento de apoio é uma atividade bastante onerosa. Portanto,

dependendo da finalidade, é necessário definir a quantidade adequada de pontos de apoio a

MCP MCR MCP/ MCPO MCRO MCPO/ MCR MCRO

(a)

MCP MCR MCP/ MCPO MCRO MCPO/ MCR MCRO

(b)

MCP MCR MCP/ MCPO MCRO MCPO/ MCR MCRO

(c)

MCP MCR MCP/ MCPO MCRO MCPO/ MCR MCRO

(d)

86

serem levantados em campo. Em seguida, são apresentados os resultados de testes com a

redução da quantidade de pontos de apoio.

Controle de campo: conjunto reduzido 1 (23 pontos de apoio no bloco):

Nessa seção são apresentados os resultados obtidos utilizando o modelo de

Colinearidade considerando e não dados de órbita (Experimentos A e D), com apenas 23

pontos de apoio (Figura 35).

Figura 35: Distribuição dos 23 pontos de apoio.

Na Figura 36, apresenta-se o EMQ referente aos experimentos A (MCP) e D

(MCPO) para as quatro imagens.

Figura 36: EMQ(m) nos pontos de verificação – Experimentos com 18 pontos de apoio.

Imagem 1 Imagem 2 Imagem 3 Imagem 4

87

Neste caso, mesmo considerando apenas 23 pontos de apoio não se

verificou uma melhoria dos resultados com a introdução das informações de órbita na

Fototriangulação (modelos MCPO e MCP).

Com exceção da imagem 3 (Experimentos A3 e B3), o EMQ na componente

X é maior quando comparado à componente Y. Estes resultados indicam claramente que há

erros sistemáticos não modelados na geometria interna do sensor.

Controle de campo: conjunto reduzido 2 (7 pontos de apoio por imagem):

Foram realizados experimentos considerando apenas sete pontos de apoio

por imagem (ver Figura 37). A Figura 38 apresenta o EMQ nos pontos de verificação.

Figura 37: Distribuição dos 14 pontos de apoio (7 PA por imagem).

Figura 38: EMQ nos pontos de verificação – Experimentos com 7 pontos de apoio.

MCP MCPO MCP MCPO MCP MCPO MCP MCPO

Imagem 1 Imagem 2

Imagem 3

Imagem 4

88

A análise da Figura 38 permite afirmar que, neste caso, com sete pontos de

apoio, há um aumento no EMQ nos pontos de verificação. Na imagem 2 o EMQ com o

modelo MCPO, apresentou melhores resultados quando comparado ao modelo MCP.

Controle de campo: conjunto reduzido 3 (5 pontos de apoio por imagem):

Foram realizados experimentos considerando apenas 5 pontos de apoio por

imagem (ver Figura 39). Neste caso, é possível apenas utilizar o modelo de colinearidade com

dados de órbita (MCPO), pois são aplicadas injunções nos POE. Já no modelo de

colinearidade com pontos (MCP) necessita-se de pelo menos 6 pontos de apoio por imagem.

A Figura 40 apresenta o EMQ nos pontos de verificação.

Figura 39: Distribuição dos 11 pontos de apoio (5 PA por imagem).

Os resultados apresentados na Figura 40 (EMQ nos pontos de verificação)

mostram a importância de se considerar as informações de órbita no ajustamento, pois com

essa quantidade de pontos por imagem não é possível se ter uma solução com o MCP.

Verifica-se que houve um aumento significativo no EMQ nos pontos de verificação, como já

era esperado com a redução do número de pontos de apoio.

89

Figura 40: EMQ (m) nos pontos de verificação – Experimento D com 5 pontos de apoio.

Em termos práticos, quando é realizado o levantamento de pontos de apoio

(ainda que poucos) é possível, sem grandes dificuldades, levantar retas de apoio, desde que

instalado no veículo um receptor GNSS de dupla frequência. Sendo assim, apresenta-se a

seguir, por meio da Figura 41, os resultados considerando 5 pontos de apoio e 84 retas de

apoio (cerca de 30 retas por imagem).

Figura 41: EMQ (m) nos pontos de verificação considerando 5 PAs e 84 RAs.

Imagem 1

Imagem 2

Imagem 3

Imagem 4

Imagem 1 Imagem 2 Imagem 3 Imagem 4

90

Verifica-se, por meio da Figura 41, que ao considerar as retas de apoio há

uma melhora nos EMQs, quando comparado à solução com apenas 5 pontos de apoio por

imagem, ressaltando a importância da combinação de pontos e retas na Fototriangulação de

imagens orbitais.

4.2.1 Discussão dos experimentos com dados reais

Nos experimentos com dados reais, o EMQ na componente X dos pontos de

verificação, em geral, foi maior que 7,5 metros (3 GSDs), mesmo nos experimentos com o

número total de controle de campo. Além disso, alguns pontos apresentaram discrepâncias

maiores que 20 metros. Uma das causas deste erro na Fototriangulação estão relacionadas

com a distribuição e medição de pontos e retas nas imagens. Como apresentado na Seção

3.2.3, as imagens CBERS-2B HRC apresentam um pequeno intervalo dinâmico, cerca de 40

tons de cinza, o que dificulta o processo de medição dos pontos e retas nas imagens causando

um erro da ordem de dois pixels neste processo.

Além disso, Carvalho et al. (2009) mostraram que o GEIFOV (Ground

Effective Instantaneous Field of View) nas direções along e across-track para as imagens

HRC são, respectivamente, próximos de 4,1m e 4,6m, embora o GSD nominal seja de 2,5 m.

Um aspecto que afetou significativamente está relacionado à imprecisão na

definição do modelo do sensor HRC, como apresentado por Silva et al. (2009). O sensor HRC

é composto por três matrizes de detectores (ver Figura 42), de forma que as matrizes 1 e 3,

alinhadas entre si, distam no sentido de voo de 26 mm da matriz 2 (MACHADO E SILVA,

2009). Como consequência do não alinhamento entre os sensores e do movimento de rotação

da Terra, é necessário aplicar um movimento lateral (crab movement - movimento de

caranguejo) combinado com o movimento do satélite, de forma que a área imageada pela

matriz de detectores 2 apresente sobreposição com relação às matrizes 1 e 3 (EPHIPANIO,

2009). A área de sobreposição entre as imagens coletadas por cada matriz de detectores,

embora pequena (8,5 pixels) (MACHADO e SILVA, 2009), permite a aplicação de técnicas

de correspondência entre as áreas comuns. Aplicando uma translação e fusão da imagem

central com as laterais, geram-se imagens com 12246 colunas, que são disponibilizadas para

os usuários. Isto, entretanto, causa um erro na geometria interna da imagem, pois há uma

diferença no instante de aquisição para linhas correspondentes.

91

Figura 42: Descrição do plano focal do sensor HRC. Fonte: Epiphanio (2009).

Para avaliar a qualidade do procedimento de geração da imagem completa

(12246 colunas), foram realizados processamentos com três conjuntos de dados:

(1) Processamento considerando apenas os pontos de apoio observados

pela matriz 2 (colunas 4082 à 8164);

(2) Processamento com apenas os pontos de apoio observados pelas

matrizes 1 e 3 (colunas: 0 à 4082; e 8164 à 12246). As observações

referentes às matrizes 1 e 3 foram processadas em conjunto, pelo fato

de que essas matrizes de detectores estão alinhadas e;

(3) Processamento com os pontos de apoio observados em toda a imagem.

A Tabela 9 apresenta o EMQ nos pontos de apoio para as quatro imagens

considerando os diferentes conjuntos de dados.

92

Tabela 9: EMQ nos pontos de apoio considerando diferentes configurações de dados.

Configuração (3) Configuração (1) Configuração (2)

EMQ (m) EMQ (m) EMQ(m)

X Y X Y X Y

Imagem 1 9,59 3,97 1,84 2,65 3,50 4,68

Imagem 2 9,39 5,15 3,47 3,08 3,35 2,30

Imagem 3 10,32 6,75 3,12 2,66 4,79 4,86

Imagem 4 10,97 4,55 3,55 3,23 5,60 3,88

Ao analisar a Tabela 9, verifica-se que ao considerar os pontos de apoio

observados em toda a imagem (configuração 3) há uma tendência na componente X, como já

havia sido observado nos experimentos anteriores (ver Figura 34). Esta tendência não ocorre

nas configurações 1 e 2, o que aponta para problemas no procedimento de fusão das imagens

coletadas pelas matrizes de detectores.

Portanto, o processo de geração da imagem completa não possibilita a

obtenção de resultados com alta precisão usando os modelos rigorosos testados. Como

alternativas a este problema se têm:

(1) corrigir a imagem da matriz central (matriz 2 – Figura 42) antes de

fazer a correspondência e a fusão das imagens e;

(2) alterar o modelo rigoroso (físico) com duas possibilidades:

(i) não considerar a coordenadas x nulas. As coordenadas das

linhas 1 e 3 apresentariam valores de -13 mm, e da linha 2

seria de +13 mm (diferença de 26 mm – distância entre as

barras de sensores) ou;

(ii) considerar as coordenadas x observadas para as 3 barras como

nulas e compensar o deslocamento das barras introduzindo 2

ângulos pitch (P), simulando duas câmaras, com a

desvantagem de acrescentar um parâmetro adicional. Essas

alternativas são deixadas para trabalhos futuros.

93

5. CONCLUSÕES

5.1 CONSIDERAÇÕES FINAIS

O objetivo principal deste trabalho consistiu em estudar, adaptar e avaliar

experimentalmente modelos matemáticos rigorosos para realizar a Fototriangulação em bloco

de imagens orbitais. Os modelos matemáticos que relacionam os espaços objeto e imagem se

baseiam nas condições de colinearidade (pontos) e coplanaridade (retas). Esses modelos

foram adaptados para considerar as informações de órbita na Fototriangulação.

Foram realizados experimentos com dados simulados e reais referentes ao

sensor CBERS-2B HRC utilizando o programa TMS. Objetivou-se, por meio da configuração

dos experimentos, responder a algumas questões fundamentais. A primeira questão refere-se à

possível vantagem em aplicar a Fototriangulação em bloco ao invés de realizar a orientação

individual em imagens que apresentam uma geometria fraca para a intersecção (apresentando

uma relação Base/Altura (B/H) de aproximadamente 0,13), como é caso das imagens obtidas

em órbitas adjacentes pelo sensor CBERS-2B HRC. Por meio dos resultados com dados

simulados notou-se que há uma melhora, ainda que não tão significativa, quando se utiliza

pontos fotogramétricos ou pontos de apoio altimétrico. No entanto, isto não foi confirmado

nos experimentos com dados reais. Como justificativa destes resultados verificou-se presença

de erros sistemáticos não modelados, devido ao não alinhamento entre as barras de sensores, o

que não ocorre com dados simulados.

A segunda questão está relacionada à importância em considerar as

informações de órbita na Fototriangulação. Nos experimentos com dados simulados notou-se

que, em geral, os modelos que utilizam informação de órbita proporcionaram melhores

resultados. Já nos experimentos com dados reais, isto não ficou evidente ao analisar o EMQ

nos pontos de verificação. Um aspecto a ser destacado, é que com os modelos MCPO e

MCRO foi possível se ter solução com apenas 5 pontos de apoio por imagem, o que não é

possível com os modelos MCP e MCR, que não utilizam informações de órbita.

Um terceiro aspecto consiste em comparar os modelos de colinearidade

(pontos) e coplanaridade (retas) bem como em avaliar a combinação de ambos os modelos na

Fototriangulação. Os resultados dos modelos dependem da quantidade e da distribuição dos

pontos e retas de apoio nas imagens. Para algumas imagens o modelo de colinearidade

94

(pontos) apresentou melhores resultados, já para outras se obteve resultados superiores com o

modelo de coplanaridade (retas). De uma forma geral, pode-se afirmar que ambos os modelos

são complementares, ou seja, o uso combinado melhora significativamente os resultados da

Fototriangulação. Este resultado tem grande importância prática, pois, quando é realizado o

levantamento de pontos de apoio é possível, sem grandes dificuldades, levantar retas de apoio,

desde que instalado no veículo um receptor GNSS de dupla frequência. Neste caso, ao

combinar pontos e retas, haveria uma redução significativa na quantidade de pontos de apoio,

o que diminuiria substancialmente o tempo gasto em campo, reduzindo o custo financeiro do

levantamento.

De uma forma geral, o EMQ nos pontos de verificação obtidos com o sensor

CBERS-2B HRC apresentaram valores maiores quando comparado aos resultados alcançados

com sensores de outros satélites. Por exemplo, para os sensores PRISM/ALOS (KOCAMAN

e GRUEN, 2008, p. 733) e EIOp/EROS A-1 (TONOLO e POLI, 2003; POLI, 2005, p. 171)

foram obtidos resultados em torno de 1 e 2 GSDs na reconstrução dos pontos de verificação.

Neste estudo, mesmo considerando uma grande quantidade de pontos e retas de apoio, o EMQ

nos pontos de verificação, em geral, foram maiores que 3 GSDs. Isto pode ser justificado pelo

fato de que as imagens CBERS-2B HRC apresentam um erro sistemático devido ao não

alinhamento das barras dos sensores. Além disto, as imagens apresentam um pequeno

intervalo dinâmico (cerca de 40 tons de cinza) o que dificulta o processo de identificação de

pontos e retas de apoio.

Com relação ao modelo do sensor, outros problemas podem ser destacados,

como a discrepância na distância focal e a incerteza na posição do ponto principal. É

importante mencionar que a HRC é uma câmara experimental que não apresenta finalidade

comercial.

Apesar destes problemas, ao ajustar em bloco considerando as barras do

sensor HRC separadas, foram obtidos, com o modelo rigoroso, resultados plenamente

satisfatórios, compatíveis com os demais sensores orbitais de resolução equivalente, o que

motiva o desenvolvimento de mais estudos sobre a melhor forma de corrigir e fundir as

imagens das diferentes barras dos sensores.

No Brasil, os modelos rigorosos, embora propiciem soluções mais acuradas,

são frequentemente evitados em favor dos modelos generalizados (DLT, RPF, Afim 3D,

dentre outros), mesmo em casos onde se conhece a priori os parâmetros de aquisição do

sistema, devido, provavelmente, à facilidade de implementação dos modelos generalizados.

Assim, este trabalho apresenta relevância no cenário nacional, na medida em que apresenta

95

um estudo teórico, adaptações para se considerar informações de órbita e uma avaliação

experimental de modelos rigorosos para realizar a Fototriangulação em bloco de imagens

orbitais, que, atualmente, podem ser consideradas a principal fonte de informação espacial.

5.2 SUGESTÕES PARA TRABALHOS FUTUROS

O uso de modelos rigorosos exige o conhecimento acurado da geometria

interna do sensor. No caso de sensores orbitais, que sofrem grandes variações de ambiente ao

serem lançados em órbita, os valores calibrados em laboratório podem sofrer variações, o que

aponta para a necessidade de realizar a calibração em serviço após a estabilização do satélite,

bem como ao longo da vida útil do satélite. Neste contexto, sugere-se para trabalhos futuros

realizar a Calibração em serviço dos sensores que virão a compor os próximos satélites

CBERS.

Outro aspecto importante na Fototriangulação e na Calibração em serviço

está relacionado à qualidade das medidas dos elementos de controle nas imagens. Portanto,

devem ser desenvolvidas técnicas para melhorar a medição de pontos e retas em imagens de

baixo contraste. Um problema existente na medição de retas, e principalmente, de pontos em

imagens de baixo contraste, é a falsa identificação dessas entidades de controle, o que realça a

necessidade de desenvolver técnicas para automatizar a Fototriangulação.

Para trabalhos futuros, sugere-se realizar estudos de forma a viabilizar e

comparar as alternativas propostas, como corrigir a imagem da matriz central antes de fazer a

fusão das imagens ou alterar o modelo rigoroso (físico) para o sensor HRC.

Além disso, podem ser realizados estudos para utilizar o mesmo modelo de

plataforma para imagens coletadas na mesma data. Assim, haveria uma redução na quantidade

de POE. Uma menor quantidade de parâmetros implicaria em uma redução da quantidade de

elementos de controle (pontos e retas) a serem levantados em campo.

Outra possibilidade é testar os modelos matemáticos desenvolvidos neste

trabalho para imagens obtidas por sensores de outros satélites. O estudo detalhado da

distribuição de pontos e retas nas imagens para realizar a Fototriangulação ou a Calibração em

serviço pode ser objeto de estudo para trabalhos futuros.

O desenvolvimento do TMS, seguindo a abordagem de triangulação

multissensor, possibilita o processamento simultâneo de dados obtidos por sensores de quadro

96

e de varredura linear. Portanto, podem ser realizados experimentos combinando dados obtidos

de sensores de quadro e de varredura linear. As imagens coletadas por estes sensores

apresentam diferentes escalas, portanto, podem ser desenvolvidas técnicas de matching

multiescala para realizar a correspondência entre as imagens (quadro e varredura linear).

97

REFERÊNCIAS

ARCANJO, J. S.; FERREIRA, N. C. R. Comportamento do sensor de estrelas a bordo do satélite CBERS-2B na região da Anomalia Magnética do Atlântico Sul (AMAS). In: Simpósio Brasileiro de Sensoriamento Remoto, XIV, 2009, Natal. Anais... Natal, 2009. p. 1935–1941. BAZAN, W. S. Calibração de um Sistema Dual de Câmaras Digitais. 2008. Dissertação (Mestrado) – Faculdade de Ciência e Tecnologia, Universidade Estadual Paulista, Presidente Prudente. CARVALHO, L. A. S.; STRAUSS C.; FONSECA, L. M. G. Determinação da resolução efetiva da câmera HRC-CBERS-2B pelo método de espalhamento de borda. In: Simpósio Brasileiro de Sensoriamento Remoto, XIV, 2009, Natal. Anais... Natal, 2009. p. 1975–1982. CRUZ, C. B.; BARROS, R. S; REIS, R. B. Ortoretificação de imagens CBERS2 usando DEM do SRTM – Área de aplicação: Angra dos Reis – RJ. In: Simpósio Brasileiro de Sensoriamento Remoto, XII, 2005, Goiânia. Anais..., Goiânia, 2005. p. 899–906. DAL POZ, A. P., SCALCO, J. C. Orientação semi-automática de imagens CBERS usando rodovias como controle de campo. Boletim em Ciências Geodésicas, v. 12, n. 2, p. 295 – 313, 2006. DEBIASI, P. D.; SOUZA, S. F., MITISHITA, E. A. Ortorretificação de imagens CBERS através da transformação DLT. In: Congresso Brasileiro de Geoprocessamento, XXIII, 2007, Rio de Janeiro. Anais..., Rio de Janeiro, 2007. DEREN, L.; JIAYU, C. Bundle adjustment of Spot imagery. In: ISPRS Congress, XVI, 1988, Kyoto. International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Kyoto : ISPRS, 1988. p. 449-455. DOWMAN, I. Fundamentals of digital photogrammetry. In: ATKINSON, K. B. Close Range Photogrammetry and Machine Vision. Department of Photogrammetry and Surveying: University College London.Whittles Publishing, 1996. p. 52-77. DOWMAN, I. J.; MICHALIS, P. Generic rigorous model for along track stereo satellite sensors. In: ISPRS Workshop on High Resolution Mapping from Space, 2003, Hannover. Proceedings…Hannover: ISPRS, 2003. EPIPHANIO, J. C. N. CBERS: estado atual e futuro. In: Simpósio Brasileiro de Sensoriamento Remoto, XIV, 2009, Natal. Anais... Natal, 2009. p. 2001–2008. FRITSCH, D.; STALLMANN, D. Rigorous photogrammetric processing of high resolution satellite imagery. In: ISPRS Congress, XIX, 2000, Amsterdam. Proceedings… Amsterdam: ISPRS, 2000. v. XXXIII. GALO, M. ; TOMMASELLI, A. M. G. ; HASEGAWA, J. K. ; RUY, R. da S. ; REIS, T. T. . Mudança da temperatura e efeitos na calibração de câmaras digitais: estudo de caso. In:

98

SIMGEO - SIMPÓSIO BRASILEIRO DE CIÊNCIAS GEODÉSICAS E TECNOLOGIAS DA GEOINFORMAÇÃO, III, 2010, Recife. Anais... Recife, 2010. v. 1. p. 1-8. GEMAEL, C. Ajustamento de observações: aplicações à Geodésia. Curitiba: UFPR, 1994. 319p. GRODECKI, J. IKONOS Stereo Feature Extraction – RPC Approach. In: ASPRS annual conference, 2001, St. Louis. ASPRS 2001 Proceedings, St. Louis, 2001. GUGAN, D. J. Pratical Aspects of Topographic Mapping from SPOT Imagery. Photogrammetric Record, v. 12, n. 69, p. 349-355, 1987. HABIB, A.; KELLEY, D.; ASMAMAW, A. Utilizing Straight Lines in Object Space for Linear Array Scanner Imagery. In: International Congress of Photogrammetry and Remote Sensing, 2000, Amsterdam. International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences. Amsterdam: ISPRS, 2000. HABIB, A., Y. LEE; M. MORGAN. Bundle Adjustment with Self-Calibration of Line Cameras using Straight Lines. In: Joint Workshop of ISPRS WG I/2, I/5 and IV/7: High Resolution Mapping from Space, 2001, Hanover. Proceedings… University of Hanover, 2001. HABIB, A.; MORGAN, M. F. Linear Features in Photogrammetry. Boletim de Ciências Geodésicas, Curitiba, Pr, v. 9, n. 1, p. 3–24, 2003. HAYES, B. The Best Bits: A new technology called compressive sensing slims down data at the source. American Scientist, v. 97, p. 276-280 , 2009. IBGE – Instituto Brasileiro de Geografia e Estatística. R.PR.-1/2005 – Altera a caracterização do Sistema Geodésico Brasileiro. Disponível em: <http://www.ibge.gov.br>. Acesso em: 08 mai. 2010. INPE. CBERS – China-Brazil Earth Resources Satellite. Disponível em: <http://www.cbers.inpe.br/?hl=en&content=orbita1e2e2b>. Acesso em 05 Abr. 2010. JACOBSEN, K. Calibration of IRS-1C PAN-camera. In: ISPRS Commission I Symposium "Earth Observation For Sustainable Development", 1998, Bangalore, India. Proceedings… Bangalore, India, 1998. JACOBSEN, K. Orientation of high resolution optical space images. In: ASPRS 2007 Annual Conference, Tampa, 2007, Florida. Proceedings… Tampa, Flórida, 2007. JEKELY, C. Geometric Reference System in Geodesy. Ohio State University, Lecture Note. 2006. JENSEN, J. R. Sensoriamento remoto do ambiente: uma perspectiva em recursos terrestres. Tradução da 2 ed. por (pesquisadores do INPE): José Carlos N. Epiphanio (coordenador); Antonio R. Formaggio; Athos R. Santos; Bernardo F. T. Rudorff; Cláudia M. Almeida; Lênio S. Galvão. São José dos Campos: Parêntese. 2009. 672 p.

99

JOVANOVIC, V. M., SMYTH, M. M., ZONG, J. MISR Level 1 In-flight Geometric Calibration Algorithm Theoretical Basis. JPL report, code JPL D-13399, Rev. B, 1999. KIM, T.; DOWMAN, I. Comparison of two physical sensor models for satellite images: Position-Rotation model and Orbit-Attitude model. The Photogrammetric Record, v.21, n. 114, p. 110-123, 2006. KOCAMAN, S. Sensor modeling and validation for linear array aerial and satellite imagery. Diss., Technische Wissenschaften ETH Zurich, Nr. 18120, 2008. KOCAMAN S.; GRUEN A. Rigorous Sensor Modeling of ALOS/PRISM Imagery. In: Conference on Optical 3D Measurement Techniques, 8, 2007, Zurich, Switzerland. Proceedings… Zurich, 2007. KORNUS, W.; LEHNER, M.; SCHROEDER, M. Geometric inflight calibration by block adjustment using MOMS-2P imagery of three intersecting stereo strips. In: ISPRS Workshop “Sensors and Mapping from Space”, 1999, Hanover. Proceedings… Hanover, 1999. KRATKY, V. Rigorous photogrammetric Proessing of SPOT Images at CCM Canada. ISPRS Journal of Photogrammetry and Remote Sensing, p. 53-71, 1989. LEE, C.; THEISS, H.J.; BETHEL, J.S.; MIKHAIL, E.M. Rigorous mathematical modeling of airborne pushbroom imaging systems. Photogrammetric Engineering and Remote Sensing, v. 66, n.4, p.385-392, 2000. LIGHT, D. L., BROWN, D., COLVOCORESSES, A. P., DOYLE, F. J., DAVIES, M., ELLASAL, A., JUNKINS, J. L., MANENT, J. R., MCKENNEY, A., UNDREJKA, R., AND WOOD, G, 1980. Satellite Photogrammetry, In: Manual of Photogrammetry. 4 ed. Falls Church, USA:ASP, 1980. p. 883-977. LUGNANI, J. B. Introdução à Fototriangulação. Curitiba, 1987. 134p.

MACHADO E SILVA, A. J. F. Geometria de imagens: do projeto do satélite à geração dos produtos. 2007. 224 f. Tese (Doutorado) – Instituto Nacional de Pesquisas Espaciais, São José dos Campos. MACHADO E SILVA, A. J. F. Dados técnicos da câmara HRC. Mensagem recebida por Antonio Maria Garcia Tommaselli em 26. Ago. 2009. MARCATO JUNIOR, J., TOMMASELLI, A. M. G., GALO, M. Avaliação experimental de técnicas de calibração de câmaras digitais usando linhas retas e pontos. In: II Simpósio Brasileiro de Geomática e V Colóquio Brasileiro de Ciências Geodésicas, 2007, Presidente Prudente. Anais... Presidente Prudente, 2007. p.563 – 569. MARCATO JUNIOR, J., TOMMASELLI, A. M. G., RUY, R. S., GALO, M. Estudo de casos em Fototriangulação com Parâmetros Adicionais para Câmaras Digitais In: COBRAC 2008 - Congresso Brasileiro de Cadastro Técnico Multifinalitário, 2008, Florianópolis. Anais... Florianópolis, 2008. MARCATO JUNIOR, J.; TOMMASELLI, A. M. G.; MEDEIROS, N. G.; OLIVEIRA, R. A.

100

Fototriangulação de imagens orbitais: resultados com dados simulados para o sensor CCD CBERS. In: VI Colóquio Brasileiro de Ciências Geodésicas, 2009, Curitiba. Anais... Curitiba, 2009. MEDEIROS, N. G.; TOMMASELLI, A.M.G. Orientation of orbital pushbroom images using control straight lines. In: 7th GEOMATIC WEEK, Barcelona, ES. In: Geomatic Week, 7, 2007, Barcelona. Proceedings… Barcelona: Institut of Geomatics, 2007. v. 1, p. 1-11. MIKAHIL, E. M.; ACKERMAN, F., Observations and Least Squares. IEP, New York. 497p. MIKHAIL, E. M.; BETHEL, J. S. MCGLONE, J. C. Introduction to Modern Photogrammetry. Inc. New York : John Wiley & Sons, 2001, 479p. MONICO, J. F. G. Posicionamento pelo GNSS: Descrição, fundamento e aplicações. 2. ed. São Paulo: Editora UNESP, 2008.476p. MULAWA, D. C.; MIKHAIL, E. M. Photogrammetric treatment of linear features. In: ISPRS, 1988, Kyoto. International Archives of Photogrammetry and Remote Sensing, Kyoto: ISPRS, 1988. p. 383-393. OLIVEIRA, R. A. ; TOMMASELLI, A. M. G. ; MARCATO JUNIOR, J. . ORIENTAÇÃO DE IMAGENS CBERS-2B HRC UTILIZANDO DADOS DE ÓRBITA. In: XXII Congresso de Iniciação Científica da Unesp, 2010, Presidente Prudente. Anais... Presidente Prudente, 2010. ORUN, A. B.; NATARAJAN, K. A. Modified Bundle Adjustment Software for SPOT Imagery and Photography: Tradeoff. Photogrammetric Engineering and Remote Sensing, p. 1431-1437, 1994. POLI, D. Orientation of Satellite and Airborne Imagery from Multi-Line Pushbroom Sensors with a Rigorous Sensor Model. In: International Congress of Photogrammetry and Remote Sensing, 2004, Istambul. International Archives of Photogrammetry and Remote Sensing, Istambul: ISPRS, 2004. p. 130-136. POLI D. Modelling of Spaceborne Linear Array Sensors. Diss., Technische Wissenschaften ETH Zurich, Nr. 15894, 2005, IGP Mitteilung N. 85. RADHADEVI, P.V.; RAMACHANDRAN R.; MURALI MOHAN A.S.R.K.V. Restitution of IRS-1C PAN data using an orbit attitude model and minimum control. ISPRS Journal of Photogrammetry and Remote Sensing, p. 262-271, 1998. REISS, M. L. L.; TOMMASELLI, A. M. G. Orientação de Imagens sem Pontos de Apoio para Mensuração de Superfícies Planas. Boletim de Ciências Geodésicas, Curitiba, Pr, v. 9, n. 1, p.121-139, 2003. RODRIGUES, T. L.; ANTUNES, M. A. H.; FOSSE, J. M. Avaliação da ortorretificação da imagem do sensor HRC do CBERS 2B utilizando modelo de funções racionais. In: Simpósio Brasileiro de Sensoriamento Remoto, XIV, 2009, Natal. Anais... Natal, 2009. p. 2139–2146. ROSE, E.; FRADKIN, K. Multi-sensor Triangulation. Disponível em: <

101

http://www.sensor.com/sensorsite_files/ow_support_1genekiril_whitepaper.html.>. Acesso em 10 out. 2008. RUY, R. S. Desenvolvimento e Validação Geométrica de um Sistema para Mapeamento com câmaras Digitais de Médio Formato e Georreferenciamento Direto. 2008. Tese (Doutorado) – Faculdade de Ciência e Tecnologia, Universidade Estadual Paulista, Presidente Prudente. SHIN, S.W.; HABIB, A.F.; GHANMA, M.; KIM, G.; KIM, E.M. Algorithms for Multi-sensor and Multi-primitive Photogrammetric Triangulation. ETRI Journal, v.29, n. 4, p. 411, 420, August 2007. SILVA, W. B.; D’ALGE, J. C. L; FONSECA, L. M. G. Avaliação da qualidade geométrica de imagens da Câmera HR do CBERS 2B. In: Simpósio Brasileiro de Sensoriamento Remoto, XIV, 2009, Natal. Anais... Natal, 2009. p. 2193–2200. SLAMA, C. C.; EBNER, H.; FRITZ, L. Aerotriangulation. In: Manual of Photogrammetry. 4 ed. Falls Church:ASP, 1980. p. 453-518. SRINIVASAN, T. P.; ISLAM, B; SINGH, S. K.; GOPALA KRISHNA, B; SRIVASTAVA, P. K. In-flight geometric calibration – an experience with Cartosat-1 and Cartosat -2. In: International Congress of Photogrammetry and Remote Sensing, 2008, Beijing. International Archives of Photogrammetry and Remote Sensing, Beijing: ISPRS, 2008., p. 83-88. THOMPSON, M. M.; GRUNER, H. Foundations of Photogrammetry. In: Manual of Photogrammetry. 4 ed. Falls Church:ASP, 1980. p. 1-36. TOMMASELLI, A. M. G.; TOZZI, C. L. A recursive approach to Space Resection using straight lines. Photogrammetric Engineering and Remote Sensing, v. 62, n. 1, p. 57-66, 1996. TOMMASELLI, A. M. G.; TELLES, S. S. S. A mathematical model for camera calibration using straight lines. In: International Calibration and Workshop – EuroCOW, 2006, Castelldefels. Proceedings of EuroCOW. Castelldefels: Institut of Geomatics, 2006, v. 1. p. 1-6. TOMMASELLI, A. M. G..; MEDEIROS, N. G. Determination of the Indirect Orientation of Orbital PUSHBROOM Images Using Control Straight Lines. The Photogrammetric Record, v.25, n. 130, p. 159-179, 2010. TONOLO, G. F.; POLI, D. Georeferencing of EROS-A1 high resolution images with rigorous and rational function model. In: ISPRS Workshop "High resolution mapping from space 2003", 2003, Hannover. Proceedings of the ISPRS Workshop. Hannover, 2003. TOUTIN, T.; ROCHON, G. SPOT a new cartographic toll. In: ISPRS, 1988, Kyoto. International Archives of Photogrammetry and Remote Sensing, Kyoto: ISPRS, 1988. p. 192-205. TOUTIN, T. Block Bundle Adjustment of Landsat 7 ETM+ Images over Mountainous Areas. Photogrammetric Engineering & Remote Sensing, v. 69, n. 12, p. 1341–1349, 2003.

102

TOUTIN, T. Geometric processing of remote sensing images: models, algorithms and methods. International Journal of Remote Sensing, p. 1893–1924, 2004. WERTZ, J. R. Spacecraft attitude determination and control. Dordrecht: D. Riedel, 1978.

103

APÊNDICE A

Método Combinado de ajustamento

O método combinado de ajustamento, descrito nesta Seção, será baseado em

Mikhail e Ackerman (1976) e Gemael (1994). O ajustamento pelo método combinado é usado

para modelos funcionais que combinam observações e parâmetros, no qual as r equações de

condição envolvem tanto as observações (n) quanto os parâmetros (u), de forma que o número

de observações (n) seja maior que os graus de liberdade (r-u).

O modelo matemático do método combinado é dado por:

0),( =aa LXF (A.1)

Nesta equação aX é o vetor dos parâmetros ajustados e o vetor das

observações ajustadas é representado por aL . A função F, geralmente, é não linear tornando

necessário realizar a linearização. A forma linearizada da Equação (A.1) é dada por:

0)()(),(),(0,

0

0,

0 =−∂

∂+−

∂+≅ ba

XbLaa

XbLaBaa LL

L

FXX

X

FLXFLXF (A.2)

em que:

• 0X : vetor dos parâmetros aproximados;

• ba LLV −= : vetor dos resíduos;

• bL : vetor das observações;

• 0XXX a −= : vetor de correção aos parâmetros;

0, XbLaL

FB

∂= : matriz das derivadas parciais com relação às observações;

0, XbLaX

FA

∂= : matriz das derivadas parciais com relação aos parâmetros;

104

• ),( 0XLFW b= .

Assim, o modelo linearizado do método combinado é dado por:

0=++ WBVAX (A.3)

Ao utilizar a técnica Lagrangiana, a função )(φ é definida por:

mínimoWBVAXKPVV TT =++−= )(2φ (A.4)

Nesta Equação K representa o vetor dos multiplicadores de Lagrange ou

dos correlatos.Considerando nulas as derivadas parciais em relação a V, K e X, obtém-se:

0=− KBPV T (A.5)

0=++ WBVAX (A.6)

0=KAT (A.7)

A partir da Equação (A.5), tem-se que:

KBPV T1−= (A.8)

Ao substituir a Equação acima em (A.6), tem-se que:

)()( 11 WAXBBPK T +−= −− (A.9)

Considerando TBBPM 1−= , obtem-se:

)(1 WAXMK +−= − (A.10)

Substituindo o vetor dos correlatos na Equação (A.7), obtém-se o vetor das

correções aos parâmetros aproximados (X):

WMAAMAX TT 111 )( −−−−= (A.11)

105

Fator de variância a posteriori

Após o cálculo do vetor dos resíduos torna-se possível estimar a variância

da observação de peso unitário )( 0

σ , dada por:

ur

K

S

PVV TT

−==

0σ (A.12)

em que S representa o número de graus de liberdade.

Teste de Hipótese Qui-Quadrado( 2χ )

Após o cálculo do fator de variância a posteriori )( 20

σ , torna-se possível

realizar o teste de hipótese qui-quadrado, a fim de verificar a qualidade do ajustamento, em

que:

Hipótese básica:

220 : σσ =H ;

Hipótese alternativa:

220 : σσ >H (teste unilateral)

Para realizar o teste, calcula-se:

2

2

02

σ

σχ

=v

c (A.13)

em que, v representa o número de graus de liberdade.

A hipótese é rejeitada a um nível de significância α se:

21,

2αχχ −≥ vc

em que 21, αχ −v representa o qui-quadrado tabelado.

106

Parâmetros ajustados e Matriz de variância-covariância

O vetor dos parâmetros )( aX e a matriz de variância e covariância dos

parâmetros )(∑ aX são dados por:

XXX a += 0 (A.14)

110 )( −−

=∑ AMAX Ta σ (A.15)

Iteração no método combinado

No caso de modelos não lineares, em que há a necessidade de iniciar o

processo com valores aproximados para os parâmetros )( 0X deve-se somar o valor estimado

de X aos parâmetros aproximados, dando origem ao vetor dos parâmetros ajustados )( aX ,

conforme Equação (A.16).

XXX a += 0 (A.16)

Os resíduos podem ser obtidos pela expressão (A.17):

KBPV T1−= (A.17)

em que:

)(1 WAXMK +−= − .

As observações ajustadas )( aL são obtidas somando os resíduos às

observações, ou seja, VLL ba += .

Os parâmetros ajustados da iteração anterior serão usados na próxima

iteração como parâmetros aproximados, ou seja, 01 i

ai XX =− . Na montagem das matrizes A ,

B e W serão utilizadas as observações ajustadas da iteração anterior ( aiL 1− ) ao invés das

observações ( bL ) que foram utilizadas na primeira iteração. Estas novas observações serão

denominadas de 0iL . As Equações (A.18) e (A.19) mostram as matrizes A e B na i-ésima

iteração.

107

00 , ii LX

ai

iX

FA

∂= (A.18)

00 , ii LX

ai

iL

FB

∂= (A.19)

O vetor W terá uma pequena modificação, como mostra a equação a seguir.

),()( 000iiibii XLFLLBW +−= (A.20)

Assim, tem-se:

iiT

iiiT

ii WMAAMAX 111 )( −−−−= (A.21)

ioi

ai XXX += (A.22)

)(11iiii

Tii WXAMBPV +−=

−−

(A.23)

ibai VLL += (A.24)

O critério de convergência pode ser baseado tanto nas correções iX aos

parâmetros quanto no vetor dos resíduos iV .

Método combinado com injunção de peso

O método combinado com injunção de peso tem por característica principal

o fato de que todas as variáveis envolvidas na formulação matemática são consideradas

observações. As equações normais para o caso do método combinado com injunções de pesos

são dadas por:

)()( 111XXii

TiXii

Tii WPWMAPAMAX ++−=

−−−

(A.25)

em que xP é a matriz diagonal dos pesos dos parâmetros e xW é um vetor nulo na primeira

iteração e nas demais iterações ele acumula a correção ( iX ) dos parâmetros, ou seja,

∑= iiX XW .

108

Considerando )( 1Xii

Tii PAMAN +=

− e )( 1XXii

Tii WPWMAU +=

− tem-se

que:

iii UNX 1−−= (A.26)

12

0ˆ −=∑ NaX σ (A.27)

em que aX∑ é a matriz variância e covariância dos parâmetros ajustados.

109

APÊNDICE B

Média dos Erros Verdadeiros e dos Desvios-padrão estimados nos POE para

experimentos com dados simulados apresentados na Seção 4.1.1

Nesta seção apresenta-se média dos erros verdadeiros e dos desvios-padrão

estimados nos POE para experimentos com dados simulados considerando os modelos MCP e

MCPO. A análise comparativa dos resultados obtidos com ambos os modelos não é tão

simples, à medida que possuem modelos de plataformas distintos. No modelo MCP são

considerados 12 POE. Já no MCPO são considerados 14 POE, sendo que alguns deles

recebem injunção relativa.

Embora o MCPO tenha apresentado melhores resultados com relação ao

EMQ nas coordenadas dos pontos de verificação, em alguns casos, a média dos erros

verdadeiros em X0, Y0 e Z0 (mais evidentes) são maiores quando comparado ao MCP. Isto

ocorre possivelmente em decorrência da correlação dos parâmetros de posição (X0, Y0, Z0)

com os parâmetros de atitude (Roll, Pitch, Yaw). Devido à correlação, os parâmetros de

atitude absorveram uma parte dos valores dos parâmetros de posição no MCPO. No entanto,

isto não afeta a estimação das coordenadas dos pontos de verificação. Estudos detalhados a

respeito da correlação entre os POE para os modelos de órbita serão desenvolvidos em

trabalhos futuros.

No MCPO, os parâmetros de posição (X0, Y0, Z0) receberam uma injunção

relativa (σ = ± 100 m). Ao analisar as tabelas a seguir, nota-se que a média do erro verdadeiro

está dentro do intervalo definido pelo desvio-padrão.

A média do desvio-padrão nos parâmetros de posição para o MCPO tanto

para o Teste 1 (erro de medida de 1,5 pixel) quanto para o Teste 2 (erro de medida de 2,5

pixel) se apresentou na ordem de 50 metros. Em contrapartida, no MCP há um aumento no

valor do desvio-padrão para o Teste 2 quando comparado ao Teste 1.

110

Tabela B.1: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 1) – 40 pontos de apoio.

Experimentos A B C D E F

POE POE

X0 -0,68 -16,56 -5,15 X0 -23,83 -24,80 -22,98

Y0 1,76 21,09 6,29 Y0 46,03 47,44 44,77

Z0 2,28 8,95 2,37 Z0 84,51 85,18 84,15

κ0 -8,2E-03 1,5E-03 2,1E-03 R0 -3,9E-04 -3,7E-04 -4,0E-04

a1 1,4E-04 6,2E-03 2,9E-03 P0 4,2E-03 4,2E-03 4,2E-03

a2 -4,3E-04 -7,9E-03 -3,5E-03 ψ0 -3,5E-04 -6,8E-04 -6,3E-04

a3 -6,9E-04 -3,3E-03 -1,3E-03 a1 1,3E-02 1,3E-02 1,3E-02

a6 1,6E-06 -1,5E-06 -1,7E-06 a2 -1,7E-02 -1,7E-02 -1,7E-02

b1 2,9E-09 -4,6E-07 -2,3E-07 a3 -7,1E-03 -6,9E-03 -6,9E-03

b2 1,2E-08 5,8E-07 2,8E-07 a9 8,5E-08 5,3E-07 5,4E-07

b3 4,2E-08 2,4E-07 1,0E-07 b1 -7,9E-07 -8,7E-07 -9,0E-07

b6 -9,2E-11 1,3E-10 1,5E-10 b2 1,0E-06 1,1E-06 1,2E-06

b3 4,5E-07 4,6E-07 4,8E-07

b9 -5,4E-12 -4,2E-11 -4,3E-11

Tabela B.2: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 1) – 40 pontos de

apoio.

Experimentos A B C D E F

POE POE

X0 54,58 57,14 48,64 X0 49,58 50,52 49,25

Y0 71,33 74,72 63,87 Y0 46,71 47,59 45,89

Z0 31,23 32,76 27,83 Z0 51,29 52,27 51,25

κ0 7,4E-03 6,7E-03 6,3E-03 R0 3,4E-03 3,5E-03 3,4E-03

a1 2,1E-02 2,2E-02 1,9E-02 P0 3,4E-03 3,5E-03 3,4E-03

a2 2,8E-02 2,9E-02 2,5E-02 ψ0 6,1E-03 5,3E-03 5,2E-03

a3 1,2E-02 1,3E-02 1,1E-02 a1 1,2E-02 1,2E-02 1,1E-02

a6 2,9E-06 2,7E-06 2,5E-06 a2 1,5E-02 1,5E-02 1,4E-02

b1 1,7E-06 1,7E-06 1,5E-06 a3 6,6E-03 6,7E-03 6,2E-03

b2 2,2E-06 2,3E-06 2,0E-06 a9 2,4E-06 2,1E-06 2,1E-06

b3 9,5E-07 1,0E-06 8,7E-07 b1 1,0E-06 1,0E-06 9,4E-07

b6 2,2E-10 2,1E-10 2,0E-10 b2 1,3E-06 1,3E-06 1,2E-06

b3 5,8E-07 5,9E-07 5,4E-07

b9 1,9E-10 1,7E-10 1,6E-10

111

Tabela B.3: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 1) – 12 pontos de apoio.

Experimentos G H I J K L

POE POE

X0 14,86 -0,35 2,77 X0 -30,65 -29,55 -28,85

Y0 -18,54 0,48 -3,55 Y0 55,49 54,00 52,80

Z0 -5,94 0,21 -1,59 Z0 88,51 87,78 87,38

κ0 -2,8E-04 4,3E-03 4,5E-03 R0 -3,5E-04 -2,9E-04 -3,5E-04

a1 -7,0E-03 -6,0E-03 -5,2E-03 P0 4,3E-03 4,2E-03 4,2E-03

a2 9,0E-03 8,1E-03 7,0E-03 ψ0 -1,9E-03 -2,2E-03 -2,2E-03

a3 3,1E-03 3,6E-03 3,2E-03 a1 1,4E-02 1,1E-02 7,3E-03

a6 -2,2E-06 -3,1E-06 -3,0E-06 a2 -1,9E-02 -1,3E-02 -8,7E-03

b1 5,0E-07 6,2E-07 5,1E-07 a3 -7,6E-03 -5,2E-03 -3,4E-03

b2 -6,6E-07 -8,4E-07 -6,9E-07 a9 5,1E-07 1,1E-06 9,1E-07

b3 -2,5E-07 -3,9E-07 -3,3E-07 b1 -8,8E-07 -4,6E-07 -2,0E-07

b6 2,1E-10 2,7E-10 2,6E-10 b2 1,1E-06 5,3E-07 1,9E-07

b3 4,6E-07 2,0E-07 6,1E-08

b9 -3,6E-11 -7,5E-11 -6,3E-11

Tabela B.4: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 1) – 12 pontos de

apoio.

Experimentos G H I J K L

POE POE

X0 61,28 76,04 58,96 X0 47,48 51,30 49,59

Y0 80,38 99,80 77,67 Y0 45,17 48,81 46,76

Z0 35,08 43,62 33,77 Z0 48,79 52,72 51,21

κ0 8,3E-03 8,8E-03 7,6E-03 R0 3,2E-03 3,5E-03 3,4E-03

a1 3,3E-02 4,1E-02 3,0E-02 P0 3,2E-03 3,5E-03 3,4E-03

a2 4,3E-02 5,3E-02 3,9E-02 ψ0 6,9E-03 6,3E-03 6,1E-03

a3 1,9E-02 2,3E-02 1,7E-02 a1 1,7E-02 1,8E-02 1,6E-02

a6 4,4E-06 4,5E-06 3,8E-06 a2 2,3E-02 2,5E-02 2,1E-02

b1 2,6E-06 3,2E-06 2,4E-06 a3 9,9E-03 1,1E-02 9,2E-03

b2 3,5E-06 4,3E-06 3,2E-06 a9 3,7E-06 3,2E-06 3,1E-06

b3 1,5E-06 1,9E-06 1,4E-06 b1 1,5E-06 1,6E-06 1,4E-06

b6 3,6E-10 3,6E-10 3,1E-10 b2 2,0E-06 2,1E-06 1,8E-06

b3 8,5E-07 9,1E-07 8,0E-07

b9 3,0E-10 2,6E-10 2,5E-10

112

Tabela B.5: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 1) – 40 pontos de apoio.

Experimentos A B C D E F

POE POE

X0 -5,39 -4,58 -4,79 X0 8,35 -2,90 -1,58

Y0 5,71 4,88 5,04 Y0 -4,51 5,06 4,13

Z0 3,02 3,07 3,17 Z0 -3,77 1,94 1,30

κ0 -1,6E-02 -1,0E-02 -1,1E-02 R0 1,1E-04 1,3E-04 1,5E-04

a1 2,6E-03 2,2E-03 1,2E-04 P0 1,5E-04 8,5E-06 2,6E-06

a2 -2,7E-03 -2,3E-03 -1,7E-04 ψ0 1,8E-03 -3,3E-04 -4,3E-04

a3 -1,6E-03 -1,6E-03 -3,4E-04 a1 -9,3E-03 -7,3E-03 -5,5E-03

a6 7,1E-06 4,4E-06 4,4E-06 a2 9,1E-03 7,4E-03 5,6E-03

b1 -2,2E-07 -1,4E-07 7,4E-08 a3 5,3E-03 3,8E-03 2,9E-03

b2 2,2E-07 1,6E-07 -7,0E-08 a9 -3,1E-07 5,1E-08 3,4E-08

b3 1,4E-07 1,2E-07 -1,4E-08 b1 8,0E-07 8,1E-07 6,0E-07

b6 -5,2E-10 -3,2E-10 -3,1E-10 b2 -7,9E-07 -8,0E-07 -6,0E-07

b3 -4,3E-07 -4,3E-07 -3,3E-07

b9 8,1E-12 4,1E-12 7,1E-12

Tabela B.6: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 1) – 40 pontos de

apoio.

Experimentos A B C D E F

POE POE

X0 52,13 54,75 49,41 X0 46,76 47,64 46,37

Y0 53,61 56,30 50,71 Y0 48,23 49,15 48,05

Z0 31,02 32,55 29,36 Z0 50,84 51,80 50,82

κ0 6,4E-03 6,1E-03 5,8E-03 R0 3,4E-03 3,5E-03 3,4E-03

a1 2,0E-02 2,1E-02 1,9E-02 P0 3,4E-03 3,5E-03 3,4E-03

a2 2,0E-02 2,1E-02 1,9E-02 ψ0 5,3E-03 4,9E-03 4,8E-03

a3 1,2E-02 1,2E-02 1,1E-02 a1 1,2E-02 1,2E-02 1,2E-02

a6 2,4E-06 2,3E-06 2,2E-06 a2 1,2E-02 1,2E-02 1,1E-02

b1 1,5E-06 1,6E-06 1,4E-06 a3 6,7E-03 6,8E-03 6,3E-03

b2 1,6E-06 1,7E-06 1,5E-06 a9 2,0E-06 1,8E-06 1,8E-06

b3 9,2E-07 9,6E-07 8,5E-07 b1 1,1E-06 1,1E-06 9,7E-07

b6 1,9E-10 1,7E-10 1,7E-10 b2 1,1E-06 1,1E-06 9,6E-07

b3 5,8E-07 5,8E-07 5,3E-07

b9 1,6E-10 1,4E-10 1,4E-10

113

Tabela B.7: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 1) – 12 pontos de apoio.

Experimentos G H I J K L

POE POE

X0 12,73 3,64 7,18 X0 3,24 1,11 3,67

Y0 -13,49 -2,89 -6,53 Y0 0,20 2,04 0,31

Z0 -7,58 -0,92 -3,04 Z0 -1,15 0,01 -1,19

κ0 -1,7E-02 -9,5E-03 -9,5E-03 R0 1,4E-04 9,7E-05 1,5E-04

a1 -1,8E-03 1,3E-03 -6,7E-03 P0 7,9E-05 8,2E-05 7,9E-05

a2 2,0E-03 -1,6E-03 6,5E-03 ψ0 6,5E-04 6,6E-04 5,9E-04

a3 6,7E-04 -1,3E-03 3,5E-03 a1 -4,7E-02 -4,1E-02 -2,7E-02

a6 9,2E-06 3,8E-06 3,7E-06 a2 4,7E-02 4,0E-02 2,6E-02

b1 8,5E-08 -2,2E-07 5,1E-07 a3 2,5E-02 2,2E-02 1,5E-02

b2 -9,3E-08 2,5E-07 -4,9E-07 a9 -2,1E-08 -1,8E-07 -4,2E-07

b3 -1,0E-08 1,7E-07 -2,7E-07 b1 4,6E-06 4,2E-06 2,7E-06

b6 -7,6E-10 -3,0E-10 -2,9E-10 b2 -4,5E-06 -4,1E-06 -2,6E-06

b3 -2,4E-06 -2,2E-06 -1,4E-06

b9 1,3E-12 1,8E-11 4,4E-11

Tabela B.8: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 1) – 12 pontos de

apoio.

Experimentos G H I J K L

POE POE

X0 53,96 67,19 55,74 X0 44,73 48,32 46,66

Y0 55,46 69,04 57,14 Y0 46,00 49,71 48,14

Z0 32,11 39,94 33,11 Z0 48,30 52,19 50,72

κ0 6,6E-03 7,5E-03 6,6E-03 R0 3,2E-03 3,5E-03 3,4E-03

a1 3,9E-02 4,8E-02 3,2E-02 P0 3,3E-03 3,5E-03 3,4E-03

a2 3,9E-02 4,9E-02 3,3E-02 ψ0 5,5E-03 5,4E-03 5,2E-03

a3 2,3E-02 2,8E-02 1,9E-02 a1 2,2E-02 2,4E-02 1,9E-02

a6 4,6E-06 4,2E-06 3,6E-06 a2 2,2E-02 2,3E-02 1,9E-02

b1 3,5E-06 4,3E-06 2,8E-06 a3 1,2E-02 1,3E-02 1,1E-02

b2 3,5E-06 4,3E-06 2,8E-06 a9 3,8E-06 2,9E-06 2,8E-06

b3 2,1E-06 2,5E-06 1,6E-06 b1 2,1E-06 2,2E-06 1,7E-06

b6 4,1E-10 3,5E-10 3,0E-10 b2 2,0E-06 2,2E-06 1,7E-06

b3 1,1E-06 1,2E-06 9,5E-07

b9 3,4E-10 2,4E-10 2,3E-10

114

Tabela B.9: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 2) – 40 pontos de apoio.

Experimentos A B C D E F

POE POE

X0 -4,21 13,21 23,80 X0 -38,67 -41,26 -40,06

Y0 5,55 -18,02 -31,33 Y0 67,18 70,85 69,12

Z0 3,53 -7,72 -13,89 Z0 93,20 94,76 94,07

κ0 -7,8E-03 -1,4E-03 -9,1E-04 R0 -2,3E-04 -2,3E-04 -2,7E-04

a1 4,2E-03 -3,2E-03 -7,6E-03 P0 4,3E-03 4,3E-03 4,3E-03

a2 -5,6E-03 4,4E-03 1,0E-02 ψ0 -2,5E-03 -3,5E-03 -3,4E-03

a3 -2,7E-03 2,0E-03 4,6E-03 a1 1,7E-02 1,4E-02 1,5E-02

a6 1,2E-06 -2,7E-07 -4,8E-07 a2 -2,1E-02 -1,7E-02 -1,9E-02

b1 -4,2E-07 1,9E-07 5,5E-07 a3 -8,6E-03 -7,0E-03 -7,5E-03

b2 5,6E-07 -2,7E-07 -7,2E-07 a9 9,7E-07 1,5E-06 1,5E-06

b3 2,6E-07 -1,2E-07 -3,3E-07 b1 -9,2E-07 -7,0E-07 -8,2E-07

b6 -5,1E-11 3,7E-11 5,4E-11 b2 1,2E-06 8,2E-07 9,7E-07

b3 4,7E-07 3,2E-07 3,9E-07

b9 -7,3E-11 -1,2E-10 -1,3E-10

Tabela B.10: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 2) – 40 pontos de

apoio.

Experimentos A B C D E F

POE POE

X0 95,41 96,72 83,57 X0 54,00 53,73 53,40

Y0 124,65 126,43 109,77 Y0 52,73 52,46 51,83

Z0 54,57 55,45 47,80 Z0 54,77 54,49 54,34

κ0 1,2E-02 1,1E-02 1,1E-02 R0 3,6E-03 3,6E-03 3,6E-03

a1 3,7E-02 3,8E-02 3,3E-02 P0 3,6E-03 3,6E-03 3,6E-03

a2 4,8E-02 4,9E-02 4,4E-02 ψ0 1,2E-02 1,0E-02 1,0E-02

a3 2,1E-02 2,2E-02 1,9E-02 a1 1,8E-02 1,8E-02 1,6E-02

a6 4,8E-06 4,4E-06 4,3E-06 a2 2,3E-02 2,3E-02 2,1E-02

b1 2,9E-06 2,9E-06 2,6E-06 a3 1,0E-02 1,0E-02 9,3E-03

b2 3,8E-06 3,8E-06 3,4E-06 a9 4,5E-06 4,0E-06 4,0E-06

b3 1,7E-06 1,7E-06 1,5E-06 b1 1,6E-06 1,6E-06 1,5E-06

b6 3,8E-10 3,4E-10 3,3E-10 b2 2,2E-06 2,1E-06 2,0E-06

b3 9,4E-07 9,4E-07 8,6E-07

b9 3,6E-10 3,1E-10 3,1E-10

115

Tabela B.11: Média do erro verdadeiro nos POE para a Imagem 1 (Teste 2) – 12 pontos de apoio.

Experimentos G H I J K L

POE POE

X0 23,39 -14,73 2,50 X0 -42,29 -38,98 -39,16

Y0 -30,13 18,66 -3,60 Y0 72,27 67,49 67,74

Z0 -10,38 8,65 -1,27 Z0 95,31 93,39 93,52

κ0 -3,4E-03 3,6E-03 4,4E-03 R0 -3,5E-04 -2,7E-04 -3,4E-04

a1 -1,4E-02 1,1E-02 4,4E-03 P0 4,1E-03 4,3E-03 4,3E-03

a2 1,8E-02 -1,4E-02 -5,7E-03 ψ0 9,3E-04 -2,5E-03 -2,4E-03

a3 7,2E-03 -6,3E-03 -2,4E-03 a1 1,3E-02 1,4E-02 5,7E-03

a6 -6,7E-07 -2,3E-06 -2,6E-06 a2 -1,7E-02 -1,8E-02 -7,3E-03

b1 9,7E-07 -9,8E-07 -4,5E-07 a3 -7,2E-03 -7,3E-03 -2,8E-03

b2 -1,3E-06 1,2E-06 5,8E-07 a9 7,0E-07 9,6E-07 5,2E-07

b3 -5,2E-07 5,4E-07 2,3E-07 b1 -6,4E-07 -6,9E-07 2,2E-08

b6 1,2E-10 2,0E-10 2,2E-10 b2 7,4E-07 8,3E-07 -5,7E-08

b3 3,0E-07 3,4E-07 -3,5E-08

b9 -8,5E-11 -7,6E-11 -3,7E-11

Tabela B.12: Média do desvio-padrão estimado nos POE para a Imagem 1 (Teste 2) – 12 pontos de

apoio.

Experimentos G H I J K L

POE POE

X0 108,93 118,34 98,17 X0 48,45 52,65 53,15

Y0 142,85 155,27 129,38 Y0 47,51 51,63 51,87

Z0 62,36 67,87 56,21 Z0 48,98 53,23 53,88

κ0 1,4E-02 1,3E-02 1,3E-02 R0 3,2E-03 3,5E-03 3,6E-03

a1 5,8E-02 6,3E-02 4,9E-02 P0 3,2E-03 3,5E-03 3,6E-03

a2 7,7E-02 8,3E-02 6,5E-02 ψ0 1,2E-02 1,2E-02 1,2E-02

a3 3,3E-02 3,6E-02 2,8E-02 a1 2,3E-02 2,5E-02 2,3E-02

a6 7,6E-06 6,7E-06 6,2E-06 a2 3,1E-02 3,3E-02 3,0E-02

b1 4,7E-06 5,0E-06 4,0E-06 a3 1,4E-02 1,5E-02 1,3E-02

b2 6,1E-06 6,7E-06 5,2E-06 a9 6,6E-06 5,7E-06 5,8E-06

b3 2,7E-06 2,9E-06 2,3E-06 b1 2,1E-06 2,2E-06 2,0E-06

b6 6,1E-10 5,4E-10 5,1E-10 b2 2,7E-06 3,0E-06 2,7E-06

b3 1,2E-06 1,3E-06 1,2E-06

b9 5,3E-10 4,6E-10 4,7E-10

116

Tabela B.13: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 2) – 40 pontos de apoio.

Experimentos A B C D E F

POE POE

X0 1,34 -26,69 -19,35 X0 -0,50 0,37 1,30

Y0 -1,79 28,27 20,53 Y0 3,17 2,11 1,33

Z0 -1,40 16,08 11,69 Z0 0,78 0,26 -0,20

κ0 -1,8E-02 -8,5E-03 -8,5E-03 R0 1,4E-05 4,8E-05 5,4E-05

a1 3,2E-03 6,1E-03 4,9E-03 P0 2,1E-04 9,3E-05 9,6E-05

a2 -3,2E-03 -6,4E-03 -5,1E-03 ψ0 2,6E-03 1,5E-03 1,5E-03

a3 -1,8E-03 -3,8E-03 -3,0E-03 a1 -2,3E-02 -2,5E-02 -1,9E-02

a6 7,7E-06 3,6E-06 3,6E-06 a2 2,3E-02 2,4E-02 1,8E-02

b1 -3,6E-07 -3,9E-07 -3,4E-07 a3 1,3E-02 1,4E-02 1,1E-02

b2 3,6E-07 4,0E-07 3,5E-07 a9 -9,2E-07 -8,7E-07 -1,0E-06

b3 2,1E-07 2,5E-07 2,2E-07 b1 2,4E-06 2,6E-06 2,0E-06

b6 -5,7E-10 -2,6E-10 -2,6E-10 b2 -2,3E-06 -2,5E-06 -1,9E-06

b3 -1,3E-06 -1,4E-06 -1,1E-06

b9 6,5E-11 6,8E-11 8,5E-11

Tabela B.14: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 2) – 40 pontos de

apoio.

Experimentos A B C D E F

POE POE

X0 90,60 92,13 85,31 X0 52,74 52,47 52,10

Y0 93,18 94,73 87,53 Y0 53,37 53,11 52,85

Z0 53,91 54,77 50,69 Z0 54,55 54,28 54,15

κ0 1,1E-02 9,9E-03 9,8E-03 R0 3,6E-03 3,6E-03 3,6E-03

a1 3,4E-02 3,5E-02 3,2E-02 P0 3,7E-03 3,6E-03 3,6E-03

a2 3,5E-02 3,6E-02 3,3E-02 ψ0 9,9E-03 9,1E-03 9,0E-03

a3 2,0E-02 2,1E-02 1,9E-02 a1 1,9E-02 1,9E-02 1,8E-02

a6 3,9E-06 3,7E-06 3,6E-06 a2 1,9E-02 1,9E-02 1,7E-02

b1 2,7E-06 2,7E-06 2,5E-06 a3 1,1E-02 1,1E-02 9,9E-03

b2 2,8E-06 2,8E-06 2,5E-06 a9 3,7E-06 3,4E-06 3,4E-06

b3 1,6E-06 1,6E-06 1,5E-06 b1 1,8E-06 1,8E-06 1,6E-06

b6 3,1E-10 2,8E-10 2,8E-10 b2 1,8E-06 1,8E-06 1,6E-06

b3 9,8E-07 9,6E-07 8,8E-07

b9 2,9E-10 2,6E-10 2,6E-10

117

Tabela B.15: Média do erro verdadeiro nos POE para a Imagem 2 (Teste 2) – 12 pontos de apoio.

Experimentos G H I J K L

POE POE

X0 -4,94 -36,80 -31,78 X0 -4,37 -3,93 -0,33

Y0 5,15 37,55 32,17 Y0 6,71 6,15 3,32

Z0 2,98 23,12 20,08 Z0 2,72 2,48 0,70

κ0 -1,5E-02 -8,1E-03 -8,1E-03 R0 7,2E-05 -7,2E-06 5,0E-05

a1 4,5E-03 2,6E-02 1,5E-02 P0 2,3E-05 1,2E-04 1,3E-04

a2 -4,6E-03 -2,7E-02 -1,5E-02 ψ0 -3,1E-04 1,4E-03 1,5E-03

a3 -2,9E-03 -1,6E-02 -9,3E-03 a1 -7,3E-02 -7,0E-02 -5,4E-02

a6 7,3E-06 3,7E-06 3,5E-06 a2 7,1E-02 6,7E-02 5,1E-02

b1 -3,0E-07 -2,1E-06 -1,1E-06 a3 4,0E-02 3,8E-02 3,0E-02

b2 3,1E-07 2,1E-06 1,1E-06 a9 -1,2E-06 -1,5E-06 -2,2E-06

b3 2,1E-07 1,3E-06 6,7E-07 b1 7,3E-06 7,0E-06 5,2E-06

b6 -6,1E-10 -3,1E-10 -2,9E-10 b2 -7,0E-06 -6,7E-06 -5,0E-06

b3 -3,9E-06 -3,8E-06 -2,9E-06

b9 1,4E-10 1,3E-10 2,0E-10

Tabela B.16: Média do desvio-padrão estimado nos POE para a Imagem 2 (Teste 2) – 12 pontos de

apoio.

Experimentos G H I J K L

POE POE

X0 95,53 104,17 93,44 X0 47,34 51,45 51,83

Y0 98,18 107,04 95,76 Y0 47,85 52,00 52,50

Z0 56,84 61,92 55,50 Z0 48,78 53,01 53,65

κ0 1,1E-02 1,1E-02 1,1E-02 R0 3,2E-03 3,5E-03 3,6E-03

a1 6,9E-02 7,4E-02 5,3E-02 P0 3,3E-03 3,6E-03 3,6E-03

a2 7,0E-02 7,6E-02 5,4E-02 ψ0 9,7E-03 9,6E-03 9,7E-03

a3 4,1E-02 4,4E-02 3,2E-02 a1 2,8E-02 3,1E-02 2,7E-02

a6 7,9E-06 6,3E-06 5,9E-06 a2 2,8E-02 3,0E-02 2,6E-02

b1 6,2E-06 6,7E-06 4,5E-06 a3 1,7E-02 1,7E-02 1,6E-02

b2 6,3E-06 6,8E-06 4,6E-06 a9 6,7E-06 5,2E-06 5,2E-06

b3 3,7E-06 4,0E-06 2,7E-06 b1 2,7E-06 2,9E-06 2,5E-06

b6 7,1E-10 5,3E-10 5,0E-10 b2 2,6E-06 2,9E-06 2,4E-06

b3 1,6E-06 1,6E-06 1,4E-06

b9 6,1E-10 4,4E-10 4,4E-10

118

APÊNDICE C

Arquivos de entrada do programa TMS

Quadro C.1: Arquivo de projeto.

Quadro C.2: Arquivo de orientação interior.

Quadro C.3: Arquivo de orientação exterior das quatro imagens – Modelo com 12 POE.

12246 1 // largura e altura da imagem (pixel)

0.010 0.010 // tamanho do pixel em x e y (mm)

3398.00 -1 // distância focal da câmara e desv. Padrão - DP (mm)

0.0 0.0 -1 -1 // coordenadas do ponto principal (x0, y0) e DP (mm)

0.0 0.0 0.0 -1 -1 -1 // parâmetros de distorção radial (k1, k2, k3) e DP

0.0 0.0 -1 -1 // parâmetros de distorção descentrada (p1, p2) e DP

0.0 0.0 -1 -1 // parâmetros de afinidade (A, B) e DP

22 1 4194087.656 -5165910.950 -2636377.388 -66 -34 117 -1.027322 0.3580561 -2.341402 0.00 0.00

0.000000 0.00 0.00 0.000000 0.0000 0.00 0.00 1000 1000 1000 -1 -1 1000 1000 1000 1000 -1 -1 1000 1000

1000 1000 -1 -1 1000 1 1

22 2 4273737.477 -5092148.649 -2651226.307 -62 -41 -240 -1.038135 0.3458453 -2.342999 0.00 0.00

0.000000 0.00 0.00 0.000000 0.0000 0.00 0.00 1000 1000 1000 -1 -1 1000 1000 1000 1000 -1 -1 1000 1000

1000 1000 -1 -1 1000 1 1

22 4 4202543.187 -5169151.639 -2616806.246 -66 -34 -242 -1.026144 0.3533576 -2.351041 0.00 0.00

0.000000 0.00 0.00 0.000000 0.0000 0.00 0.00 1000 1000 1000 -1 -1 1000 1000 1000 1000 -1 -1 1000 1000

1000 1000 -1 -1 1000 1 1

22 5 4263110.205 -5114107.621 -2626650.603 -64 -219 -298 -1.030159 0.3437433 -2.347002 0.00 0.00

0.000000 0.00 0.00 0.000000 0.0000 0.00 0.00 1000 1000 1000 -1 -1 1000 1000 1000 1000 -1 -1 1000 1000

1000 1000 -1 -1 1000 1 1

orientacao relativa

0

oi_HRC.iop // nome do arquivo de parâmetros de orientação interior (OI)

oe_HRC_23.eop // nome do arquivo de parâmetros de orientação exterior

(OE)

apoio_pontos_HRC.gcp // nome do arquivo de pontos de apoio

obs_HRC.img // nome do arquivo de observações (coordenadas de imagem:

coluna linha)

1 // número de câmaras usadas na calibração

1 // opção de coordenadas dos pontos de imagem:1(C,L); 2 = (x,y)

1 // opção de geor. direto: 1 = sem GPS/INS; 2 = com GPS; 3 = com GPS/INS

0 // número de faixas de vôo.

0.0000001 // critério de convergência no ajustamento

1.0 // variância a priori

50 // número máximo de iterações no ajustamento

119

Quadro C.4: Arquivo com as coordenadas de alguns pontos e retas de apoio.

Quadro C.5: Arquivo com as observações de alguns pontos e retas.

1 1 3735779.065 -4575353.707 -2399775.459 0.50 0.50 0.70

2 1 3736145.014 -4575224.407 -2399426.907 0.50 0.50 0.70

3 1 3726999.088 -4581802.492 -2400952.551 0.50 0.50 0.70

4 1 3727117.302 -4581332.988 -2401707.205 0.50 0.50 0.70

5 1 3737256.224 -4575053.566 -2397915.511 0.50 0.50 0.70

6 1 3737909.971 -4575013.477 -2397018.413 0.50 0.50 0.70

200 2 3727181.421 -4581349.990 -2401579.182 0.50 0.50 0.70 3727087.559 -4581317.735 -

2401786.585 0.50 0.50 0.70

202 2 3727021.211 -4581872.356 -2400775.258 0.50 0.50 0.70 3726902.496 -4582192.154 -

2400337.470 0.50 0.50 0.70

204 2 3727530.572 -4582172.345 -2399407.164 0.50 0.50 0.70 3727762.805 -4581954.641 -

2399458.225 0.50 0.50 0.70

206 2 3729912.253 -4580042.541 -2399957.616 0.50 0.50 0.70 3730850.888 -4579106.303 -

2400154.046 0.50 0.50 0.70

208 2 3732936.822 -4577135.982 -2400610.419 0.50 0.50 0.70 3733900.443 -4576295.160 -

2400835.258 0.50 0.50 0.70

210 2 3734172.066 -4576039.783 -2400881.335 0.50 0.50 0.70 3735418.177 -4575008.629 -

2400960.820 0.50 0.50 0.70

22 1 4 421.787721 11622.787375 2.0 2.0 1

22 1 10 807.070365 12075.763443 2.0 2.0 1

22 1 12 1426.018180 10352.593344 2.0 2.0 1

22 1 13 2773.544879 9570.874824 2.0 2.0 1

22 1 26 9106.854651 3269.489535 2.0 2.0 1

22 1 27 10025.097903 813.381235 2.0 2.0 1

22 1 30 10422.376070 10019.2556 2.0 2.0 1

22 1 32 10526.224438 9172.040563 2.0 2.0 1

22 1 33 11123.043037 7670.701430 2.0 2.0 1

22 1 34 10399.688422 8772.720342 2.0 2.0 1

22 1 36 9881.906005 6672.866196 2.0 2.0 1

22 1 46 10949.970987 3920.501899 2.0 2.0 1

22 1 200 422.375000 11612.125000 2.0 2.0 2

22 1 200 423.375000 11569.375000 2.0 2.0 2

22 1 202 121.146077 11216.057935 2.0 2.0 2

22 1 202 23.529695 11119.394573 2.0 2.0 2

22 1 204 1120.280154 10545.127663 2.0 2.0 2

22 1 204 542.460858 10574.947959 2.0 2.0 2

22 1 206 1877.633972 10506.933175 2.0 2.0 2

22 1 206 1679.115047 10517.423791 2.0 2.0 2

22 1 210 4275.930530 10352.521929 2.0 2.0 2

22 1 210 4657.607557 10283.230523 2.0 2.0 2

22 1 212 6636.808266 9929.422891 2.0 2.0 2

22 1 212 7050.808085 9856.376102 2.0 2.0 2

22 1 214 8084.073280 10247.727335 2.0 2.0 2