cap. iii - elementos de fotogrametria e sensoriamento remoto

52
Capítulo III Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica UFPR Prof. Daniel Santos 92 CAPÍTULO III 3.1. Sistemas sensores de imageamento Existem diversos tipos de sensores de imageamento utilizados na Fotogrametria e Sensoriamento Remoto, os mais comuns são: detectores de arranjo matricial; detectores de arranjo linear; detectores de arranjo linear multiespectral; detectores de arranjo matricial multiespectral; e detectores de arranjo linear hiperespectral. Usualmente, os sensores são classificados como ativos e passivos, e neste capítulo, estão organizados de acordo com o tipo de tecnologia de imageamento utilizada pelo sensor. A Figura 3.1 mostra os sensores que serão estudados aqui.

Upload: ufpr

Post on 22-May-2015

6.453 views

Category:

Documents


6 download

DESCRIPTION

Este documento trata dos seguintes assuntos referentes ao capítulo I da apostila de Elementos de Fotogrametria e Sensoriamento Remoto: - sistema sensores de imageamento; - sistema LiDAR.

TRANSCRIPT

Page 1: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

92

CAPÍTULO III

3.1. Sistemas sensores de imageamento Existem diversos tipos de sensores de imageamento utilizados na

Fotogrametria e Sensoriamento Remoto, os mais comuns são: detectores

de arranjo matricial; detectores de arranjo linear; detectores de arranjo

linear multiespectral; detectores de arranjo matricial multiespectral; e

detectores de arranjo linear hiperespectral.

Usualmente, os sensores são classificados como ativos e passivos, e

neste capítulo, estão organizados de acordo com o tipo de tecnologia de

imageamento utilizada pelo sensor. A Figura 3.1 mostra os sensores que

serão estudados aqui.

Page 2: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

93

Figura 3.1. Tipos de tecnologia de imageamento. (FONTE: JENSEN, 2009)

3.1.1. Sistemas passivos

De todos os tipos de sistemas utilizados no processo de gravação de

dados para medidas fotogramétricas, o sistema de câmara ainda é o mais

empregado. O marco inicial da evolução das câmaras aéreas se deve ao

desenvolvimento do processo fotográfico e posteriormente à invenção das

aeronaves.

A partir deste instante, os tecnólogos iniciaram suas pesquisas em

busca de tecnologia mais avançada, com a finalidade de melhorar os

sensores para a aquisição dos dados, corrigir os efeitos de perspectiva,

Page 3: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

94

borramente provocado pelo arrastamento das imagens, resolução espacial,

espectral, radiométrica, entre outros aspectos. A Figura 3.2 apresenta um

breve histórico da evolução das câmaras aéreas destinadas ao

mapeamento.

Figura 3.2. Evolução das câmaras aéreas destinadas ao mapeamento.

As câmaras aéreas tiveram sua primeira funcionalidade na I e II

Guerra Mundial, com a finalidade da tomada de fotografias para fins de

estratégia militar. A câmara do tipo handheld era utilizada de forma que um

operador a segurava com as mãos para a tomada das fotografias. Percebe-

se que, o uso desta câmara somente poderia ser útil para finalidades de

reconhecimento, sendo totalmente desconsiderado seu uso para

mapeamento cartográfico de precisão.

Em 1922 surgiu a primeira câmara RMK C1, com dispositivos

mecânicos mais avançados e um sistema de lentes superior à primeira

Page 4: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

95

câmara aérea desenvolvida. Com isto, o avanço graduado da tecnologia

influenciou cada vez mais a melhoria dos sistemas de lentes e desta forma,

câmaras aéreas com melhor qualidade geométrica e radiométrica estão

sendo desenvolvidas. Em 1999, na semana fotogramétrica

(Photogrammetric Week), foi anunciado o desenvolvimento da câmara

digital de arranjo matricial DMC-Z/I e em 2002 ocorreu seu lançamento no

mercado de mapeamento.

Atualmente, existem três classificações de câmaras utilizadas na

aquisição de imagens para mapeamento, isto é:

Câmara métrica convencional;

Câmaras digitais convencionais; e

Câmaras digitais métricas.

3.1.1.1. Câmara métrica convencional

Uma câmara métrica convencional é projetada especialmente para

aquisição de fotografias para fins cartográficos, pois fornece precisão

geométrica adequada para mapeamento. Uma câmara aérea com esta

capacidade é denominada de câmara cartográfica. Esta classificação é

empregada na produção de mapas e cartas topográficas. As câmaras

métricas são aquelas que possuem as denominadas marcas fiduciais, cuja

finalidade é materializar o sistema de coordenadas fotográficas garantindo

rigidez geométrica, devido ao plano focal ser estável.

Este tipo de câmara utiliza rolos de filme para gravação dos objetos

contidos na superfície física, no modo pancromático ou colorido. A Figura

3.3 apresenta algumas câmaras aéreas baseada em filmes.

Page 5: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

96

Figura 3.3. Câmaras aéreas baseadas em filmes.

Fotografias tomadas com câmaras métricas convencionais são

denominadas de fotografias analógicas e o processo de transformação de

uma fotografia analógica para uma imagem digital ocorre por meio de um

processo denominado rasterização ou digitalização, via scanner

fotogramétrico (ver capítulo I).

As câmaras métricas convencionais são do tipo quadro fotográfico,

ou seja, expõe um quadro de área do terreno em cada tomada de fotografia

em um dado instante. Isto requer que as lentes forneçam uma cobertura

angular adequada para que seja gravada a porção da área de interesse. A

Figura 3.4 apresenta um esquema gráfico de uma câmara de quadro

fotográfico.

Page 6: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

97

Figura 3.4. Quadro de área no terreno.

Este tipo de câmara fornece fotografias de tamanho 23x23 cm e

permite recobrimento longitudinal de 60% à 90% e lateral de 10% à 30%,

com uma resolução geométrica de 2.5 m (TOMMASELLI, 2001). As

principais partes de uma câmara aérea métrica convencional de quadro

fotográfico são: Cone; Corpo; e Magazine.

O cone de uma câmara é utilizado como suporte para o sistema de

lentes fixado em relação à superfície inferior do cone. A superfície superior

do cone de uma câmara contém o plano focal que possui marcas de

referência, denominadas marcas fiduciais, que materializam o sistema de

coordenadas da fotografia resultante, ou sistema fotográfico.

O corpo da câmara é constituído do cone externo (a função do cone

externo é receber o cone interno e o mecanismo de avanço motorizado do

filme e servir de interface para o magazine) e de outras peças, tais como,

suportes, alavancas de comando e dispositivos de controle automático do ciclo

Page 7: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

98

de funcionamento da câmara. Existem vários dispositivos para manter o filme

plano, sendo o dispositivo de vácuo-sucção o mais comum.

O magazine da câmara é utilizado para armazenar, avançar e aplainar

o filme e possue um dispositivo de compensação de arrastamento (consiste

em um borramento na imagem provocado pelo movimento relativo do objeto

enquanto o obturador da câmara permanece aberto durante o tempo de

exposição do filme).

Para Tommaselli (2001), os dispositivos de compensação de

arrastamento provocam um pequeno movimento sincronizado do negativo, na

direção do vôo, enquanto o obturador está aberto (Figura 3.5a). Este pequeno

movimento elimina o arrastamento e melhora significativamente a qualidade

da imagem (Figura 3.5b). Na Figura 3.5b mostra-se um magazine com um

dispositivo de compensação, também chamado de FMC (Forward Motion

Compensation), da câmara RMK-Top, Zeiss.

Figura 3.5. Compensação do arrastamento. (a) Borramento na imagem

causado pelo arrastamento. (b) Imagem sem arrastamento (FONTE:

TOMASELLI, 2001)

(a) (b)

A seguir serão apresentadas as características das câmaras digitais

convencionais.

Page 8: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

99

3.1.1.2. Câmaras digitais convencionais

As câmaras digitais convencionais são classificadas como: de

pequeno e médio formato, com modelos amadores e profissionais. As

câmaras digitais amadoras não possuem rigidez geométrica e radiométrica

da imagem. As câmaras digitais profissionais possuem lentes e

componentes internos de melhor qualidade geométrica, porém ainda não

alcançam a precisão das câmaras métricas convencionais. Estes modelos

têm sido bastante utilizados em projetos de cunho científico e, desde que

devidamente calibrados, podem ser utilizados para trabalhos

fotogramétricos.

As câmaras de pequeno e médio formato possuem algumas

vantagens em relação às câmaras métricas convencionais, tais como: são

leves e de fácil manejo; custo reduzido; possuem um intervalo de distâncias

focais; flexibilidade de integração com sistemas GPS e INS; podem ser

integrados em diversos tipos de aeronaves; e grande disponibilidade no

mercado.

A seguir serão apresentadas as características das câmaras digitais

métricas.

3.1.1.3. Câmaras digitais métricas

3.1.1.3.1. Sistema Tri-Linear

De acordo com Fricker et al (2000), o sistema Tri-Linear possui 3

sensores CCD com configuração de varredura linear, cuja amostragem do

terreno é feita em 3 faixas. O sistema consiste de 3 sensores lineares

posicionados no plano focal, cujas visadas são denominadas de anterior,

nadir e posterior garantindo a geometria e a cobertura estereoscópica da

superfície, bem como sensores multiespectrais com sensibilidade

Page 9: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

100

controlada por filtros RGB e infravermelho, localizados próximos ao nadir. A

Figura 3.6 mostra as visadas anterior, nadir e posterior do sistema Tri-

Linear.

Figura 3.6. Visadas de aquisição de imagens do sistema Tri-Linear.

Com o sistema Tri-Linear todos os objetos aparecem em todas as

três faixas coletadas pelos sensores (Figura 3.7). A Figura 3.7, mostra duas

imagens adquiridas com o sistema supracitado nas visadas anterior e nadir.

Page 10: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

101

Figura 3.7. Imagens originais de visada anterior e nadir, adquiridas pelo

sistema Tri-Linear. (FONTE: HAALA, 2001)

Como pode ser percebida na Figura 3.7, as imagens originais

apresentam-se distorcidas e por isso é necessário um tratamento da

imagem (correção geométrica para ajustar as linhas imageadas) baseada

no emprego dos parâmetros de posição e atitude fornecidos pelo sistema

de integração GPS/INS. A partir destes parâmetros é realizada uma

retificação inicial das imagens, seguida de fototriangulação para o

refinamento da solução (para maiores detalhes ver HAALA, 2001). A Figura

3.8 apresenta as imagens retificadas.

Figura 3.8. Imagens retificadas de visada anterior e nadir, adquiridas pelo

sistema Tri-Linear. (FONTE: HAALA, 2001)

Page 11: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

102

Existem dois modelos de câmaras baseadas na abordagem Tri-

Linear, isto é, as câmaras HRSC-A (desenvolvida pelo Centro Espacial da

Alemanha) e ADS 40/50 (Desenvolvida pelo convênio Leica Geosystems e

Centro Espacial da Alemanha). Aqui serão tratadas as características da

câmara ADS 40.

Câmara ADS 40

O sensores lineares ADS 40-Leica foram lançados no XIX Congresso

da ISPRS em julho de 2000, desenvolvida pela LH-System em cooperação

com o Centro Aeroespacial Alemão. A Figura 3.9 mostra uma imagem da

câmara instalada em uma aeronave.

Figura 3.9. (a) Câmara ADS40 – LEICA. (b) Câmara instalada na aeronave.

(FONTE: FRICKER, 2001).

(a) (b)

Este tipo de câmara utiliza três componentes básicos para aquisição

de imagens, tais como: uma câmara digital de arranjo linear, receptor GPS

para determinação da posição e um INS para a determinação da atitude da

aeronave. O sensor digital linear fornece imagens do terreno por meio de

varreduras contínuas com as características do sistema Tri-Linear.

Page 12: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

103

A câmara digital possui um sistema de lente com uma ou mais

distâncias focais, 3 a 5 sensores lineares no modo Pancromático (estéreo)

e de 3 a 7 sensores multiespectrais (RGB e infravermelho). A Figura 3.10

apresenta a varredura contínua e o esquema de varredura para cada tipo

de modo (PAN e Multiespectral).

Figura 3.10. Varredura contínua e seus modos de imageamento.

O campo de visada (FOV) do modo PAN anterior é de 28.40,

enquanto que o PAN posterior é de -14.20 ambos em relação a visada

nadiral. Isto faz com que se tenha uma imagem estereoscópica e possibilita

a visualização tridimensional. Para os sensores multiespectrais a visada do

infravermelho posterior é de -2.00 e a visada RGB anterior é de 16.1

0.

Algumas vantagens deste tipo de sistema em relação às câmaras

convencionais são:

A projeção da imagem é perspectiva paralela;

Número de imagens para o recobrimento aéreo da região de

interesse é menor;

Page 13: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

104

Resolução multiespectral melhor que as imagens de satélite

de alta resolução;

Produtos ligeiramente mais rápidos;

Sem a necessidade de rolos de filme, laboratório fotográfico

e scanners; e

Resolução de 8 a 12 bits, permitindo a visualização de

objetos obstruídos por sombra.

Além das câmaras digitais de sensor linear também existem as

câmaras digitais de sensor matricial. A Tabela 3.1 apresenta algumas

diferenças entre a câmara digital de sensor linear e de sensor matricial.

Tabela 3.1. Diferenças básicas entre câmara digital de sensor linear e

matricial. (ADAPTADO DE FRICKER, 2001).

ADS – 40 (Airbone Digital Sensor) DMC (Digital Mapping Camera)

Sensor CCD de arranjo linear Sensor CCD de arranjo matricial

PAN (24000 pixels) Pan (13826 x 7680 pixels)

MS – R,G,B e NIR*

MS – R,G,B e NIR

Tamanho do pixel 6,5 x 6,5 m Tamanho do pixel 12 x 12 m

1 lente telocêntrica 4 lentes da Zeiss (PAN) + 4 lentes (MS)

Distância focal 62,7 mm Distância focal 120 mm (PAN) e 25,4 mm (MS)

FOV 640 FOV 74

0 x 44

0

12 bits / 8 bits 12 bits

Sistema inercial/GPS Sistema inercial/GPS (opcional)

Resolução espacial mínima 15 cm Resolução espacial mínima 5 cm

Memória 540 GB Memória 840 GB (> 2000 imagens)

*NIR: infravermelho próximo.

Page 14: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

105

Sensor Digital Aerotransportado

O crescente desenvolvimento dos sensores digitais fotogramétricos

aerotransportados, aponta para a uma grande mudança na forma de

aquisição, processamento, manuseio e geração de produtos a partir de

imagens aéreas, permitindo a sua aplicação para diferentes áreas do

conhecimento, proporcionando uma redução no tempo de produção

(processamento totalmente digital), melhor resolução espacial e

radiométrica, aquisição simultânea de imagens pancromáticas e

multiespectrais, mais flexibilidade e custos mais baixos.

Com base no tamanho do formato de aquisição da imagem os

sensores podem ser divididos em: a) pequeno formato: geram imagens com

tamanho de até 16 megapixels; b) médio formato: geram imagens entre 16

e 50 megapixel; c) grande formato: geram imagens acima de 50 megapixel

(PETRIE et alii, 2007) .

Dentre os sensores de grande formato existentes no mercado, citam-

se os modelos que operam com foto e sensores matriciais (ITT: Geospatial

System; DIMAC: Dimac Systems; DMC Z/I: Intergraph; Ultracam-D e

Ultracam-X: Vexcel; STARIMAGER-TLS: Starlabo), sensores com linha

simples (LINHA SIMPLES?) e varredura monocrómático (THALES

OPTONICS 8010 e 8042: Vinten; GLOBAL SCAN: France), sensores com

linha simples e de varredura colorido (VOS 60 e VOS-80: Zeiss;

VERIMARC: Verimarc Plus Inc.), sensores com linha simples e varredura

hiperespectral (ITRES RESEARCH: Canadá; SPECIM: Finlândia,

INTEGRATED SPECTRONS: Austrália), sensores com linha simples com

varredura panorâmico (Goodrich Paranoramic Line Scanner), sensor com

três linhas e varredura linear estéreo (HRSC-AX e HRSC-AXW:DLR; JAS

150: Jena Optronik, ADS40 e a 2ª geração ADS80:Leica, 3-DAS-1 e 3-OC:

Wehril Associates-USA e Geosystems-Ukraine), (PETRIE et alli, 2007).

Page 15: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

106

Aqui será tratado do sensor digital ADS 40 de varredura linear.

Sensor Digital ADS 40

Lançado no XIX Congresso ISPRS de Amsterdã realizado em Julho

de 2000, o sensor digital aerotransportado, figura 3.11, da LH Systems

inicia uma nova era da fotogrametria digital, apropriadamente colocado no

início do novo milênio. Desenvolvido em conjunto com o Deutsche Zentrum

für Luft - und Raumfahrt (Centro Aeroespacial Alemão – DLR) em Berlin

(SANDAU et alli, 2000), o ADS40 foi o primeiro dispositivo imageador digital

aerotransportado com capacidade e performance, em termos de resolução

e cobertura, nas medidas similares as estabelecidas pelas câmaras aéreas

analógicas de filmes com formato 23 x 23 cm e resolução maior do que 100

linhas por milímetro (FRICKER et alli, 2001).

Figura 3.11. Sensor ADS 40. Adaptado de FRICKER et alli, 2005ª.

O ADS40 é um sensor digital linear aerotransportado com grande

campo de visão, alta resolução, acurácia geométrica e radiométrica que

utiliza o princípio de varredura com três linhas de sensores CCD (em inglês,

Page 16: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

107

Charged Coupled Device), organizadas perpendicularmente à direção de

vôo (denominado pushbroom), obtendo desta forma, visada anterior,

vertical e posterior, figura 3.12, possibilitando a geração de modelos em três

dimensões.

Figura 3.12. Princípio dos três escâner linear. Adaptado de FRICKER et

alli, 2005ª.

Na aquisição de imagens aéreas do terreno com o ADS40, todos os

objetos são gravados três vezes em 100% das cenas ou visadas, enquanto

em uma câmara aérea analógica com filme ou digital por foto, a aquisição

da imagem é obtida com 60 ou 50% de todos os objetos em três fotos

diferentes, figura 3.13.

Page 17: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

108

Figura 3.13. Sobreposição de imagens na ADS40. Adaptado de FRICKER et alli, 2005.

O ADS40 gera imagens de faixas contínuas sem emendas ao longo

de cada linha de vôo, figura 3.14, e em diferentes perspectivas centrais,

figura 3.15, que permite, por exemplo, com o uso do produto do CCD linear

de visada vertical, uma faixa de imagem chamada quase-ortogonal

(FRICKER, 2005b).

Figura 3.14. Imagem Pancromática com visada vertical. Adaptado de FRICKER et alli, 2000.

Page 18: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

109

Figura 3.15. Efeito da perspectiva central. Adaptado de FRICKER et alli, 2000.

Composição do Sensor Digital ADS 40

Inertial Navegation System (INS)

O ADS40 possui uma unidade de medida inercial composta por um

sistema de navegação inercial que utiliza tecnologia de posicionamento por

satélite (GPS) e determinação da atitude por um inercial (INS). O uso de

GPS/INS fornece ao sistema a capacidade de determinar continuamente o

deslocamento espacial do sensor de forma autônoma, apresentando

precisão suficiente para o georreferenciamento direto de imagens digitais

(MCMILLAN et alli, 1994; CRAMER et alli, 2001; CRAMER, 2003) , figura

3.16, possibilitando a realização de mapeamento com maior flexibilidade e

rapidez (RUY, 2004).

Page 19: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

110

Figura 3.16. Plano focal com a posição do sensor CCD linear. Adaptado de FRICKER et alli, 2000.

Módulo Plano Focal e Sensor CCD (Charged Coupled Device)

O plano focal, figura 3.17a, consiste de quatro conjuntos lineares de

CCD: dois deles contendo duas linhas e os outros dois contendo três linhas,

figura 3.17b, cada linha com duas matrizes de 12.000 pixels (SANDAU et

alli, 2000) separadas por uma distância de 3,5 m, sendo, 6,5 x 6,5 m a

dimensão de cada pixel, que permitem medir os valores absolutos dos

fótons que entram no sistema, como uma função de transferência linear.

Os dois conjuntos de CCD externos, formados com 2x12.000 pixels

operam a banda pancromática, e os dois conjuntos internos, divididos em,

um conjunto contendo 3x12.000 pixels que opera as bandas RGB

(vermelho, verde e azul) e o outro conjunto também com 3x12.000 pixels

que opera, com duas linhas a banda pancromática e uma linha, a banda do

infravermelho próximo (NIR).

Page 20: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

111

Com esta disposição o sensor tem capacidade de gerar imagens no

pancromático anterior com o primeiro conjunto linear de CCD, imagens

multiespectrais nas bandas RGB (vermelho, verde e azul) com o segundo

conjunto, imagens no pancromático (visada vertical) com as duas primeiras

linhas e na banda do infravermelho próximo com a terceira linha do terceiro

conjunto de CCD e imagem no pancromático (visada posterior) com o

primeiro quarto conjunto, figura 3.17c.

Figura 3.17. Plano focal com a posição do sensor CCD linear e a

composição de bandas da imagem. Adaptado de FRICKER et alli, 2000.

Sistema Ótico Digital e Filtros

A ótica inovadora da ADS40 é projetada para uso em fotogrametria e

sensoriamento remoto. A lente é semelhante em suas dimensões externas,

peso e resolução as lentes da câmara RC-30 com filme, sendo diferentes

em relação ao modo de gravação, pois, enquanto nas câmaras com filme a

Page 21: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

112

minimização da distorção é primordial, a maior demanda requerida em

câmaras digitais é o telecentrismo das imagens, em função do trabalho com

bandas multiespectrais, (SANDAU et alli, 2000).

O sistema ótico digital possuí, uma lente telecêntrica de distância

focal de 62,5 mm, figura 3.18, tamanho de pixel na imagem de 6,5 m, uma

abertura de visualização no solo com campo de visão FOV (em inglês, Field

of View) com ângulo de cobertura de 64°, diafragma com abertura f:4,

ângulos estéreos de 16° (visada vertical para anterior), 26° (visada posterior

para vertical) e 42° (visada anterior para posterior), faixa espectral entre 428

e 887 nanômetro (R:608,662nn; G:533-587nn; B:428-492nn; NIR1:703-

757nn e NIR2:833-887nn), resolução de 150 linhas por mm, precisão

geométrica de 1 m, medida dinâmica de 12-bit, resolução radiométrica de

8-bit; vermelho com freqüência de 200-800 HZ, capacidade de

armazenamento com capacidade de 200-500 GB, estabilização térmica e

barométrica na faixa de alta precisão de +10° até +30°, distorção radial

menor ou igual a 3%, filtros de bandas e de interferência metálica além dos

filtros para bandas RGB mantendo a qualidade campo visual do sensor

(SANDAU et alli, 2000 e FRICKER et alli, 2005a).

Figura 3.18. Sistema Ótico Digital ADS40. Adaptado de FRICKER et alli,

2000.

Page 22: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

113

Sistema de Feixes Trichroid (Tricóide)

O sistema de divisão de feixes Trichroid desenvolvido pela Leica

especialmente para a ADS40, foi concebido com uma perda mínima de

energia, e garante que a luz, a partir da mesma área do solo, seja

detectada por três arranjos lineares sensíveis ao RGB. Outra matriz linear

sobre o plano focal captura os dados no infravermelho próximo, figura 3.19

(FRICKER et alli, 2001).

Figura 3.19. Sistema Trichroid desenvolvido pela Leica para a ADS40. Adaptado de FRICKER et alli, 2000.

Processamento e Aerotriangulação dos Dados do ADS40

Os metadados originais, com as imagens e parâmetros posicionais e

de atitude do sensor no momento da tomada das imagens, permitem, a

obtenção de uma visão estéreo, medidas manuais de pontos de controle e

medidas automáticas de pontos fotogramétricos, e isto, garante o

processamento e o ajustamento do bloco, resultando em uma imagem

retificada com precisão e livre de paralaxe, que pode ser vista

estereoscopicamente, e ser usada, por exemplo, para coleta e edição de

feições cartográficas (FRICKER et alli, 2001).

Page 23: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

114

As imagens são classificadas de acordo com os níveis de

processamento em: a) Nível 0 (zero) – Dados Brutos: consistem em

imagem geométricas básicas (formato TIFF e outros formatos) e dados de

orientação processados; b) Nível 1 (um) – Dados Corrigidos: consistem em

imagens multiespectrais e pancromáticas estéreo totalmente retificadas; c)

Nível 2 (dois) – Dados Geoposicionais: consistem em ortofotos

pancromáticas e multiespectrais. Os dados de nível zero utilizam o LH

Systems ADS gerador nível zero e o pós processamento applanix, já os

níveis um e dois utilizam o systems ADS gerador nível um, SOCET SET,

DPW, ORIMA ou três pares fotogramétricos na estação de trabalho com

sensor de modelo ADS (FRICKER et alli, 2001).

Aplicações e contribuições para sistema digital aerotransportado

Em função do sensor aerotransportado ADS40 possuir uma

resolução espacial variando entre 0,8 m e 0,01m e uma resolução espectral

no pancromático e no multiespectral este sensor é indicado para aplicações

de fotogrametria e sensoriamento remoto.

O produto gerado pelo sensor pode ser utilizado em áreas clássicas

da cartografia como, defesa, mapeamento topográfico, construção civil,

infra-estrutura, telecomunicações, energia, agricultura, floresta, seguro e

desastres (HEIER, 1999).

Novos métodos, em comparação com os já existentes para o

processamento de filmes aéreos digitalizados, foram introduzidos ao longo

dos últimos anos e investigações cuidadosas têm demonstrado que o

desempenho, a arquitetura, direção, georreferenciamento, modelagem do

sensor, processamento de pontos, aerotriangulação do sensor

aerotransportado ADS40 (FRICKER, 2001; HINSKEN et alli, 2002;

SANDAU et alli, 2000; TEMPELMANN et alli, 2000) e outros sistemas

Page 24: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

115

(FRITSCH, 1997; HAALA et alli, 2000; HOFFMANN et alli, 2000; LEBERL et

alli, 2003; TIANEN et alli, 2003; WEWEL et alli, 1998; apud PATERAKI et

alli, 2003a).

As pesquisas envolvendo o ADS40 demonstram a construção, o

desempenho, geometria e resolução do sensor (SANDAU et alli, 2000;

ECKARDT et alli, 2000; ZHU, 2004; CRAMER, 2006), a acurácia e a

precisão no uso da fotogrametria e do sensoriamento remoto (FRICKER et

alli, 2001; GREEN et alli, 2007; WASER et alli, 2007; DAI et alli, 2008;

ADDULLAH, 2009), o processamento, análise da qualidade radiométrica da

imagem, extração de feições por correlação de pixels e a geração de

modelos digitais de superfície (GWINNER et alli, 1999; NEUKUM, 1999;

SCHOLTEN, 2000; PATERAKI et alli, 2002; PATERAKI et alli, 2003a;

PATERAKI et alli, 2003b; HONKAVAARA et alli, 2007), a obtenção da

aerotriangulação usando os parâmetros determinados pelo sistema de

navegação inercial GPS/IMU (HINSKEN et alli, 2002), a investigação da

acurácia de mapeamentos topográficos (YOTSUMATA et alli, 2002) e a

comparação radiométrica entre o sensor ADS40 e outros sensores

(HONKAVAARA; 2007).

Resolução espacial do pixel no terreno e a escala do mapa

Quando tratamos de imagens aéreas da superfície terrestre por meio

de sensores digitais aerotransportado, o detalhe mais importante para a

definição da precisão e acurácia com que necessitamos obter o produto

cartográfico não, é a escala da foto e a altitude de vôo, como no caso de

câmaras aéreas convencionais, e sim o tamanho ou resolução espacial do

pixel no terreno, também conhecido como GSD (em inglês, Ground Sample

Distance).

Page 25: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

116

A tabela 3.2 apresenta a relação entre o GSD do sensor ADS40 e a

escala do mapa.

Tabela 3.2. Relação GSD e escala do mapa. Adaptado de FRICKER et alli, 2000.

GSD

com

ADS4

0

Escala do

Mapa

Mapa Padrão Comparação com filme

fotográfico

Acurácia x,y

RMSE

Intervalo de

Curva de Nível Escala da Foto

Tam

anho

do

pixel

do

filme

esca

nead

o

5 – 10 cm

1:500 0,125 m 0,25 m 1:3.000 até 1:5.500 2,50 – 5,00 cm

10 –

15 cm

1:1.000 0,250 m 0,50 m 1:5.000 até 1:8.000 5,00 –

7,50 cm

15 – 20 cm

1:1.500 0,400 m 0,75 m 1:6.500 até 1:10.000 7,50 – 10,0 cm

20 –

30 cm

1:2.000 0,500 m 1,00 m 1:8.000 até 1:11.000 10,0 –

15,0 cm

25 – 35 cm

1:2.500 0,600 m 1,25 m 1:8.500 até 1:13.000 12,5 – 17,5 cm

30 –

50 cm

1:5.000 1,250 m 2,50 m 1:12.000 até 1:18.000 15,0 –

25,0 cm

40 – 60 cm

1:10.000 2,500 m 5,00 m 1:17.000 até 1:27.000 20,0 – 30,0 cm

50 –

70 cm

1:20.000 5,000 m 10,00 m 1:25.000 até 1:35.000 25,0 –

35,0 cm

50 – 80 cm

1:25.000 6,250 m 12,50 m 1:28.000 até 1:42.000 25,0 – 40,0 cm

50 –

100 cm

1:50.000 12,50 m 20,00 m 1:40.000 até 1:60.000 25,0 –

50,0 cm

50 –

100

cm

1:100.000 25,00 m 50,00 m 1:60.000 até 1:90.000 25,0 –

50,0 cm

Page 26: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

117

Figura 3.20. Exemplo de imagem de saída da ADS40. Adaptado de

FRICKER et alli, 2000.

De forma similar a tabela 3.3 apresenta a relação entre o campo de

visada instantânea (IFOV) de um digitalizador medido em pontos por

polegada (DPI - dots per inch) ou micrômetros ( m), usado na

transformação de uma fotografia aérea convencional em uma imagem

digital, e a resolução espacial do pixel no terreno para fotografias em

diferentes escalas (JENSEN, 2009).

Page 27: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

118

Tabela 3.3. Relação ―pixel‖ no terreno e a escala da fotografia. Adaptado de JENSEN, 2009.

IFOV do

Digitalizador Resolução do “pixel” no terreno para diversas escalas das fotografias (m)

DPI m 1:25.000 1:12.500 1:10.000 1:8.000 1:6.000 1:4.000

100 254,000 6,350 31,750 2,540 2,032 1,524 1,016

200 127,000 3,175 15,875 1,270 1,016 0,762 0,508

300 84,667 2,117 10,583 0,847 0,677 0,508 0,339

400 63,500 1,588 7,938 0,635 0,508 0,381 0,254

500 50,800 1,270 6,350 0,508 0,406 0,305 0,203

600 42,333 1,058 5,292 0,423 0,339 0,254 0,169

700 36,286 0,907 4,536 0,363 0,290 0,218 0,145

800 31,750 0,794 3,969 0,318 0,254 0,191 0,127

900 28,222 0,706 3,528 0,282 0,226 0,169 0,113

1000 25,400 0,635 3,175 0,254 0,203 0,152 0,102

1200 21,167 0,529 2,646 0,212 0,169 0,127 0,085

1500 16,933 0,423 2,117 0,169 0,135 0,102 0,068

2000 12,700 0,318 1,588 0,127 0,102 0,076 0,051

3000 8,467 0,212 1,058 0,085 0,068 0,051 0,034

4000 6,350 0,159 0,794 0,064 0,051 0,038 0,025

Conversões úteis de digitalizadores (Adaptado de JENSEN, 2009)

DPI= pontos por polegada; m =micrômetro; I = polegada; M=metros

De DPI para micrômetros: m = (2,54/DPI)×10.000

De micrômetros para DPI: DPI=(2,54/ m)×10.000

De polegadas para metros: M=I×0,0254

De metros para polegadas: I = M×39,37

Cálculo Do GSD (Adaptado de JENSEN, 2009)

PM = tamanho do “pixel” em metros; PF = tamanho do “pixel” em pés; S= escala da foto

Utilizando DPI: PM =((S/DPI)/39,37) ×100

PF=(S/DPI)/12

Utilizando micrômetros: PM = (S× m)×0,00001 PF=(S× m)×0,00000328

Por exemplo, se uma fotografia na escala 1:6.000 é digitalizada em

1200 DPI, o tamanho do pixel será (6000/1200)/39,27=0,127 metros por

pixel. Se uma fotografia na escala de 1:8.000 é digitalizada com 21,167 m

o tamanho do pixel será (8000×21,167)×0,000001)=0,169 metros (JENSEN,

2009).

Page 28: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

119

A seguir será apresentada a teoria sobre sistema LiDAR (em inglês,

Light Detection and Ranging).

3.1.2. Sistema Ativos

3.1.2.1 Sistema LiDAR

Vários algoritmos computacionais têm sido implementados para

tratamento e geração automática de MDS e MDT a partir do uso de

imagens. Neste sentido, ainda não se tem o conhecimento de um algoritmo

ou aplicativo comercial que apresente resultados confiáveis e robustos, pois

fatores como: a própria geometria perspectiva das imagens; sombra

projetada por edifícios e vegetação; escala variante ponto a ponto;

mudança do ponto de vista na tomada das imagens; ruídos; regiões com

alta densidade predial, vegetal e regiões homogêneas, dificultam o

desenvolvimento de aplicativos autônomos para a realização do processo

mencionado anteriormente. Para os aplicativos desenvolvidos e de uso

comercial, a porcentagem de interação homem/máquina é de 60%.

Para Shan e Toth (2008) o sistema LiDAR foi o maior avanço

tecnológico de sistema de aquisição de dados espaciais introduzido no

mapeamento topográfico, do final do século XX. Sua principal vantagem é a

capacidade de fornecer dados tridimensionais de forma direta, rápida,

segura, autônoma e acurada. A acurácia do sistema se deve à acuracidade

do sensor LASER (em inglês, Light Amplification by Stimulated Emission of

Radiation) e dos sensores de integração GNNS (em inglês, Global Navy-

Star Navegation System) e INS (em inglês, Inertial Navegation System).

Ao contrário do método tradicional de Fotogrametria, LiDAR pode

adquirir, de forma direta, dados espaciais sobre a superfície física com uma

Page 29: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

120

superabundância de informações, que podem ser utilizadas em inúmeras

aplicações da engenharia. O desenvolvimento do sistema supracitado

interveio na interdisciplinaridade das técnicas de visão computacional,

computação gráfica e a fotogrametria. A adaptação gradual destas técnicas

está relacionada com a calibração do sistema, processamento e registro

dos dados adquiridos e a extração das informações.

O sistema tem possibilitado uma leitura ousada no que tange as

perspectivas na automação dos processos fotogramétricos, sobretudo para

geração de ortofotos digitais verdadeiras (true ortophotos), autonomia na

recuperação dos parâmetros de orientação exterior de imagens,

reconhecimento e reconstrução automática de objetos presentes nas

imagens digitais, abrindo novos caminhos para a fotogrametria em diversos

ramos do mercado nacional.

A seguir será apresentado o princípio básico de funcionamento do

sistema LiDAR.

Princípio de funcionamento

LiDAR é um sistema de registro de informação com princípio ativo,

que possibilita a determinação de coordenadas tridimensionais de cada

ponto varrido pelo sistema num curto período de tempo e de forma direta.

Existem dois tipos de sistemas disponíveis no mercado, isto é, o sistema

dinâmico (Figura 3.21a) e o sistema estático (Figura 3.21b).

Page 30: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

121

Figura 3.21. (a) Sistema aerotransportado. (b) Sistema estático.

(a) (b)

Instalados em plataformas aéreas e terrestres, o sistema pode coletar

uma nuvem de pontos tridimensionais perfilados sobre a superfície física,

com grande volume de dados determinados com acurácia, cuja facilidade

no tratamento dos dados implicou na inserção do sistema em diversas

aplicações.

Ambos os sistemas utilizam um feixe ótico de alta potência e bem

direcionado, coerente no espaço e no tempo que proporciona, em pós-

processamento, a qualidade da medida da distância entre o sistema LASER

e o objeto.

Sistemas dinâmicos ou aerotransportados

O desenvolvimento do supracitado sistema se deve, principalmente,

ao sucesso no desenvolvimento da tecnologia INS. No entanto, a

introdução de sistemas aerotransportados se deu a partir do

desenvolvimento da tecnologia GNSS, o que possibilitou o desenvolvimento

da tecnologia de georeferenciamento direto, isto é, a integração GNSS/INS,

na década de 1990, que foram capazes de fornecer dados de posição e

atitude da plataforma aerotransportada com uma precisão de 4 – 7 cm e

20–60 arco-segundos, respectivamente (Shan e Toth, 2008).

Page 31: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

122

Os sistemas aerotransportados podem ser acoplados em aeronaves.

Seu princípio de funcionamento depende basicamente da integração de três

componentes, isto é: o GPS; o INS; e o próprio LASER.

GPS: registra a posição da aeronave em intervalos de tempo fixos,

enquanto outro receptor de base (no terreno) possibilita correção

diferencial do posicionamento do sensor (pós-processamento);

INS: registra os ângulos de atitude ( , , ) do sensor durante o vôo.

Posteriormente, são utilizados em pós-processamento para

determinação precisa das coordenadas dos pontos tridimensionais

no terreno; e

Laser: armazena o tempo de emissão e recepção de cada pulso,

bem como a resposta espectral de cada objeto varrido.

Os pulsos laser são gerados por um componente denominado

―gerador de pulsos‖ e emitidos pelo sistema (na faixa espectral do

infravermelho) com o auxílio de um espelho de varredura que redireciona o

pulso - com uma freqüência de varredura e diâmetro de espessura -, para a

superfície de interesse a ser mapeada ou reconstruída tridimensionalmente.

A característica mais marcante do sistema de emissão e recepção do

pulso é a sua propriedade em medir distâncias com alto grau de acurácia,

usualmente, baseada em um instrumento preciso para medida de tempo.

Existem dois métodos de medida de tempo que podem ser empregados nos

instrumentos supracitados, isto é, o TOF (em inglês, Time-of-Flight) e o

CBLR (em inglês, Continuous Beam of Laser Radiation). Aqui será tratado

apenas o primeiro método.

O TOF é baseado na emissão de um pulso curto com alta potência de

radiação por LASER. Neste caso, o pulso emitido interage com o objeto

contido na superfície física. Uma porcentagem da energia emitida é

Page 32: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

123

absorvida, outra porcentagem é transmitida e a energia refletida retorna ao

sistema, cuja mesma é armazenada na ―unidade de controle de

armazenamento‖, juntamente com as informações fornecidas pelo GPS e

INS. O intervalo de tempo (t) entre a emissão e recepção do pulso é

calculado com precisão e a distância entre a plataforma e o objeto perfilado

( R ) é calculada em função da de t e a velocidade da radiação

eletromagnética ( v - valor fixo), a saber:

2

tvR (3.1)

Da relação acima, se pode extrair a seguinte equação, a saber (Shan

e Toth, 2008):

22

tvvtR

Onde, R é a precisão da distância, v é a precisão da velocidade e t é o

valor correspondente da precisão de t. A precisão de R é determinada em

função de t .

Como descrito anteriormente, o GPS é utilizado em modo cinemático

pós-processado, que requer um receptor de base (Figura 3.11) em um

ponto de coordenadas conhecidas (por exemplo, uma RBMC – Rede

Brasileira de Monitoramento Contínuo – desde que a mesma esteja próxima

à área do levantamento). A Figura 3.22 apresenta um esquema do princípio

de funcionamento do sistema aerotransportado.

Page 33: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

124

Figura 3.22. Princípio de funcionamento do sistema aerotransportado.

O pulso laser emitido pelo sistema possui um diâmetro que aumenta

na medida em que ocorre sua propagação no meio. De acordo com a

Figura 3.22 verifica-se visualmente que, o diâmetro do pulso no momento

da emissão é consideravelmente inferior quando o mesmo interage com a

superfície. O diâmetro do pulso varia de acordo com a altitude de vôo

estabelecida no levantamento aéreo.

Apesar do fator descrito, a luz do laser foi escolhida para a

concepção do sistema por apresentar baixa divergência, cuja propagação é

similar à concepção geométrica da linha reta. Por isso, ocorrem múltiplas

reflexões na iteração laser/objetos como, por exemplo, quando um pulso

laser atinge a folha de uma árvore, uma parte do pulso é refletido pelas

folhas e outra parte pelo terreno (este é considerado segundo retorno, pois

sua reflexão atinge o sistema após o primeiro retorno do pulso – reflexões

das folhas).

Page 34: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

125

Ainda ao observar a Figura 3.22 é possível verificar que a varredura

do terreno é realizada aleatória e transversalmente à direção do vôo, o que

possibilita o perfilamento tridimensional da área de interesse com uma

freqüência que depende das especificações do projeto. A Figura 3.23 ilustra

esquemas de alta e baixa freqüência de perfilamento.

Figura 3.23. Freqüência de perfilamento. (a) Alta freqüência de

perfilamento. (b) Baixa freqüência de perfilamento.

(a) (b)

A reconstrução do pulso laser emitido é dada no sistema de projeção

WGS84, isto é, a distância percorrida pelo pulso entre a plataforma e o

objeto perfilado é calculada em pós-processamento baseada na

determinação do ângulo que o pulso formou com a aeronave no momento

de sua emissão, juntamente com os dados de posição e atitude da

aeronave, fornecidos pelo sistema de integração GPS/INS, bem como em

função da velocidade da luz (c) e tempo de emissão e recepção do pulso

Laser ( t).

Em termos gerais, as coordenadas tridimensionais de um ponto

qualquer na superfície física são determinadas em função de uma

Page 35: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

126

seqüência de rotações e translações aplicadas entre os componentes que

compõem o sistema. A Figura 3.24 mostra a relação entre os sistemas

envolvidos na determinação de coordenadas de um ponto no sistema do

espaço-objeto ou referencial terrestre.

Figura 3.24. Determinação de coordenadas tridimensionais de um ponto na

superfície.

Os pontos tridimensionais de um ponto são obtidos por meio da

Equação, a saber:

(3.1)

Onde,

PPP ZYX : coordenadas tridimensionais de um ponto na superfície física;

INSTT ,

: translação entre sistema do espaço-objeto e o INS;

P errosTT

d

RRT

Z

Y

X

INSGINSLINSLINSTINST

P

P

P

,,,,, 0

0

Page 36: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

127

INSLT ,

: translação entre o LASER e o INS;

INSGT ,

: translação entre o centro de fase da antena GPS e o INS;

INSTR , : matriz de rotação entre o sistema do espaço-objeto e o INS;

INSLR , : matriz de rotação entre o LASER e o INS;

erros : erros inerentes aos componentes que integram o sistema LiDAR.

Para garantir a precisão plani-altimétrica de cada ponto perfilado pelo

sistema LiDAR a distância entre os receptores, aerotransportado e de base,

não deve ultrapassar 50 km. Um conjunto de receptores de base deverá ser

estabelecido, caso não seja possível manter a exigência descrita

anteriormente.

Calculadas as coordenadas tridimensionais de cada ponto ( PPP ZYX )

na superfície física devem ser aplicadas as devidas transformações entre

sistemas de coordenadas, que neste caso, referem-se às conversões das

coordenadas entre os sistemas WGS84 e algum sistema de referência

adotado no trabalho, por exemplo, SAD-69. Assim como, as transformações

das altitudes elipsoidais (fornecidas pelo GPS) para as altitudes

ortométricas.

De acordo com Wher e Lohr (1999), o sistema LiDAR fornece

coordenadas planimétricas em torno de 50 cm e altimétricas em torno de 15

cm. O sistema da Optech ALTM 3100 (sistema canadense) possui precisão

planimétrica igual a 1/2000 da altura utilizada no perfilamento a LASER (1

sigma). No entanto, a precisão do sistema depende das características dos

componentes utilizados, tipo de terreno, qualidade do INS empregado e

altura de vôo.

Page 37: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

128

A qualidade dos dados obtidos pelo sistema de varredura a LASER

depende da qualidade dos dados fornecidos pelos componentes que

compõem o sistema supracitado. Em relação ao GPS os fatores internos,

externos e operacionais, tais como, solução da ambigüidade, perda de sinal

dos satélites, freqüências L1 e L2, geometria e número de satélites

disponíveis, deslocamentos orbitais, modelagem do geóide,

multicaminhamento, erro de propagação do sinal na atmosfera,

interferências eletromagnéticas e parâmetros incorretos, são os fatores

mais importantes a serem cuidadosamente estudados.

Além de considerar todos os possíveis erros descritos acima, ainda é

necessário tomar algumas precauções para a obtenção da precisão

requerida, tais como, realizar planejamento adequado, operações de vôo

dentro de limites apropriados (para evitar perda de sinal do GPS) e uma

boa distribuição das estações GPS de base em solo.

O INS apresenta precisão melhor que 0,020 e os pulsos laser são

afetados pelas diferentes camadas existentes na atmosfera. A altura de vôo

é fator a ser considerado na degradação da precisão das medidas

relacionadas ao sistema LASER. Outra característica a ser evidenciada é o

problema de divergência dos pulsos, que resultam em pequenas diferenças

na interpretação dos resultados que aqui serão chamados de borda de

divergência.

Os erros de divergência podem ser visualizados através de uma

operação de subtração de imagens do primeiro (Figura 3.25a) e último

retorno do pulso (Figura 3.25b). A Figura 3.25 mostra imagens em níveis de

cinza obtida por meio de um processo de quantização das coordenadas

brutas altimétricas fornecidas pelo sistema da TopoSys GmbH,

desenvolvido na Alemanha.

Page 38: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

129

Figura 3.25. Imagens em níveis de cinza obtidos por um processo de

quantização de coordenadas altimétricas. (a) Imagem do primeiro retorno

do pulso. (b) Imagem do último retorno do pulso. (c) Resultado da subtração

entre as imagens a e b.

(a) (b)

(c)

Verifica-se visualmente na Figura 3.25c que o resultado da operação

de subtração entre as imagens não apresentou apenas a informação de

vegetação, mas também as bordas das edificações, dadas pela diferença

entre as dimensões das edificações (bordas de divergência) apresentadas

em ambas às imagens. Esta diferença ocorre porque um pulso laser ao

incidir sobre a borda do telhado de uma edificação, dependendo do

tamanho de seu diâmetro, pode interceptar parcialmente a borda do telhado

e ocorrer resposta de retorno devido às reflexões no solo e na fachada

lateral do edifício (Figura 3.26), ou outras diversas reflexões do pulso,

dependendo do tipo de material perfilado, até seu retorno ao sistema. A

Page 39: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

130

Figura 3.26 mostra as interceptações parciais do pulso e um exemplo do

processo de reflexão do pulso.

Figura 3.26. Interceptação parcial do pulso na borda do telhado e duas

reflexões do pulso (solo e fachada lateral).

Verifica-se também que as bordas das edificações contidas na

imagem do último retorno do pulso (Figura 3.25b) são mais estreitas que as

do primeiro retorno do pulso. Fato ocorrido devido ao último retorno incidir

sobre o solo e posteriormente na fachada lateral da edificação (reta

pontilhada na cor preta, Figura 3.26) enquanto o primeiro retorno do pulso

incide diretamente na borda do telhado (retas vermelhas, Figura 3.26).

Outro fator relacionado ao erro de divergência é a resposta de

retorno do pulso após interagir com o objeto perfilado. Por ser esta uma

função de dispersão de energia eletromagnética dentro da área do diâmetro

do pulso pode-se dizer que, quanto maior a inclinação do pulso em relação

ao objeto perfilado na superfície, maior será o erro de divergência e

conseqüentemente maior a incerteza posicional do alvo. Para que não

ocorram áreas de oclusão, devido ao fator supracitado, é necessário

Page 40: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

131

realizar um recobrimento da área de interesse com o mínimo de

sobreposição possível.

Tipos de espelhos de varredura

Como descrito anteriormente o sistema LiDAR utiliza espelhos de

varredura ótico-mecânica. Existe, basicamente, 3 tipos de espelhos de

varredura. A Figura 3.27 apresenta os espelhos de varredura mais

utilizados nos sistemas desenvolvidos.

Figura 3.27. Mecanismos de varredura. (a) Espelho oscilador. (b) Varredura

Palmer. (c) Polígono de rotação.

(FONTE: WEHR e LOHR, 1999)

(a) (b)

(c)

Os espelhos osciladores (Figura 3.27a) produzem uma configuração

de perfilamento denominada linha em ―zig-zag‖ (Figura 3.27a). Os espelhos

de polígono de rotação (Figura 3.27b) produzem uma varredura

unidirecional com linhas paralelas (Figura 3.28b). Já os espelhos do tipo

Page 41: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

132

Palmer (Figura 3.28c) produzem efeitos de modelos elípticos na superfície

(Figura 3.28c).

Figura 3.28. Configuração da varredura em relação ao tipo de espelho. (a)

Linhas em ―zig-zag‖. (b) Linhas paralelas. (c) Modelos elípticos.

(a) (b)

(c)

Os pontos ao longo de uma linha são varridos em incrementos de

ângulos iguais. De acordo com Wehr e Loher (1999), devido ao

perfilamento aleatório e à aceleração e desaceleração do espelho de

varredura, os pontos perfilados no extremo da largura da faixa exibem

Page 42: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

133

características diferentes dos demais pontos e devem ser removidos, em

pós-processamento, do conjunto de dados brutos .

A Figura 3.29a apresenta uma imagem de intensidade LASER

resultante da varredura de um sistema com tipo de espelho oscilador. Os

pontos na cor preta representam objetos que não foram perfilados pelo

sistema devido à característica da configuração de perfilamento do tipo de

espelho supracitado. Neste caso é necessário realizar uma amostragem

dos dados por meio de técnicas de interpolação (vizinho mais próximo,

bilinear, triangulação de Delanay etc).

Figura 3.29. Imagem de intensidade LASER. (a) Derivada de espelhos

osciladores. (b) derivada de espelhos tipo Palmer.

(a) (b)

A Figura 3.29b apresenta uma imagem de intensidade derivada de

espelhos do tipo Palmer. Nota-se a diferença na qualidade geométrica entre

as imagens apresentadas em as ambas figuras. Os sistemas de varredura

LASER com espelhos do tipo Palmer oferecem precisão duas vezes melhor

que os sistemas com espelhos do tipo oscilador.

Outro tipo de espelho de varredura que possui vantagens em relação

aos demais espelhos descritos anteriormente é o espelho de fibra ótica,

Page 43: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

134

cujo uso é característico apenas em sistemas da TopoSys GmbH. A Figura

3.30 mostra um espelho de fibra ótica.

Figura 3.30. Espelho de fibra ótica. Adaptado de WEHR e LOHR (1999).

Eles se diferenciam por terem um processo ótico de emissão e

recepção do pulso idêntico. Segundo Wehr e Lohr (1999), matrizes lineares

de fibra ótica idênticas são dispostas no plano focal das lentes de emissão

e recepção. Através dos espelhos de rotação, cada fibra ótica no caminho

da emissão e recepção é varrida seqüencialmente e sincronicamente. Estes

espelhos propagam o sinal por meio da fibra central, fibra a fibra. Devido às

pequenas aberturas das fibras, pequenos movimentos mecânicos são

requeridos com alta velocidade de varredura (acima de 630 Hz).

O sistema LiDAR fornece como produto final uma nuvem de pontos

distribuídos irregularmente armazenados em um arquivo ASCII de linhas

por ponto, composto por um conjunto de coordenadas tridimensionais

referenciadas no sistema de projeção admitido no trabalho, cuja

manipulação pode-se gerar um MDT e um MDS da região perfilada.

Page 44: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

135

A densidade dos pontos obtidos atinge vários pontos por m2,

dependendo da altura de vôo e a frequência de perfilamento. A frequência

do sistema se situa na faixa de 500 a 1500 nm, com valores de 1040 a 1060

nm, sendo as mesmas refletidas pelos objetos contidos no terreno. Os

pontos coletados podem ser utilizados diretamente ou podem ser filtrados e

interpolados de forma a gerar uma grade regular de pontos.

Existem alguns tipos de sistemas de varredura LASER, tais como, o

sistema da Toposys GmbH II (desenvolvido na Alemanha) e Optech ALTM

2050 (desenvolvido no Canadá). O Quadro 3.1, apresenta as diferenças

básicas entre os sistemas supracitados.

QUADRO 3.1. Características de sistemas Toposys GmbH II e Optech

ALTM 2050.

A partir dos dados da resposta espectral armazenada pelo sistema

da Optech ALTM pode-se gerar, em pós-processamento, uma imagem de

intensidade LASER (Figura 3.31).

Características/Sistemas Toposys GmbH II ALTM 2050

Espelho de varredura Fibra ótica Oscilador

Resposta espectral não sim

Frequência de varredura Até 63 Hz Até 35 Hz

Ângulo de varredura 70 20

0

Altura de operação 250 - 1000 m 250 - 2000 m

Modo (pulso) 1º e/ou 2º 1º e/ou 2º

Resposta espectral não sim

Câmara digital não 4k x 4k pixels

Page 45: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

136

Figura 3.31. Imagem de intensidade LASER.

Esta imagem é obtida a partir da interpolação dos valores da

resposta espctral de cada ponto varrido pelo sistema, gerando uma imagem

bidimensional de valores de intensidade. Para cada ponto é atribuído um

valor de intensidade, no qual é agregado aos mesmos suas coordenadas

tridimensionais compostas num arquivo de um ponto por linha de texto

(arquivo bruto ASCII). Os dados são interpolados de acordo com a

resolução ao qual foram perfilados os pontos no terreno.

A seguir será apresentada a teoria sobre sistemas estáticos.

Sistemas estáticos

Existem várias aplicações que necessitam de modelagem

tridimensional de objetos e superfícies e que podem ser atendidas tanto por

outras técnicas de obtenção de dados dimensionais e posicionais (p. ex.,

técnicas fotogramétricas) quanto pela tecnologia De varredura LASER

terrestre. Algumas delas, entretanto, de acordo com os requisitos de

rapidez e exatidão, podem requerer um grande número de medidas,

Page 46: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

137

portanto, são melhores atendidas por uma nuvem de pontos proveniente do

sistema de varredura LASER terrestre.

O sistema de varredura LASER terrestre, basicamente, é

compreendido por um sensor LASER (em inglês, light amplification by

stimulated emission of radiation) e sistemas de espelho de varredura que

direcionam o pulso para a superfície.

O sistema é capaz de fornecer uma nuvem de pontos 3D sobre

pontos localizados na superfície física, em um curto período de tempo. A

nuvem de pontos é gerada por meio da medição simultânea de intervalo de

inclinação de um sensor LASER e dois ângulos associados por encoders

angulares correspondentes aos planos horizontais e verticais, passantes

pelo centro do instrumento. Por isso, o sistema fornece uma nuvem de

pontos de igual reamostragem no sistema de coordenadas polares.

Essas medidas de distância e ângulo simultâneos são realizadas

automaticamente com um ângulo de varredura de 1000 Hz ou mais,

dependendo do sistema utilizado. Basicamente, o sistema emite pulsos de

LASER que interagem com a superfície e são refletidos e recuperados pelo

receptor do sistema. A distância entre o sensor e o alvo é calculada, em

pós-processamento, em função da diferença do tempo entre a emissão e

recepção do pulso. O resultado final do processo de medição e

processamento é uma nuvem de pontos, que poderia ser chamada,

genericamente, de Modelo Digital de Superfície (MDS), ao qual o valor de

intensidade também pode ser associado. A figura 3.32 apresenta a

geometria de funcionamento do referido sistema.

Page 47: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

138

Figura 3.32. Geometria de funcionamento do sistema de varredura LASER

terrestre.

Em princípio, pode-se dizer que o sistema estático funciona como um

medidor de distâncias (distanciômetro), em função do tempo de emissão e

recepção do pulso. Existem basicamente dois princípios geométricos de

cálculos de coordenadas, isto é: triangulação; por intervalo de tempo (time

of flight). No princípio de funcionamento por intervalo de tempo a distância é

estimada por meio do tempo de emissão e recepção do pulso laser, cuja

reflexão do pulso ocorre difusamente dependendo do tipo de material do

objeto perfilado. Este sistema é capaz de estimar distâncias para objetos

mais distantes, porém oferecem precisão de pior qualidade que o sistema

de princípio por triangulação.

O princípio de triangulação funciona de forma que um pulso laser é

emitido pelo sistema e seu retorno é registrado por uma ou mais câmaras

Page 48: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

139

de sensores CCD. O ângulo de varredura de cada pulso emitido é

registrado no sistema a cada pulso emitido. Conhecendo-se a base fixa

entre o sensor LASER e a câmara, por meio de um processo de calibração,

determina-se a posição dos pontos refletidos pelo objeto. A distância entre

o sensor LASER e o CCD é conhecida e permite o cálculo das coordenadas

tridimensionais de cada ponto perfilado pelo sistema. A precisão dos pontos

determinados depende da relação base/distância. Com um comprimento de

base fixa, o desvio padrão ( ) da distância medida, aumentará em

proporção ao quadrado da distância.

Figura 3.33. Mecanismos de varredura do sistema de varredura LASER

terrestre (Adaptado de Staiger, 2003).

Além das técnicas de medidas do sistema se deve considerar o tipo

de mecanismo de varredura do sistema. Staiger (2003) classifica o sistema

de varredura LASER terrestre como: varredura panorâmica; varredura

híbrida; e varredura por quadro. A Figura 3.33 apresenta três tipos de

mecanismos de varredura do sistema.

Page 49: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

140

Dentro da primeira dessas três categorias, varreduras de tipo

panorâmico procedem de forma que a distância e as medições angulares

em um padrão sistemático fornecem uma cobertura angular total de 360° no

plano horizontal, que passa pelo centro do instrumento, e normalmente uma

cobertura mínima de 180° no plano vertical perpendicular ao plano

horizontal, o que possibilita uma cobertura hemisférica. Este padrão de

varredura panorâmico é muito útil no contexto do mapeamento topográfico,

é ainda mais desejável, de fato muitas vezes obrigatória, a medição de

instalações industriais complexas, grandes pedreiras e minas de céu aberto

e as fachadas de edifícios nas áreas urbanas.

Uma vantagem da maioria dos sistemas de varredura LASER

terrestre é o registro da informação espectral dos alvos perfilados pelo

sistema. Por meio desta informação é possível gerar, em pós-

processamento, imagens de intensidade. Os valores de intensidade são

relativos e não absolutos, e, para os sistemas estáticos, variam de acordo

com as propriedades de reflexão direcional e a reflectividade do alvo.

Uma das vantagens do sistema de varredura LASER terrestre é que

a nuvem de pontos gerada em campo pode ser confrontada com as

informações geradas por técnicas fotogramétricas ou sensores

imageadores. Atualmente, a integração entre dados derivados de sistemas

de aquisições diferentes tem apontado grande potencial como conteúdo de

informações complementares, ou seja, a integração de dados derivados do

sistema de varredura LASER terrestre e Fotogrametria fornece uma riqueza

abundante de informação, que permite a automação dos processos

fotogramétricos com melhor eficiência, além de autonomia e redução da

necessidade dos métodos de prospecção convencional, tais como, os

levantamentos geodésicos e topográficos. Isto reduz o custo operacional e,

principalmente, o tempo na linha de produção. A integração dos dados tem

Page 50: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

141

ganhado tanto prestígio na comunidade que, diversos são os trabalhos

relacionados com o tema, podendo-se citar: Habib e Schenk (1999), Schenk

et al. (2001), Schenk e Csatho (2002), Habib et al. (2004a, 2004b, 2004c),

Furkuo e King (2004), Delara et al. (2004), Chen et al. (2004), Zhang et al.

(2005), Habib et al. (2005), Habib et al. (2006), Habib et al. (2007),

Abdelhafiz et al. (2007), Mitishita et al. (2008), Delara et al. (2008); etc.

No caso do sistema de varredura LASER terrestre em funcionamento

em um Unidade de Mapeamento Móvel (UMMT), por exemplo, é necessário

integrar os sistemas de posicionamento e medida inercial de forma que a

nuvem de pontos derivadas do perfilamento De varredura LASER terrestre

seja adequadamente georeferenciada e acurada. Isto se deve ao

movimento dinâmico da plataforma em questão (veículo transportado –

UMMT), onde para cada varredura haverá uma posição e atitude diferente

do sistema, ao longo do mapeamento. Sendo assim, é necessário integrar

os referidos sistemas de forma que o sistema funcione com autonomia e

precisão. Aqui, a precisão e acurácia do sistema estarão relacionadas com

a precisão dos sistemas GPS e INS, erros no alinhamento dos dois

subsistemas supracitados, modelagem matemática envolvida na

transformação das coordenadas, etc.

Um dos sistemas de varredura LASER terrestre mais apropriado para

aplicações UMMTs são os sistemas desenvolvidos pelo fabricante Riegl.

Esta empresa desenvolve uma série de sistemas de varredura LASER

terrestre de longa distância baseado em pulsos contínuos, cujos modelos

são: LMS-Z210ii; LMS-Z390i; Z420i; e LMS-Z620 — com alcances máximos

de 650, 400, 1000 e 2000 m, respectivamente, com objetos de 80% de

reflectância. Para objetos com reflectância inferior a 80%, os intervalos de

medida será menor, ou seja, 200, 100, 350 e 650 m, respectivamente.

Page 51: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

142

A precisão nominal do equipamento é da ordem de ±4 a 15 mm para

um intervalo de 50 m. Todos os quatro instrumentos supracitados utilizam o

mesmo tipo de motor de laser com um polígono óptico continuamente

rotativo, que é colocado na frente do sensor LASER para produzir a

digitalização óptica básica. O sensor opera na faixa do comprimento de

onda infravermelho próximo variando de 905 até 1550 nm. O intervalo de

varredura angular do sistema é de 80° — que é normalmente implementado

para fornecer ±40 ° acima e abaixo do plano horizontal apontando

verticalmente para cima na sua posição normal de funcionamento.

A taxa de medição dos equipamentos supracitados varia entre 8.000

e 12.000 pontos por segundo, embora poderão ser usadas taxas mais

baixas de medição, de acordo com a aplicação requerida. Uma vantagem

deste sistema é a opção de GPS-Sync disponível. Isto permite a integração

com os subsistemas GPS e INS para fornecer dados de posição e

orientação do sistema, como é requerido nos sistemas de operação

aerotransportados.

Page 52: Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

Capítulo III

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos

143

Figura 3.34. (a) Equipamento da Riegl. (b) Elementos de funcionamento do

sistema. Adaptado de Riegl 2001.

(a) (b)

Os sistemas da Riegl podem ser equipados com uma câmara digital

de pequeno, médio ou grande formato. Geralmente, são escolhidos os

modelos de câmara da Nikon e Canon EOS-1Ds II. As imagens coloridas

podem ser fundidas com a nuvem de pontos e permitir melhor eficiência na

análise da massa de dados.

REFERÊNCIAS

SHAN, j., TOTH, C. Topographic Laser Ranging and Scanning: principles and processing. Taylor and Francis: 593 p. 2008.

STAIGER, R., 2003, Terrestrial laser scanning—Technology, systems and applications. Second FIG Regional Conference, Marrakech, Morocco, December 2–5, 2003, 10 pp.