sensoriamento remoto

66
Sensoriamento Remoto Peter Zeilhofer

Upload: aldemy

Post on 06-Jul-2015

213 views

Category:

Documents


51 download

TRANSCRIPT

Page 1: Sensoriamento remoto

Sensoriamento Remoto

Peter Zeilhofer

Page 2: Sensoriamento remoto

Índice 1. Introdução ao Geoprocessamento e Sensoriamento Remoto 11.1 Definições 11.2 Dicas para leitura 1 2. Conceitos, termos técnicos e aplicações 2 3. Radiação eletromagnética 43.1 Princípios físicos 43.2 Espectro eletromagnético 53.3 Interações da radiação na atmosfera e superfície da terra 83.4 Assinaturas espectrais 9 4. Foto aéreas 10 5. Sistemas sensores orbitais 165.1 Sistemas orbitais passivos e ativos 165.2 Órbitas 165.3 Sistemas passivos mais usados 175.3.1 Landsat 185.3.2 Spot 195.3.3 Sistemas orbitais de alta resolução 195.4 Radares imageadores

20

6. Avaliação de imagens de satélite 236.1 Imagens digitais 236.2 Interpretação visual 256.3 Processamento digital de imagens 266.3.1 Introdução 266.3.2 Pré-processamento 266.3.2.1 Correções radiométricas 266.3.2.2 Correções geométricas 276.3.3 Realce 296.3.3.1 Realce de contraste 296.3.3.2 Filtragem 316.3.4 Operações aritméticas entre bandas 356.4 Classificação digital de imagens 356.4.1 Conceitos 356.4.2 Método de fatiamento 386.4.3 Método do paralelepípedo 386.4.4 Método da Distância Euclidiana 396.4.5 Método da Máxima Verossimilhança 39 7. Bibliografia selecionada 41 Anexo Curso prático do CCRS: Análise digital de dados de SR A Utilização B Formulários _______________ Obs.: a maioria das figuras e parte dos textos explicativos desta apostila é baseada em FUNCATE (1997), Tutorial of Remote Sensing (CCRS), e o Tutorial SPRING 3.3 (INPE) e não são separadamente citadas.

Page 3: Sensoriamento remoto

Introdução ao Geoprocessamento e Sensoriamento Remoto 1 ________________________________________________________________________ 1. Introdução ao Geoprocessamento e Sensoriamento Remoto 1.1 Definições O Geoprocessamento pode ser definido como um conjunto de tecnologias voltadas a coleta e tratamento de informações espaciais para um objetivo específico. Assim as atividades que envolvem o Geoprocessamento são executadas por sistemas específicos para cada aplicação. Estes sistemas são mais comunentes tratados como Sistemas de Informação Geográfica (SIG). Um sistema de Geoprocessamento pode ser tratado como tal, destinado ao processamento de dados referenciados geograficamante (ou georeferenciados), desde a sua coleta até a geração de saídas na forma de mapas convencionais, relatórios, arquivos digitais, etc; devendo prever recursos para sua estocagem, gerenciamento, manipulação e análise. Com a evolução da tecnologia de Geoprocessamento e de softwares gráficos vários termos surgiram para as várias especialidades. O nome Sistemas de Informação Geográfica - SIG (ou Geographic Information System - GIS) é muito utilizado e em muitos casos é confundido com Geoprocessamento. O Geoprocessamento é o conceito mais abrangente e representa qualquer tipo de processamento de dados georeferenciados, enquanto um SIG processa dados gráficos e não gráficos (alfanuméricos) com ênfase a análises espaciais e modelagens de superfícies. Sensoriamento Remoto descreve técnicas e métodos para aquisição de informações sobre objetos ou fenômenos sem que haja contato direto entre eles através de sensores. Estes sensores remotos podem ser sistemas fotográficos (-> fotos aéreas) ou óptico-eletrônicos (-> imagens de satélite). Basta ser observado que Sensoriamento Remoto não é sempre considerado como parte do Geoprocessamento. 1.2 Dicas para leitura Livros: ROSA (1996): Introdução ao Geoprocessamento; RICHARDS (1993): Remote Sensing Digital Image Processing; BURROUGHS (1991): Geographical Information Systems Revistas: International Journal of Remote Sensing; Remote Sensing of Environment; Photogrammetric Engeneering and Remote Sensing, GIS World, FatorGis; Além das publicações tradicionais (livros, revistas, anais de congressos) a Internet é uma fonte quase infinita de dados e informações sobre Sensoriamento Remoto. Confira por exemplo: Instituto Nacional de Pesquisas Espaciais – INPE: www.inpe.br Revista FatorGis: www.fatorgis.com.br Canadian Centre of Remote Sensing: www.ccrs.nrcan.gc.ca National Centre: www.ncgia.ucsb.edu NASA: rst.gsfc.nasa.gov Sites com links: www.gislinx.com, www.geoplace.com

Page 4: Sensoriamento remoto

2. Conceitos,termos técnicos e aplicações 2 ________________________________________________________________________ 2. Conceitos, termos técnicos e aplicações Sensoriamento remoto consiste na utilização de sensores para a aquisição de informações sobre objetos ou a medição de fenômenos relacionados a esse objeto, sem que haja contato direto entre eles. Os sensores são equipamentos capazes de coletar energia proveniente do objeto, converte-la em sinal passível de ser registrado e apresenta-lo em forma adequada extração de informações. A história do sensoriamento remoto pode ser dividida em dois períodos: o primeiro entre 1860 e 1960, no qual este era baseado na utilização de fotografas aéreos, e o período de 1960 até hoje, caracterizado pela multiplicidade de sistemas sensores (Novo 1989). Dois grandes eventos que marcaram o segundo período dessa hist6ria foram: a primeira fotografia orbital, tirada a bordo da nave Mercury, em 1960; e o primeiro satélite de recursos terrestres (ERTS-1) colocado em orbita, em 1972. Em geral, Sensoriamento Remoto envolve os seguintes elementos (Figura 1):

1. Fonte de energia ou iluminação (A) – o primeiro requerimento de SR é a disponibilidade de uma fonte de energia que ilumina o objeto de interesse.

2. Radiação e atmosfera (B) – como a energia se desloca da sua fonte para os objetos monitorados, ela terá contato e interações com a atmosfera pela qual ela passa. Esta interação se repete uma segunda vez na volta da radiação dos objetos para o sensor.

3. Interação com o objeto monitorado (C) – após a passagem pela atmosfera, a energia interage com o objeto. As interações dependem das caraterísticas do objeto e da radiação.

4. Registro da energia pelo sensor (D) – após a reflexão da energia pelo objeto ou após a emissão pelo objeto, é necessário um sensor para coletar e mensurar o fluxo da radiação eletromagnética.

Figura 1: Elementos de Sensoriamento Remoto.

Page 5: Sensoriamento remoto

2. Conceitos,termos técnicos e aplicações 3 ________________________________________________________________________

5. Transmissão, recepção, e processamento (E) – a energia registrada pelo sensor deve ser transmitida, normalmente em forma eletrônica, para uma estação de recepção e processamento, onde os dados são processados e gerada uma imagem (hardcopy e/ou digital).

6. Interpretação e Análise (F) – a imagem processada é interpretada, visualmente e/ou digitalmente, para extrair informação sobre os objetos que foram iluminados.

7. Aplicação (G) – o elemento final do processo de SR é alcançado, quando é aplicada a informação extraída da imagem sobre os objetos para um entendimento melhor, a criação de nova informação, ou para assistir na solução de um problema específico.

A listagem em seguida é uma seleção aleatória e somente incompleta das possíveis aplicações de Sensoriamento Remoto. Uso da terra e vegetação • estimativas sobre a produção agrícola (na Europa: controle anual) • desmatamento • monitoramento da desertificação • monitoramento de queimadas • cobertura e distribuição dos tipos de vegetação • estimativas de biomassa • estrutura da paisagem Geologia e pedologia • exploração/mineração • características do solo • mapeamento de litologia, estruturas geológicas Meteorologia/Climatologia • balanço de radiação • análise da concentração de ozone • previsão do tempo • direção e velocidade do vento Recursos hídricos • monitoramento de inundações • qualidade de água • temperatura da superfície do mar • umidade do solo • delineação de bacias hidrográficas • concentração de fitoplâncton • evaporação

Page 6: Sensoriamento remoto

3. Radiação eletromagnética 4 ________________________________________________________________________ Em função do objetivo da aplicação, seleciona-se o tipo de imagem apropriado. Alguns exemplos: • Fotos aéreas para planejamento urbano: a grande escala é importante para delineação

de lotes ou prédios • Imagens de LANDSAT TM para mapeamento vegetal em bacias hidrográficas: as

bandas do infravermelho são importantes para diferenciação dos tipos de vegetação • Imagens GOES para previsão do tempo: repetição regular e cobertura de grandes

regiões são necessárias para a observação do movimento das nuvens Leia mais sobre aplicações de Sensoriamento Remoto nas páginas: http://www.ccrs.nrcan.gc.ca/ccrs/eduref/tutorial/indexe.html http://rst.gsfc.nasa.gov/Front/tofc.html 3. Radiação eletromagnética 3.1 Princípios físicos Um sensor registra a quantidade de energia radiante refletida ou emitida pelos objetos. Esta radiação (ondas) eletromagnética é constituída por diversas características físicas (intensidade, comprimento de onda, freqüência, energia, polarização, etc...).

Fig. 2.: Onda eletromagnética (E = Campo elétrico; M = Campo magnético)

Entretanto, independente dessas características, todas as ondas eletromagnéticas (Fig. 2) são essencialmente idênticas, apresentando uma independência com relação à existência ou não de um meio de propagação (propriedade importante deste processo de transferência de energia). Esta independência é fácil de entender pela figura a seguir, o campo elétrico e o campo magnético são perpendiculares entre si e ambos oscilam perpendicularmente à direção de propagação da onda, assim o campo elétrico gera um campo magnético e do campo magnético gera um campo elétrico. A velocidade de propagação da onda eletromagnética no vácuo é a velocidade da luz C (3 x 108 m/s). O número de ondas que passa por um ponto do espaço num determinado tempo define a freqüência (f) da radiação. A freqüência de onda é diretamente proporcional à velocidade de propagação da radiação.

Page 7: Sensoriamento remoto

3. Radiação eletromagnética 5 ________________________________________________________________________ Quanto maior a velocidade de propagação da onda, maior o número de ondas que passarão por um ponto num dado tempo (t) e maior será sua freqüência. A velocidade de propagação (v) num dado meio é constante. A onda eletromagnética pode também ser caracterizada pelo comprimento de onda (λ) que pode ser expresso pela equação:

λ = v / f A faixa de comprimentos de onda ou freqüências em que se pode encontrar a radiação eletromagnética é ilimitada. Com a tecnologia atualmente disponível, pode-se gerar ou detectar a radiação eletromagnética numa extensa faixa de freqüência, que se estende de 1 a 1024 Hz, ou comprimentos de onda na faixa de 108 metros a 0.01A. 3.2 Espectro eletromagnético A radiação eletromagnética é subdividida em faixas, representando regiões que possuem características peculiares em termos dos processos físicos, geradores de energia em cada faixa, ou dos mecanismos físicos de detecção desta energia. Na figura 3 é apresentado este Espectro Eletromagnético, que mostra o conjunto dos diferentes tipos de energia radiante conhecidos.

Figura 3. Espectro Eletromagnético (Steffen & Moraes 1993). A radiação eletromagnética total (M) emitida por um corpo é uma função da temperatura (T) deste corpo. Esta relação é expressa pela lei de Stefan-Boltzmann

Page 8: Sensoriamento remoto

3. Radiação eletromagnética 6 ________________________________________________________________________

M = σT4 σ = constante de Stefan-Boltzmann, 5.6697 * 10-8 W m2 oK-4 Segundo a lei de deslocamento de Wien, o comprimento de onda no qual o máximo de energia é emitida (λm) também muda em função da temperatura (T).

λm = A / T A = 2898 μm oK A figura 4 mostra a distribuição espectral da radiação emitida por diferentes corpos, entre outros do sol (máximo de energia emitida no comprimento de onda ~ 0.5 μm) e da própria terra (máximo de energia no comprimento de onda ~ 10 μm).

Figura 4: Distribuição espectral da energia emitida por corpos pretos de diferentes temperaturas (wavelength = comprimento de onda, spectral radiant exitance = exitância espectral (razão entre o fluxo radiante que deixa uma amostra de superfície e a área dessa amostra).

Page 9: Sensoriamento remoto

3. Radiação eletromagnética 7 ________________________________________________________________________ A figura 5 mostra mais detalhada as caraterísticas espectrais da radiação emitida pelo sol e a terra, como a atmosfera interfere na radiação proveniente do sol e em quais faixas os diferentes sistemas sensores trabalham. São diferenciadas as faixas espectrais do Ultravioleta (UV), Visível e Infravermelho. Observa-se que a atmosfera absorve diferenciadamente as faixas espectrais. Faixas nas quais a transmissão da atmosfera é quase total (ex. luz visível, infravermelho entre 8 e 12 μm) se chamam “janelas atmosféricas” nas quais a maioria dos sistemas sensores trabalham (Fotografia convencional, Escaneadores multiespectrais e termais). Sistemas de radar (microondas) são sensíveis a uma radiação de um comprimento de onda bem maior, uma faixa onde a transmissão da atmosfera é quase total.

Figura 5: Caraterísticas espectrais de fontes de energia (a), efeitos atmosféricos (b) e sistemas de sensoriamento remoto (c).

Page 10: Sensoriamento remoto

3. Radiação eletromagnética 8 ________________________________________________________________________ 3.3 Interações da radiação na atmosfera e superfície da terra A figura 6 mostra todas as interações da radiação eletromagnética na atmosfera e na superfície de terra. Na atmosfera podem ser citados efeitos tais como a difusão, absorção e reflexão (nas nuvens). A difusão pode prejudicar a qualidade/contraste de imagens de sensores óticos-passivos em dias com alta concentração de aerossol. Tão mais curto o comprimento de onda da radiação, tão mais intensa é a difusão pela atmosfera. No caso do sistema sensor Landsat TM, são sobretudo as bandas (= faixa espectral na qual um sensor registra a reflexão) #1, #2 e #3 que sofrem fortes alterações pela difusão. Em função do comportamento dos alvos na superfície pode ser diferenciada a reflexão difusa (em todas as direções) e a reflexão especular (direcionada).

Insolação

Difusão porpartículas do ar

Absorção porvapor, poeira,CO2 e O3

Emissão porvapor, CO2 eoutros gases

Radiaçãodo ceu

Reflexãodifusa Reflexão

especular

Sensor nosatélite

Absorção, emissãoe aquecimento

Emissão de calor

Difusão

Reflexãonas nuvens

Figura 6: Interações da radiação na atmosfera e superfície da terra (modificado conforme KRONBERG)

Page 11: Sensoriamento remoto

3. Radiação eletromagnética 9 ________________________________________________________________________ A reflexão diferenciada dos diferentes alvos é a componente da radiação solar que determina o contraste nas imagens de sistemas passivos. A qualidade das imagens de sistemas passivos é evidentemente determinada pela quantidade de nuvens que refletem também a radiação proveniente do sol. A parte não refletida da radiação é absorvida pela superfície da terra o que causa o aquecimento da própria. Por sua vez a terra emite radiação (calor) que é medida por sensores termais. Da mesma forma as partículas da atmosfera e as nuvens emitem radiação. 3.4 Assinaturas espectrais Como visto na figura 6, os sistemas sensores (passivos) medem a reflexão dos alvos na superfície terrestre. Um conjunto destas informações de todos os alvos registrados produz a imagem da região monitorada. Para poder interpretar uma imagem corretamente precisa-se conhecer a reflexão dos alvos. A figura 7 mostra a reflexão espectral (reflexão nos diferentes comprimentos de onda) de solo seco aberto (dry bare soil), vegetação verde (vegetation, green) e água clara (water, clear).

Figura 7: Curvas típicas de reflexão espectral de alguns alvos na superfície terrestre. A reflexão do solo aberto aumenta gradativamente até o infravermelho intermediário. Solo úmido tem uma curva semelhante, só com valores mais baixos em todas as faixas espectrais. Vegetação verde tem baixa reflexão na luz azul e vermelho e um pico na luz verde (em função disso ela aparece verde para nossos olhos). A vegetação utiliza a luz vermelha para a fotosíntese.

Page 12: Sensoriamento remoto

4. Fotos aéreas 10 ________________________________________________________________________ É caraterístico um forte aumento da reflexão no infravermelho próximo. A água clara geralmente reflete pouco. No infravermelho toda radiação do sol é absorvida. Portanto, água com alta concentração de sedimentos tem uma reflexão expressiva nas faixas da luz visível. Por sua vez, os sistemas sensores não são capaz de registrar as curvas de reflexão continuas como esquematizadas na figura anterior e também na Figura 2.8 B. Eles trabalham em bandas, faixas espectrais tecnicamente definidas (Fig. 2.8 A). No exemplo são quatro bandas situadas nas faixas espectrais da luz azul B (blue) entre ~0.4 e 0.5 μm), da luz verde G (green) entre ~0.5-0.6 μm, da luz vermelho R (red) entre ~0.6-0.7 μm e do Infravermelho próximo IR (~0.7-0.8 μm).

Figura 8: Assinatura espectral da uma folha verde e a reflexão determinada em quatro bandas espectrais. O sensor registra então a reflexão média (ou mais exatamente integra a reflexão) nestas faixas espectrais e grava estas quatro informações sobre o alvo. 4. Fotos aéreas Fotos aéreas e os métodos da sua interpretação não são sempre mencionados nos cursos de Sensoriamento Remoto. Mas devido a sua escala normalmente grande (bom detalhamento) e sua geometria específica, as fotos aéreas são uma fonte extremamente importante para mapeamentos e para a calibragem e controle de classificações de imagens de satélite. A figura 9 mostra a trajetória típica de uma campanha de levantamento aéreo-fotogramétrico. Na direção do vôo a sobreposição das fotos é cerca de 60%, entre duas faixas de cerca de 35%.

Page 13: Sensoriamento remoto

4. Fotos aéreas 11 ________________________________________________________________________

Figura 9: Trajetórias de uma campanha aéreo-fotogramétrica. As câmaras aéreas produzem fotografias com uma geometria central, diferente da geometria paralela de mapas ou quase paralela das imagens de sistemas orbitais. A figura 10 mostra que através da geometria central, um objeto é diferentemente orientado e deslocado em função do relevo. Devido a baixa altura do vôo a escala de uma foto aérea muda significativamente mesmo em terreno plano, com a maior escala no ponto central da foto (principal point) diminuindo centripetamente.

Page 14: Sensoriamento remoto

4. Fotos aéreas 12 ________________________________________________________________________

Figura 10: Comparações da geometria de um mapa (ou com restrições imagem de satélite) e uma fotografia aérea. Observe as diferenças no tamanho, orientação e localização das duas árvores. Através da utilização de um estereoscópio e um par de fotos da mesma região (fotografada em diferentes ângulos), o avaliador forma uma visão tridimensional da área sobreposta (Figura 11).

Figura 11: Estereoscópio.

Page 15: Sensoriamento remoto

4. Fotos aéreas 13 ________________________________________________________________________ Este efeito pode ser valorizado para a melhor interpretação dos objetos (ex. engenheiros florestais podem diferenciar algumas espécies de árvores devido a sua altura) ou diretamente para a mensuração do relevo. Para conseguir a impressão tridimensional são necessários alguns passos preparativos (Figura 12).

Figura 12: Preparação das fotografias para interpretação num estereoscópio (Localização e transferência dos pontos principais sobre e entre as fotografias). Além da própria reprodução do terreno, as fotos contém várias informações importantes para uma interpretação correta (Figura 13). Desenhando linhas transversais entre as marcas fiduciais da foto pode ser determinado seu ponto central (Fig. 12). Dados sobre a altitude do vôo ajudam estimar a escala da foto. A altitude, tipo de lente e distância focal devem ser informadas para a orientação correta das fotos na utilização em aparelhos fotogramétricos sofisticados (Stereoplotter). O índice da foto e contador ajudam na localização das fotos na área de estudo. Data e horário informam sobre as condições de insolação e ajudam na aquisição de informações correlatas (dados climáticos, trabalho de campo etc.).

Page 16: Sensoriamento remoto

4. Fotos aéreas 14 ________________________________________________________________________

Figura 13: Informações registradas em fotografias aéreas (Câmera Wild)

Figura 14: Exemplo para uma chave de mapeamento geomorfológico.

Page 17: Sensoriamento remoto

4. Fotos aéreas 15 ________________________________________________________________________ Para a avaliação dos fotos já existem chaves de interpretação prontas para as diferentes aplicações. A figura 14 mostra um exemplo de um manual de interpretação de unidades geomorfológicas ( IBGE 1995). Em diversos casos são predefinidos os símbolos para a representação das diferentes classes no mapeamento resultante (p. ex. mapa geomorfológico). Leia mais sobre fotos aéreas: CARVER, A.J. (1988): Fotografia aérea para planejadores de uso da terra. Ministério de Agricultura, Brasilia.

Page 18: Sensoriamento remoto

5. Sistemas sensores orbitais 16 ________________________________________________________________________ 5. Sistemas sensores orbitais 5.1 Sistemas passivos e ativos Os equipamentos capazes de transformar alguma forma de energia em um sinal passível de ser convertido em informação são denominados sistemas sensores. Esses sistemas podem ser divididos em (Figura 15): Sensores passivos: detectam a radiação solar refletida ou a radiação emitida pelos objetos; Sensores ativos: produzem sua própria radiação, por exemplo, radares;

Passivo

Ativo

Figura 15: Sistema sensores passivos e ativos Sensores que operam na região óptica do espectro, sendo que esses dividem-se em: + sensores termais, que operam na faixa do espectro entre 7 e 15 μm, e + sensores de energia solar refletida, que operam entre 0,38 e 3 μm; + sensores de microondas (radar) + sistemas sensores não-imageadores: não fornecem uma imagem da superfície sensoriada; + Sistemas sensores imageadores: fornecem como resultado uma imagem da superfície sensoriada, podendo ser classificados em razão do processo utilizado na formação da imagem: - sistemas de quadro, que adquirem a linha da imagem num mesmo instante, - sistemas de varredura, em que as linhas da imagem são formadas pela aquisição seqüencial de elementos de resolução ('pixel', abreviação de picture element) 5.2 Órbitas Os sistemas sensores instalados em satélites são chamados sistemas orbitais. Eles podem ser classificados conforme suas órbitas (Figura 16). Sistemas sensores geoestacionários se movimentam com a mesma velocidade do que a rotação da terra e eles monitoram

Page 19: Sensoriamento remoto

5. Sistemas sensores orbitais 17 ________________________________________________________________________ consequentemente sempre a mesma região da superfície. Eles circulam numa grande distância da superfície (alguns mais do que 30.000 km), e são usados para aplicações meteorológicas (ex. previsão de tempo), que exigem imagens repetitivas da mesma região em curtos intervalos. O detalhamento das imagens é restrito.

Geoestacionário Héliosincrono

Figura 16: Órbitas de satélites de sensoriamento remoto. Para aplicações que exigem um maior detalhamento (uso e ocupação do solo, cobertura vegetal, mapeamento geológico etc.) são usados sistemas com órbitas muito mais baixas (700-850 km). As órbitas destes sistemas sensores tem as seguintes caraterísticas: • a órbita é síncrona com o Sol (heliosincrono), para que as condições de iluminação da

superfície terrestre se mantivessem constantes; • a órbita é circular, para garantir que as imagens tomadas em diferentes regiões da

Terra tivessem a mesma resolução e escala; • a órbita permite o imageamento cíclico da superfície, para garantir a observação

periódica e repetitiva dos mesmos lugares; • o horário da passagem do satélite atende às solicitações de diferentes áreas de

aplicação (geologia, geomorfologia, agricultura, etc..). 5.3 Sistemas passivos mais usados Trataremos neste item com maior profundidade do sistema Landsat e menos do sistemas SPOT. Estes sistemas, no atual estado da arte, representa a maior fonte da dados de sensoriamento remoto e com maior potencial de continuidade ao longo do tempo. Além disso temos disponível no país, através do INPE - Instituto Nacional de Pesquisas Espacias, toda uma infraestrutura para recepção, processamento e distribuição das imagens enviadas por estes sistemas.

Page 20: Sensoriamento remoto

5. Sistemas sensores orbitais 18 ________________________________________________________________________ 5.3.1 LANDSAT O sistema LANDSAT compõe-se até o momento de 6 satélites, que foram desenvolvidos pela NASA (National Aeronautics and Space Administration, recebendo inicialmente o nome de Earth Resouces Technology Satellite-1 (ERST-1), que passou a ser chamado de LANDSAT em janeiro de 1975. O Landsat 1 e 2 carregaram a bordo dois sistemas sensores com a mesma resolução espacial, mas com diferentes concepções de imageamento: o sistema RBV, com imageamento instantâneo de toda a cena e o sistema MSS, com imageamento do terreno por varredura de linhas (line-scanner). Ambos os sistemas propunham-se à aquisição de dados multespectrais, mas o desempenho do sistema MSS, em termos de fidelidade radiométrica, fez com que o 3º satélite da série tivesse seu sistema RBV modificado, de modo a prover dados com melhor resolução espacial em uma única faixa do espectro. Por outro lado, foi acrescentada uma faixa espectral ao sistema MSS, para operar na região do infravermelho termal. A partir do Landsat 4, ao invés do sensor RBV, a carga útil do satélite passou a contar com o sensor TM (Thematic Mapper), operando em 7 faixas espectrais. Esse sensor conceitualmente é semelhante ao MSS pois é um sistema de varredura de linhas (line-scanner). Incorprora, entretanto, uma série de aperfeiçoamentos, quer nos seus componentes ópticos, quer nos seus componentes eletrônicos. O recém lançado Lansat 7 (o lançamento do Landsat 6 não tive sucesso) possua além das bandas multiespectrais um canal pancromático com uma resolução espacial de 15 metros. Os instrumentos mais usados são os imageadores MSS e TM: IMAGEADOR MSS MSS (Multispectral Scanner): é um sistema sensor que permite o imageamento de linhas do terreno numa faixa de 185 km, perpendicularmente à órbita do satélite. A varredura do terreno é realizada com auxílio de um espelho que oscila perpendicularmente ao deslocamento do satélite. Durante a oscilação do espelho, a imagem do terreno, ao longo da faixa, é focalizada sobre uma matriz de detectores. A dimensão de cada detector que compõe a matriz de detectores, é responsável pelo seu campo de visada instantâneo (área observada por cada detector na superfície da Terra). A energia registrada por cada detector é transformada em um sinal elétrico e este transmitido para as estações em terra. A cada oscilação do espelho, o satélite desloca-se ao longo da órbita, para proporcionar o imageamento contínuo do terreno. Entretanto, o movimento de rotação da Terra provoca um pequeno deslocamento do ponto inicial da varredura para oeste a cada oscilação do espelho, ou seja, a cada seis linhas imageadas. Se considerarmos o deslocamento de 185 km ao longo da órbita do satélite, há um deslocamento de 12,5 cm entre a primeira e a última coluna de pixels. IMAGEADOR TM TM (Thematic Mapper): é um sistema avançado de varredura multiespectral concebido para proporcionar: resolução espacial mais fina, melhor discriminação espectral entre objetos da superfície terrestre, maior fidelidade geométrica e melhor precisão radiométrica em relação ao sensor MSS.

Page 21: Sensoriamento remoto

5. Sistemas sensores orbitais 19 ________________________________________________________________________ A energia proveniente da cena atinge o espelho de varredura que oscila perpendicularmente à direção de deslocamento do satélite em sentido leste-oeste e oeste-leste. O sinal atravessa um telescópio e um conjunto de espelhos, cuja função principal é corrigir o sinal coletado pelo espelho de varredura. Dessa maneira, o sinal detectado em cada matriz de detectores de cada canal é transferido para um amplificador e convertido em sinal digital através de um sistema A/D (analógico/digital). A saída de dados é, então transmitida via telemetria. 5.3.2 SPOT O sistema SPOT é um programa espacial francês semelhante ao programa Landsat, que foi concebido pelo Centre National d'Etudes Spatiales (CNES) e leva a bordo dois sensores de alta resolução (HRV - HAUT Resolution Visible). Estes sensores foram concebidos para operarem em dois diferentes modos. O modo multiespectral permite a aquisição de dados em três faixas do espectro eletromagnético com uma resolução espacial de 20 metros. E o modo pancromático com uma banda de resolução espacial de 10 metros. Uma das características marcantes dos instrumentos a bordo do SPOT é a possibilidade de observação "off-nadir" (apontamento direcional). O sensor poderá ser direcionado de modo a observar cenas laterais à órbita em que se encontra inserido o satélite em dado momento. Esta possibilidade de observação "off-nadir" aumenta os meios de obter-se um aumento no recobrimento repetitivo de determinadas áreas. Outra vantagem da visada "off-nadir" é a possibilidade de serem obtidos pares estereoscópicos de determinadas áreas. A luz proveniente da cena atinge um espelho plano, que pode ser controlado a partir das estações terrenas variando em ângulos de +/- 0,6 até 27o em relação ao eixo vertical. A energia que atinge o espelho plano é focalizada sobre uma matriz linear de detectores do tipo CCD (Charge-Coupled Device). Cada matriz consiste em 6000 detectores arranjados linearmente, formando o que se convenciona chamar de “push-broom scanner” ou sistema de varredura eletrônica. Este sistema permite o imageamento instantâneo de uma linha completa no terreno, perpendicularmente à direção de deslocamento do satélite em sua órbita. 5.3.3 Sistemas orbitais de alta resolução Recentemente foram lançados ou estão sendo lançados num futuro próximo sistemas orbitais comerciais de alta resolução geométrica (imagens com grande detalhamento). Baseados na maioria em tecnologia militar, eles chegam a resoluções de 1 m. A figura 17 mostra uma imagem do IKONOS da cidade de Washington.

Page 22: Sensoriamento remoto

5. Sistemas sensores orbitais 20 ________________________________________________________________________

Figura 17: Cidade de Washington (EU) numa imagem do satélite IKONOS, banda pancromática. Estas imagens serão uma forte concorrência para as fotos aéreas em aplicações como planejamento urbano. Devido a sua alta resolução (que resulta em arquivos extremamente grandes) e o tamanho pequeno das cenas (ex. 8 * 8 km), imagens destes sistemas sensores não são apropriadas para mapeamentos de escalas intermediárias. Leia mais sobre sistemas sensores recentes: www.geoplace.com/gw/current/1199stch.asp 5.4 Radares imageadores A maioria dos sistemas ativos trabalham na faixa espectral de microondas (radar) e tem características técnicas significativamente diferentes dos sistemas passivos. Sensoriamento remoto de microondas deve ser então tratado num capítulo separado que não se encaixa neste curso de introdução. Entretanto, como estão crescendo as aplicações baseadas no Radar, seguem algumas observações básicas (Figura 18).

Page 23: Sensoriamento remoto

5. Sistemas sensores orbitais 21 ________________________________________________________________________

Figura 18: Sistema imageador de microondas (radar)

Sistemas ativos de radar emitem radiação (B) em pulsos de uma seqüência definida (A) através de uma própria fonte de energia. Os sinais emitidos são refletidos pelos alvos (C) e recebidos por uma antena. As características de imagens de radar são influenciadas pelo comprimento de onda (banda) utilizado, sua polarização na emissão e recepção (Vertical ou Horizontal) e os ângulos nos quais os sinais são emitidos. Cabe observar que são parâmetros bem diferentes dos quais de SR passivo que determinam a aparência da imagem (Figura 19), tais como rugosidade da superfície do alvo (A), o ângulo de incidência (B) e a umidade e as propriedades elétricas do alvo.

(A) rugosidade (B) ângulo de incidência Figura 19: Parâmetros influenciando o sinal de radar A figura 20 mostra como alguns alvos refletem radar ativo. Superfícies lisas refletem pouca radiação para a antena. Florestas com árvores de diferentes alturas e estruturas refletem mais forte do que campo ou plantações homogêneas. Observa-se também uma forte influência do relevo na claridade da imagem. A reflexão de objetos lineares (p. ex. construções) varia extremamente em função da sua orientação.

Page 24: Sensoriamento remoto

5. Sistemas sensores orbitais 22 ________________________________________________________________________

Figura 20: Reflexão de alguns alvos numa imagem de radar.

Tabela 1 mostra os mais usados sistemas de radar e suas principais caraterísticas. As bandas mais usadas são X, C e L. O look-angle descreve o ângulo com o qual as microondas são emitidas (Fig. 19), uma caraterística de todos os sistemas ativos de radar. Tabela 1: Sistemas de radar ativo

A resolução geométrica das imagens geradas pode variar em função do look-angle e do método do processamento dos dados (ex. Radarsat com resolução geométrica entre 10 e 100 m). Leia mais sobre SR com radar: southport.jpl.nasa.gov/

Page 25: Sensoriamento remoto

6. Avaliação de imagens de satélite 23 ________________________________________________________________________ 6. Avaliação de imagens de satélite 6.1 Imagens digitais Toda imagem de satélite análoga (impressa) ou digital é o produto dos dados registrados e transmitidos pelos sistemas sensores. A coloração de compostos coloridos dos dados tem na grande maioria dos casos nenhuma relação com a coloração dos objetos percebidos pelos nossos olhos. Para interpretar imagens visualmente (Cap. 6.2) devem ser então consideradas o procedimento da composição de uma imagem, as bandas usadas para a criação do composto colorido e o comportamento espectral dos objetos monitorados nas faixas espectrais destas bandas. Para poder iniciar um processamento digital das imagens (Cap. 6.3) devem ser em adição adquiridos conhecimentos sobre a forma de gravação, processamento e visualização destes dados através de computadores. A figura 21 mostra os passos na formação de uma imagem digital no exemplo do sistema sensor Landsat MSS de quatro bandas.

Ref

lexã

o

Inte

nsid

ade

Bandas MSS Bandas MSS Formato digital “bandaintercalada por pixel”

Figura 21: Formação de uma imagem digital O(s) sensor(es) de cada banda medem o fluxo energético integral recebido através da reflexão de um alvo na respectiva faixa espectral. O fluxo energético é transferido em valores digitais por banda. No caso de um formato “banda intercalada por pixel” estão gravados os valores das quatro bandas (4, 5, 6, 7) do primeiro pixel da imagem na localização 1,1, depois os valores do segundo pixel etc. A figura 22 mostra como os valores de uma destas bandas são organizados para formar uma imagem. A imagem pode ser entendida como uma matriz de celas (= pixels). A localização dos pixels é descrita por coordenadas e cada cela (pixel) tem um valor de intensidade que também é chamado “tom (=nível) de cinza”.

Page 26: Sensoriamento remoto

6. Avaliação de imagens de satélite 24 ________________________________________________________________________

Figura 22: Estrutura raster de uma banda de uma imagem digital. A imagem é uma matriz com celas de tamanho igual, cuja localização pode ser descrita por coordenadas (1,1; 1,2 etc.). Cada cela (pixel) tem um valor de cinza (33, 31).

A figura 23 mostra outras características fundamentais de dados digitais, as quatro resoluções de imagens. A resolução espacial (=geométrica) é o tamanho de um pixel (spatial resolution).

Figura 23: Resolução espacial, radiométrica, espectral e temporal de imagens de satélite. A resolução radiométrica (radiometric resolution) descreve a sensibilidade do sensor. No caso de Landsat TM a resolução é 8 bits (256 níveis de cinza). A resolução espectral (spectral resolution) é a largura de uma banda normalmente descrita em μm. A resolução temporal (temporal resolution) é a freqüência com qual o satélite monitora a mesma região terrestre. Para a interpretação visual os dados digitais podem ser impressos ou visualizados no monitor do computador. Nos dois casos as intensidades das respectivas bandas são codificadas com cores. Podem ser visualizadas simultaneamente 03 bandas, uma codificada com vermelho, uma com verde e outra com azul. Uma área vermelha numa imagem significa que na banda que foi codificada com a cor vermelha (p. ex. através do

Page 27: Sensoriamento remoto

6. Avaliação de imagens de satélite 25 ________________________________________________________________________ canal vermelho do monitor) foi registrada uma alta reflexão, enquanto nas outras bandas havia uma reflexão relativamente baixa. É importante lembrar que não somente uma banda representando a reflexão na luz vermelha pode ser codificada com a cor vermelha. Codificando p. ex. a banda 4 do Landsat TM do infravermelho próximo com vermelho, vegetação verde (para nossos olhos) aparece vermelho na imagem. 6.2 Interpretação visual Uma interpretação pode ser efetuada de modo analógico através de uma imagem impressa e papel transparente sobreposto. A interpretação no monitor/computador tem a vantagem que já está sendo criado um resultado digital que pode ser depois modificado no computador e diretamente integrado num SIG. Nos dois casos, um intérprete experiente intuitivamente valoriza seis caraterísticas das imagens (Figura 24).

Figura 24: Características de imagens valorizadas na interpretação Além da coloração, forma e tamanho de um elemento podem ajudar na identificação de um objeto. A textura da imagem é a freqüência na qual uma certa tonalidade se repete (ex.: floresta e campo podem ter as mesmas tonalidades, mas a textura da floresta é geralmente mais irregular). Certas culturas podem ser identificados pelo padrão no qual eles estão plantadas. A localização de construções pode ajudar na sua identificação (p. ex. ETA perto de um rio).

Page 28: Sensoriamento remoto

6. Avaliação de imagens de satélite 26 ________________________________________________________________________ 6.3 Processamento digital de Imagens 6.3.1 Introdução Por Processamento Digital de Imagens (PDI) entende-se a manipulação de uma imagem por computador de modo que a entrada e a saída do processo sejam imagens. Por comparação, na disciplina de reconhecimento de padrões, a entrada do processo é uma imagem e a saída constitui-se numa classificação ou descrição da mesma. O objetivo de se usar processamento digital de imagens, é melhorar o aspecto visual de certas feições estruturais para o analista humano e fornecer outros subsídios para a sua interpretação, inclusive gerando produtos que possam ser posteriormente submetidos a outros processamentos. O processamento digital de imagens pode ser dividido em três etapas independentes: pré-processamento, realce e classificação. O pré-processamento refere-se ao processamento inicial de dados brutos para calibração radiométrica da imagem, correção de distorções geométricas e remoção de ruído. As técnicas de realce mais comuns em PDI são: realce de contraste, filtragem, operação aritmética, transformação IHS e componentes principais. Já as técnicas de classificação podem ser divididas em; classificação supervisionada e classificação não supervisionada. NOTA: O usuário pode escolher por não utilizar os algoritmos de classificação, uma vez pode optar por fazer uma interpretação direta sobre uma imagem realçada (Cap. 6.2). Como veremos a seguir as técnicas de PDI são realizadas sempre com os níveis de cinza (NC) atribuídos aos pixels de uma imagem. Dependendo da técnica envolvida o usuário trabalhará com uma única imagem (banda ou PI) ou com várias imagens, sendo está última conhecida por técnicas multi-espectrais, por tratar de várias imagens da mesma cena em regiões diferentes do espectro eletromagnético. 6.3.2 Pré-processamento As técnicas de pré-processamento envolvem as correções radiométricas e geométricas das imagens. 6.3.2.1 Correções radiométricas

As correções radiométricas visam eliminar ruídos e degradações, devidos aos efeitos atmosféricos, e do sistema sensor. A radiância detectada por um sensor é composta pela radiância dos alvos da superfície da Terra somada com a radiância resultante do espalhamento que a radiação eletromagnética sofre pela atmosfera (Fig. 6). Esse espalhamento é maior quanto menor for o comprimento de onda da radiação. Pode-se corrigir os efeitos atmosféricos das imagens utilizando modelos matemáticos que consideram a temperatura, a umidade relativa e outros dados do local de interesse. Porém, nem sempre esses dados estão disponíveis. Outra técnica utilizada consiste na subtração de uma constante dos valores de nível de cinza de todos os pixels de uma determinada banda. Essa constante corresponde ao menor valor de nível de cinza dos pixels daquela banda.

Page 29: Sensoriamento remoto

6. Avaliação de imagens de satélite 27 ________________________________________________________________________ Os erros devidos ao sistema sensor causam ruídos nas imagens. Estes ruídos podem ser pontuais ou apresentar-se em forma de linhas, e podem ser periódicos ou aleatórios. O método de correção a ser aplicado dependerá do tipo de erro. Por exemplo, se houver perda de uma linha inteira, pode-se atribuir aos pixels dessa linha a média dos valores dos pixels das linhas vizinhas. Correções atmosféricas precisam ser aplicadas no caso da comparação dos níveis de cinza de imagens de diferentes datas (p. ex. análises de correlação – regressão da concentração de sedimentos transportados em corpos de água) 6.3.2.2 Correções geométricas

Segundo Richards (1986), existem, potencialmente, mais fontes de distorções geométricas que radiométricas e seus efeitos são mais severos. Elas podem estar relacionadas a alguns fatores como: • rotação da terra durante a aquisição dos dados, • taxa de varredura finita de alguns sensores, • extensão do campo de visada de alguns sensores • curvatura da terra • falta de linearidade de alguns sensores, variação de altitude e velocidade das

plataformas, e efeitos panorámicos relacionados a geometria da imagem. O processo de correção geométrica envolve basicamente duas etapas. A primeira consiste na determinação da função que relaciona o sistema de referencia ao da imagem a ser corrigida. Erros sistemáticos relacionados aos orbitas dos sistemas sensores são corrigidos desta forma, na maioria pelo fornecedor dos dados (p. ex. INPE) A segunda consiste no cálculo por re-amostragem dos valores de nível de cinza dos pixels na imagem corrigida. Esta segunda etapa precisa ser efetuada, em muitos casos, pelo usuário, e será portanto mais detalhadamente explicada em seguida: Utilizando um mapa como sistema de referencia, pode-se registrar uma imagem de forma que seus pixels se tornem referenciados a esse sistema, ou seja, a valores de latitude e longitude ou coordenadas UTM. Esse processo se chama Georeferenciamento. A função aplicada para correção geométrica é determinada a partir das coordenadas de pontos de controles na imagem a ser corrigida e no sistema de referência utilizado (coordenadas geográficas ou planimétricas determinado através de mapas ou GPS). Esses pontos de controle devem ser pequenos e bem definidos, podendo ser baseados em: • confluência do sistema de drenagem, • cruzamento ou bifurcações do sistema hídrico, • cruzamento entre o sistema de drenagem e pontes rodoviárias, • barragens e extremidades de aeroportos. O processo de re-amostragem utilizado para a correção geométrica é esquematizado na Figura 25. A grade geometricamente corrigida não coincide com a grade definida pelas

Page 30: Sensoriamento remoto

6. Avaliação de imagens de satélite 28 ________________________________________________________________________ coordenadas x, y dos pixels da cena em estudo. Podemos verificar que o pixel em destaque (Z) da grade corrigida corresponde, no espaço, a porções dos pixels a, b, c e d da imagem original. Isto cria o problema de determinar o valor do nível de cinza a ser atribuído ao pixel na imagem geometricamente corrigida.

Figura 25: Correção geométrica de imagens. Para se determinar os valores de nível de cinza do pixel da imagem corrigida, utiliza-se métodos de interpolação dos pixels (da imagem não corrigida) mais próximos a ele. Os métodos de interpolação mais comuns são: alocação de vizinho mais próximo, interpolação bilinear e convolução cúbica. Utilizando-se o método do vizinho mais próximo, o valor a ser atribuído ao pixel Z (Figura 25) é igual ao valor do pixel b, pois este é o valor mais próximo de seu centro. As vantagens desse método são a rapidez de processamento e a manutenção dos valores originais dos níveis de cinza, porém, resulta em uma imagem de baixa qualidade visual. Segundo o método de interpolação bilinear, o valor do nível de cinza a ser atribuído ao pixel Z é determinado pela média ponderada dos valores dos quatro vizinhos mais próximos (a, b, c e d). Essa ponderação é dada pela distancia do centro dos pixels vizinhos ao centro do pixel Z. Nesse caso, o tempo de processamento é maior que o anterior, porém resulta em uma imagem de melhor qualidade visual. Ocorre ainda uma perda de contraste, suavizando feições de bordas da imagem original. Pelo método de convolução cúbica, o nível de cinza a ser atribuído ao pixel Z é determinado através de cálculos realizados em uma matriz com os níveis de cinza dos 16 vizinhos mais próximos. Esse método resulta em imagens de melhor qualidade visual, embora seu processamento seja mais demorado que os anteriores. Também ocorre perda de contraste.

Page 31: Sensoriamento remoto

6. Avaliação de imagens de satélite 29 ________________________________________________________________________ 6.3.3 Realce 6.3.3.1 Realce de Contraste A técnica de realce de contraste e tem por objetivo melhorar a qualidade das imagens sob os critérios subjetivos do olho humano. O contraste entre dois objetos pode ser definido como a razão entre os seus níveis de cinza médios. A manipulação do contraste consiste numa transferência radiométrica em cada "pixel", com o objetivo de aumentar a discriminação visual entre os objetos presentes na imagem. Realiza-se a operação ponto a ponto, independentemente da vizinhança. Esta transferência radiométrica é realizada com ajuda de histogramas, que são manipulados para obter o realce desejado. Veja mais sobre o que é um Histograma: Histogramas A escolha do mapeamento direto adequado é, em geral, essencialmente empírica. Entretanto, um exame prévio do histograma da imagem pode ser útil. O histograma é uma das formas mais comuns de se representar a distribuição dos níveis de cinza (NC) de uma imagem, e a mais utilizada em PDI. O histograma fornece a informação de quantos pixels na imagem possuem um determinado NC, definido entre 0 (preto) a 255 (branco) para uma imagem quantificada em 8 bits. Outra característica é que o histograma não apresenta nenhuma informação espacial da imagem, e sim um função de probabilidade de encontrar um NC referente a um objeto qualquer da imagem. Normalmente tem-se no eixo X a distribuição dos NC e no eixo Y a freqüência em que ocorrem (veja figura 26).

Figura 26: Histograma de uma banda de uma imagem. O maior pico do histograma representa NC intermediárias que dominam sobretudo nas partes centrais da imagem. O máximo secundário do histograma é resultado das áreas escuras no canto esquerdo baixo da imagem.

Page 32: Sensoriamento remoto

6. Avaliação de imagens de satélite 30 ________________________________________________________________________ Um histograma descreve a distribuição estatística dos níveis de cinza em termos do número de amostras ("pixels") com cada nível, e esta distribuição pode também ser dada em termos da percentagem do número total de "pixels" na imagem. Pode ser estabelecida uma analogia entre o histograma de uma imagem e a função densidade de probabilidade, que é um modelo matemático da distribuição de tons de cinza de uma classe de imagens. Os histogramas pode ser uni-dimensionais (Fig. 26), isto é, para apenas uma banda, ou multi-dimensionais quando representa a distribuição de duas ou mais bandas, sendo o de duas dimensões o mais simples. Um histograma de duas bandas, ou scattergrama, permite analisar visualmente o grau de correlação entre duas bandas e decidir sobre tipo de técnica de aumento de contraste a ser aplicado a imagens multi-espectrais. A forma do histograma fornece informações importantes como a intensidade média e espalhamento dos valores de NC, sendo este último a medida de contraste da imagem. Quanto maior o espalhamento ao longo do eixo dos NCs, maior o contraste da imagem. A figura 27 ilustra esta distribuição dos NCs.

Figura 27: Histograma e imagem antes (A) e após a aplicação de uma realce de contraste.

Page 33: Sensoriamento remoto

6. Avaliação de imagens de satélite 31 ________________________________________________________________________ Para aumentar o contraste de uma imagem, deseja-se expandir o intervalo original de níveis de cinza da imagem original, utilizando-se uma função de transferência que consiste em mapear as variações dentro do intervalo original de tons de cinza, para um outro intervalo desejado (Fig. 28).

Figura 28: Função de transferência para aumento de contraste. Os valores originais (eixo X) entre +/- 20 a 80 são transferidos para os valores resultantes entre +/- 40-255. NOTA: Pode-se usar como parâmetro de contraste a inclinação da função de transferência, representada pela curva plotada em relação aos eixos XY. Como regra geral um aumento na inclinação da curva, reflete um aumento de contraste. Se a inclinação for maior do que 45 graus o contraste será expandido, e se for menor do que 45 graus o contraste será comprimido. 6.3.3.2 Filtragem

A aplicação de filtros é amplamente discutida na literatura. Portanto a importância prática destas operações no trabalho com imagens de sistemas passivos é limitada. Com a crescente utilização de imagens de Radar (que possuem um alto grau de ruído “speckle”), as técnicas de filtragem ganharam nova importância. As técnicas de filtragem são transformações da imagem "pixel" a "pixel", que não dependem apenas do nível de cinza de um determinado "pixel", mas também do valor dos níveis de cinza dos "pixels" vizinhos, na imagem original. Os filtros funcionam como janelas ou máscaras móveis que se deslocam sobre a imagem. Por exemplo, uma janela de três por três pixels (nove ao todo) que percorre a imagem

Page 34: Sensoriamento remoto

6. Avaliação de imagens de satélite 32 ________________________________________________________________________ (Figura 29). Inicialmente ela é colocada no canto superior esquerdo da imagem, sendo que o valor do pixel central dessa janela na imagem é dado pela soma dos valores do 9 pixels da imagem multiplicados pelas 9 celas da janela. Essa janela se desloca, pixel a pixel, e essa operação é repetida, atribuindo-se novos valores aos pixels.

Figura 29: Representação de uma janela de três por três pixels transposta sobre uma imagem. Alguns exemplos de filtros são apresentados a seguir. Filtro passa-baixa O efeito visual de um filtro passa-baixa (Fig. 30) é o de suavização da imagem e a redução do número de níveis de cinza da cena. As altas freqüências, que correspondem às transições abruptas são atenuadas. A suavização tende a minimizar ruídos e apresenta o efeito de borramento da imagem.

* 1/9

* 1/25

(A) (B) Figura 30: Filtros passa-baixo 3 x 3 e 5 x 5. Algumas janelas que efetuam uma filtragem passa-baixa, numa vizinhança de dimensão 3x3, 5x5 ou 7x7 estão indicadas abaixo, estes filtros são conhecidos por filtros de média, pois obtém a média entre pontos vizinhos.

Page 35: Sensoriamento remoto

6. Avaliação de imagens de satélite 33 ________________________________________________________________________ Filtro Passa-Alta A filtragem passa-alta tende a realçar os detalhes, produzindo uma "agudização" (“sharpering”) da imagem, isto é, as transições entre regiões diferentes tornam-se mais nítidas (Figura 31).

Figura 31: Filtros passa-baixo 3 x 3 e 5 x 5. Exemplos: limites de um campo de cultivo, lineamento geológico, etc. Estes filtros podem ser usados para realçar certas características presentes na imagem, tais como bordas, linhas curvas ou manchas. O efeito indesejado é o de enfatizar o ruído porventura existente na imagem. Os filtros de realce de bordas atribuem valores de nível de cinza para os "pixels" da cena original, segundo a influência de seus "pixels" vizinhos. Esta maior ou menor influência será função de valores (positivos, nulos ou negativos) fornecidos pelo usuário e atribuídos aos elementos da máscara, considerados segundo a configuração do filtro utilizado. É através da combinação destes valores de entrada ou pesos, que se obterá um realce maior ou menor da cena, segundo direções preferenciais de interesse. Para diminuir o ruído em imagens radar foram desenvolvidos filtros com um calculo mais sofisticado. Entre outros podem ser citados os filtros Filtro de Frost (Frost 1982), Lee (Lee 1981) ou Kuan/Nathan (Kuan et al. 1982). Figura 32 mostra os efeitos de vários filtros aplicados a uma banda de radar.

Page 36: Sensoriamento remoto

6. Avaliação de imagens de satélite 34 ________________________________________________________________________

Imagem original Média 3 x 3

Frost Kuan Figura 32: Filtros aplicados numa banda original do ERS-1 Leia mais sobre filtros: Eric M. Eliason & Alfred S. McEwan (1990): Adaptive Box Filters for Removal of Random Noise from Digital Images", Photogrammetric Engineering and Remote Sensing, Vol. 56, No. 4, pp. 453-458. INPE: Manual SPRING 3.3 (www.inpe.br)

Page 37: Sensoriamento remoto

6. Avaliação de imagens de satélite 35 ________________________________________________________________________ 6.3.4 Operações aritméticas entre Bandas Pode-se realizar operações matemáticas como adição, subtração, multiplicação e divisão entre bandas ou imagens. Essas operações são feitas pixel a pixel. Em geral, a adição e multiplicação são utilizadas para realçar similaridades espectrais entre bandas ou entre diferentes imagens. A subtração e a divisão, por outro lado, são utilizadas para realçar diferencias espectrais (Crosta, 1992). A divisão de imagens é a operação aritmética mais utilizada em processamento digital de imagens de sensoriamento remoto, sendo usada na determinação dos índices de vegetação e na identificação de zonas de alteração hidrotermal relacionadas a concentrações de minerais. A operação entre bandas é utilizada na determinação de índices de vegetação, por exemplo, o índice desenvolvido para o sensor MSS/LANDSAT e calculado pela seguinte equação: MSS7 - MSS5 VI = MSS7 + MSS5 A presença de oxidos de ferro e minerais de argila de alteração hidrotermal é realçada pelas razões entre bandas do sensor Landsat TM: TM3/TM 5 e TM1/TM7 respectivamente. 6.4 Classificação Digital de Imagens 6.4.1 Conceitos A classificação digital de imagens compõe-se de um conjunto de procedimentos que permitem associar objetos (pixels ou regiões) presentes em uma imagem a um conjunto de classes. O resultado final de um processo de classificação é uma imagem digital que constitue um mapa de "pixels" classificados, representados por símbolos gráficos ou cores. O processo de classificação digital transforma então um grande número de níveis de cinza em cada banda espectral em um pequeno número de classes em uma única imagem. As técnicas de classificação que podem ser aplicadas apenas a um canal espectral (banda da imagem) são conhecidas como classificações unidimensionais. As técnicas em que o critério de decisão depende da distribuição de níveis de cinza em vários canais espectrais são definidas como técnicas de classificação multiespectral. Podem ser diferenciados dois conceitos principais de classificação. O critério para a diferenciação destes dois conceitos é o primeiro passo em um processo de classificação, o treinamento. Treinamento é o reconhecimento da assinatura espectral das classes. Existem basicamente duas formas de treinamento: supervisionado e não-supervisionado (Figura 33).

Page 38: Sensoriamento remoto

6. Avaliação de imagens de satélite 36 ________________________________________________________________________

(A) (B) Figura 33: Classificação não-supervisionada (A) e supervisionada (B). Quando o usuário utiliza algoritmos para reconhecer as classes presentes na imagem, o treinamento é dito não-supervisionado. Ao definir áreas para o treinamento não-supervisionado, o usuário não deve se preocupar com a homogeneidade das classes. As áreas escolhidas devem ser heterogêneas para assegurar que todas as possíveis classes e suas variabilidades sejam incluídas. Os "pixels" dentro de uma área de treinamento são submetidos a um algoritmo de agrupamento ("clustering") que determina o agrupamento do dado, numa feição espacial de dimensão igual ao número de bandas presentes. Este algorítmo assume que cada grupo ("cluster") representa a distribuição de probabilidade de uma classe. Quando existem regiões da imagem em que o usuário dispõe de informações que permitem a identificação de uma classe de interesse, o treinamento é dito supervisionado. Para um treinamento supervisionado o usuário deve identificar na imagem uma área representativa de cada classe. É importante que a área de treinamento seja uma amostra homogênea da classe respectiva, mas ao mesmo tempo deve-se incluir toda a variabilidade dos níveis de cinza. Recomenda-se que o usuário adquira mais de uma área de treinamento, utilizando o maior número de informações disponíveis, como trabalhos de campo, mapas, etc. Para a obtenção de classes estatisticamente confiáveis, são necessários de 10 a 100 "pixels" de treinamento por classe. O número de "pixels" de treinamento necessário para a precisão do reconhecimento de uma classe aumenta com o aumento da variabilidade entre as classes. O conceito da classificação supervisionada é o mais utilizado. O usuário define as classes a serem diferenciadas e classifica a imagem conforme as assinaturas espectrais destas classes.

Page 39: Sensoriamento remoto

6. Avaliação de imagens de satélite 37 ________________________________________________________________________ Para a compreensão dos métodos de classificação digital de imagens é necessário o conhecimento do conceito espaço de atributos. A representação do espaço de atributos pode ser feita, como exemplo, pelo gráfico dos valorem dos níveis de cinza de duas bandas de uma imagem multispectral. Os três pontos do gráfico representam os valorem dos níveis de cinza de três diferentes materiais: A, B e C. Pode-se observar que para separar os pixels pertencentes aos três materiais é necessário se considerar o nível de cinza desses nas duas bandas. Tomando-se somente a banda 1, não é possível separar B e C. No caso da banda 2, não é possível separar A e B (Figura 34).

Figura 34: Espaço de atributos de duas bandas espectrais contendo as características espectrais do pixel de três diferentes materiais. A utilização do nível de cinza de apenas um pixel não é suficiente para a separação dos materiais. Pode-se selecionar amostras de pixels das bandas utilizadas e determinar os intervalos de níveis de cinza, ou ainda, a distribuição dos níveis de cinza de cada material. A representação gráfica desses intervalos no espaço de atributos é mostrada na Figura 35.

Page 40: Sensoriamento remoto

6. Avaliação de imagens de satélite 38 ________________________________________________________________________

Figura 35: Espaço de atributos de duas bandas espectrais contendo os intervalos de níveis de cinza dos pixels de três diferentes materiais. No processo de classificação digital, pixels ou regiões da imagem são associados a uma classe previamente definida. A atribuição das classes pode estar baseada no valor do nível de cinza do pixel, na informação sobre sua vizinhança e na distribuição dos níveis de cinza da imagem. A seguir são apresentados alguns métodos de classificação. 6.4.2 Método do Fatiamento O método do fatiamento é aplicado em apenas uma banda e consiste em dividir o histograma da imagem em faixas de níveis de cinza. As faixas podem ser escolhidas de forma que elas apresentem o mesmo intervalo de níveis de cinza, ou que contenham o mesmo número de pixels, ou ainda, podem apresentar intervalos vari6veis. Os pixels que apresentam valores dos níveis de cinza dentro de uma mesma faixa têm atribuída uma mesma classe. 6.4.3 Método do Paralelepípedo Pelo método do paralelepípedo também se faz a divisão do histograma em faixas, porém pode-se realizar essa divisão em uma ou mais bandas. Na figura 36 pode-se observar o espaço de atributos de duas bandas espectrais e a representação da aplicação do método

Page 41: Sensoriamento remoto

6. Avaliação de imagens de satélite 39 ________________________________________________________________________ do paralelepípedo. Os pixels que se encontram dentro do retângulo formado pelos intervalos de cinza selecionados nas duas bandas têm atribuída uma mesma classe.

Figura 36: Representação da partição do espaço de atributos de duas bandas espectrais a partir da aplicação do método do paralelepípedo. 6.4.4 Método da Distância Euclidiana O método da distância mínima baseia-se em medidas de distância no espaço de atributos entre os valores de níveis de cinza de cada pixel da imagem e o valor médio dos níveis de cinza das classes. Uma classe é atribuída a um pixel se a distância entre o valor médio de seus níveis de cinza e o pixel analisado for menor que as distâncias tomadas para as demais classes. 6.4.5 Método da Máxima Verossimilhança O método de máxima verossimilhança é o método mais utilizado de classificação supervisionada de imagens de sensoriamento remoto. Para a aplicação do método supõe-se que os níveis de cinza dos pixels de cada classe apresentam uma distribuição normal. A classificação é feita a partir da probabilidade de cada pixel pertencer às classes previamente definidas, ou seja, será atribuída a classe A ao pixel x se a probabilidade dele pertencer a A for maior que a probabilidade dele pertencer a outra classe qualquer. A figura 37 ilustra os princípios da classificação por máxima verossimilhança apresentando as curvas de probabilidade para as classes A, B e C no espaço de atributos de duas bandas espectrais. Os pontos 1, 2 e 3 representam os valorem de níveis de cinza de três pixels da imagem. Tomando-se como exemplo o pixel 2, ele é classificado como

Page 42: Sensoriamento remoto

6. Avaliação de imagens de satélite 40 ________________________________________________________________________ A pois, embora encontra-se mais próximo do valor central (valor médio) da banda B, situa-se em faixa de maior probabilidade de pertencer à banda A.

Figura 37: Representação das curvas de probabilidade de ocorrência de três classes: A, B e C , no espaço de atributos de duas bandas espectrais; e dos valores dos níveis de cinza de três pixels: 1, 2 e 3.

Page 43: Sensoriamento remoto

7. Bibliografia selecionada CÂMARA, G. et. al. (1996): Anatomia de Sistemas de Informação Geográfica. Campinas, Instituto de Computação/ UNICAMP. Canadian Centre of Remote Sensing (CCRS): Tutorial of Remote Sensing (http://www.ccrs.nrcan.gc.ca/) CARVER, A.J. (1988): Fotografia aérea para planejadores de uso da terra. Ministério de Agricultura, Brasilia. CROSTA, A., P. (1992): Processamento digital de imagens de Sensoriamento Remoto. Campinas, SP, IG/UNICAMP. FUNCATE (1997): Curso de Sensoriamento Remoto e Geoprocessamento.

INPE (1999): Manual SPRING 3.3 (www.inpe.br)

NOVO, E.,M.,L.,M. (1989): Sensoriamento Remoto: princípios e aplicações, São Paulo, Edgar Blucher.

RICHARDS, J.A. (1993): Remote Sensing Digital Image Analysis – An Introduction, Springer, Berlin.

ROSA, R. (1995): Introdução ao Sensoriamento Remoto, Universidade Federal de Uberlândia, Edufu, Uberlândia.

ROSA, R. & BRITO, J., L., S. (1996): Introdução ao Geoprocessamento, Universidade Federal de Uberlândia, Edufu, Uberlândia.

STEFFEN, C.A. & MORAES, E.C. (1993): Introdução à radiometria. In simpósio Brasileiro de Sensoriamento Remoto, 6., Curitiba, 10 a 14 de maio. Bibliografia adicional é citada no fim dos diferentes capítulos

Page 44: Sensoriamento remoto

INTRODUÇÃO ÀS IMAGENS DIGITAIS

E ÀS TECNICAS DE ANÁLISE DIGITAL:

Curso de Iniciação a Análise Digital de Dados de Sensoriamento Remoto

Utilização (Formulário dos exercícios) (Respostas dos exercícios)

T. T. Alföldi Applications Division

Nota Técnica 78-1 Impressão Marco 1978

Re-impressão Outubro 1986 Versão Digital Agosto 1996

Canada Centre for Remote Sensing Natural Resources Canada

(antepassado: Energy, Mines and Resources Canada)

Ottawa, Canada

Page 45: Sensoriamento remoto

1. Introdução O Centro Canadense de Sensoriamento Remoto criou um exercício que simula o tratamento digital de imagens, afim de familiarizar o novato à manipulação de dados digitais. No início, este exercício tinha como objetivo principal permitir ao usuário sua iniciação aos princípios de funcionamento do sistema IMAGE - 100 do Canada Centre for Remote Sensing (Centro Canadense de Sensoriamento Remoto). Porém, as noções expostas no presente documento vão além deste objetivo, podendo aplicar-se à maioria dos sistemas de tratamento digital de imagens. Se os estudantes se beneficiam com os serviços de um instrutor, o exercício prático deveria ser precedido de uma breve descrição das características espaciais, temporais, espectrais e radiométricas das imagens digitais. Para permitir ao leitor imaginar uma simulação manual, unicamente com a ajuda de papel e lápis, as imagens sofreram as seguintes simplificações:

a) As dimensões da imagem proposta ao leitor foram reduzidas a 49 elementos (pixels), enquanto que as imagens digitais contém habitualmente vários milhões. b) Uma imagem de ou canais de multiespectral, concentra, muitas vezes, entre 4 e 24 bandas espectrais. Para este exercício, as pseudo-imagens foram constituidas de apenas 2 bandas espectrais (ou dimensões no espaço espectral). c) O número de intensidade que pode ser registrado por um detector se situa, habitualmente, entre 64 e 256. Como este número é grande de mais para um tratamento manual, nós o reduzimos a 10 na imagem proposta ao leitor.

As técnicas manuais que vamos descrever assemelham-se muito às operações executadas por um computador. No entanto, dada sua grande velocidade de execução, o computador é capaz de tratar imagens cobrindo superfícies bem maiores, bandas espectrais mais numerosas e numa escala radiométrica mais larga. 2. Disposição e apresentação dos dados A figura 1 nos mostra os dados de um pequeno segmento de uma cena captada por um satélite em 2 bandas. Em cada banda temos a intensidade luminosa subdividida em 10 níveis: de 0 a 9. Uma das bandas (A) é sensível ao vermelho e a outra (B) cobre uma parte de infravermelho refletido. Nesta figura, os dados (de cada banda) são intercalados por linha. No caso das imagens 7x7, representadas sobre fita magnética, os sete primeiros números correspondem à intensidade dos pixels da primeira linha da Banda A, a partir do lado esquerdo da imagem. Os sete números seguintes se aplicam igualmente à primeira linha, mas, desta vez, da banda B. Os sete números seguintes representam a segunda linha da banda A, e assim sucessivamente. Portanto, para a superfície da imagem 7x7, temos 2 bandas compostas de 7 linhas cada uma e estas linhas constituidas de sete pixels cada uma, o que nos dá 98 números. Vamos agora dispor estes números sobre uma forma geométrica útil. Etapa nº 1

De início, separe os grupos de 7 valores no sentido da seta, indicando ‘banda A’ por cima dos 7 primeiros algarismos, a ‘banda B’ por cima dos 7 seguintes, a banda A por cima dos 7 seguintes e assim por diante.

A figura 2 representa de uma forma mais prática a imagem digital. As bandas A e B representam a mesma região da superfície terrestre, mas elas são codificadas separadamente porque correspondem a faixas distintas no espectro eletromagnético (ou cores de luz).

Page 46: Sensoriamento remoto

Etapa nº 2

Coloque cada um dos valores da banda magnética no quadrado apropriado no interior das grades. Assim, os 7 primeiros valores da banda A ocuparão os pixels de 1 a 7 da primeira linha da matriz da banda A, na figura 2. Os 7 valores seguintes correspondem aos pixels de 1 a 7 da primeira linha da matriz da banda B. Continue assim até que todos os espaços sejam preenchidos.

As cartas digitais da figura 2 podem, agora, receber uma outra forma que torna possível uma nova apreciação visual da imagem. Produz-se uma "carta de níveis de cinza" afim de se visualizar os valores os quais se dispõem. As cartas de níveis de cinza produzidas por computador apresentam, normalmente, um problema: o número de intensidade (entre 64 e 256) ultrapassa largamente o número de tons de cinza disponíveis que a impressora é capaz de produzir e o olho humano de distinguir. Cada pixel contido na imagem 7x7 recebe um código que vai de 0 a 9 e que corresponde a um dos 10 graus de intensidade. Convém, portanto, no nosso exemplo, representar os 10 graus de intensidade por três tons de cinza. Etapa nº 3

Para cada uma das imagens digitais das bandas A e B (figura 2), transforme o valor numérico de cada pixel em um tom de cinza, baseando-se na seguinte escala de conversão:

Valor numérico 0 1 2 3 4 5 6 7 8 9 Tons de cinza

Em seguida, transporte os pixels assim transformados até as grades da figura 3. Você notará que quanto menor as intensidades, mais escuros serão os tons.

Podemos observar semelhanças e diferenças nos desenhos das bandas A e B. Certas formas no meio da imagem aparecam, mas é claro que as cartas de cinza concentram muito menos informações que as cartas numéricas. Abordaremos agora um certo número de técnicas que nos permitaram aprofundar nosso conhecimento sobre os dados tratados. Um "perfil de intensidade" nos dá uma visão unidimensional de apenas uma parte dos dados. Este é análogo ao "perfil de densidade" ou à densitometria, muito empregado em análise fotográfica. Etapa nº 4

Construiremos aqui um perfil de intensidade para a linha nº 6 de cada imagem representada pelas bandas A e B. Para isto, utilizaremos as grades da figura nº 4. Para a linha nº 6 da banda A, determine a intensidade de cada pixel da carta digital e marque com um ponto cada posição correspondente a um pixel e à sua intensidade. Após ter posto todos os pontos em sua posição, una-os, através de uma linha, a partir do pixel nº 1 até o pixel nº 7. Faça o mesmo para a banda B.

Os gráficos da figura 4 representam, agora, as intensidades da luz refletida pelo terreno que corresponde à linha nº 6 da imagem. Podemos construir os perfis de intensidade para qualquer linha da imagem (qualquer que seja o ângulo). Esta técnica tem sempre limites que reduzem sua utilidade; existe outras formas de se estruturar dados contendo muito mais informações. Por exemplo, um histograma unidimensional nos permite obter uma representação gráfica da distribuição de dados de uma única banda. A curva (ver figura 5) indica o número de pixels que um dado nível de intensidade possui. Esta é uma noção abstrata, mas importante. Inversamente, poderíamos nos perguntar: ‘Qual zona da imagem corresponde a um dado nível de intensidade ?’.

Page 47: Sensoriamento remoto

Etapa nº 5

Na banda A, calcule o número de pixels que tem uma intensidade nula (zero) utilizando a imagem digital da figura 2. Escreva o número total no espaço apropriado abaixo do gráfico da Banda A da figura 5. Agora, calcule o número de vezes que aparece o nível de intensidade 1 e escreva o número total obtido no espaço apropriado abaixo da Banda A da figura 5. Repita o processo para todos os níveis de intensidade. Assegure-se de que a soma destes valores seja igual a 49 (7 x 7). Transporte estes valores para o gráfico e una os pontos através de uma linha da esquerda para a direita. Construa o histograma da banda B da mesma forma.

Várias observações podem ser feitas em relação a estes dois histogramas. Primeiro, os dois histogramas obtidos se diferem sensivelmente. Isto significa que as 2 bandas nos fornecem informações diferentes (e que podem ser igualmente úteis) em relação ao mesmo pixel (ou detalhe do terreno). Segundo, observe os diversos picos dos histogramas; chamamos "moda" do histograma cada crista separada de seus vizinhos pelas concavidades ou vales. Constatamos muitas vezes que uma "moda" corresponde a um tipo particular de cobertura do solo. A presença de várias modas (histograma multimodal) indica que vários elementos diferentes são representados na mesma imagem. Veremos agora o histograma da Banda B. Este histograma contém duas modas maiores separadas por uma concavidade que se acha ao nível de intensidade 2. Como a banda B representa o infravermelho refletido, um conhecimento das propriedades de reflectância da terra e da água no domínio do infravermelho pode ser útil à identificação destas duas modas. A água absorve muito o infravermelho e, consequentemente, tem uma fraca reflectância. Em compensação, os solos cobertos de vegetação têm uma reflectância muito mais forte durante os meses do verão. Podemos supor, portanto, que a moda da esquerda representa a água e a moda maior da direita, o solo coberto de vegetação. Contando o numero de pixels em cada moda, ja temos uma ideia do tamahno relativo da zona de terra e agua na imagen. A "assinatura espectral" de um pixel é a combinação dos níveis de intensidade deste pixel representam nas duas bandas. Esta característica pode ser representada através de um histograma bidimencional. No histograma de 2 dimensões, os 2 eixos representam os níveis de intensidade registrados nas duas bandas (ver figura 6). Isto consiste na representação, através de uma curva, da frequência de ocorrência de uma dada combinação de intensidades nas Banda A e B. Em outras palavras, um histograma bidimencional indica o número de pixels na imagem que corresponde a uma dada combinação de intensidades das duas bandas, isto é, a uma assinatura espectral. Tomemos como exemplo o pixel nº6 da linha nº 2 (figura 2). Na banda A este pixel tem a intensidade 4, e na banda B, a intensidade 6. Portanto, no gráfico da figura 6 ele será representado pelas coordenadas 4,6 (4 para o eixo da banda A e 6 para o eixo da banda B). Uma vez construido, o histograma mostrará simultaneamente a distribuição dos dados das duas bandas. Etapa nº 6

Neste exercício você deverá transportar as coordenadas espectrais da imagem da figura 2 para o histograma bidimencional. Para cada coordenada espectral de cada pixel, faça um traço na célula apropriada da figura 6. Estes traços serão, em seguida, somados de maneira a nos dar o número total em cada célula. Você deve considerar somente os pixels que ocupam as 3 primeiras linhas da figura 2. Como podemos constatar na figura 6, as 4 últimas linhas já foram feitas.

Etapa nº 7

Remova os dados da figura 6 para a figura 7, adicionando os traços presentes em cada umas das células e escrevendo o número na célula correspondente da figura 7.

Chamamos "célula" ou "vetor" cada um dos quadrados componentes do histograma bidimensional. O algarismo que aparece em uma dada célula da figura 7 representa a frequência de ocorrência das coordenadas de intensidade correspondente a esta célula na imagem original. O histograma bidimensional representa igualmente o domínio da assinatura espectral; as células que estão na mesma vizinhança têm características espectrais mais ou menos semelhantes. Assim, utilizando-se simultaneamente os 2 eixos

Page 48: Sensoriamento remoto

espectrais (histograma bidimensional) temos recursos para uma análise muito mais apurada que se utilizarmos separadamente os eixos (histograma unidimensional), como nos mostra os exemplos seguintes. 3. Classificação utilisando uma única banda A figura 8 representa um mapa de controle no campo de um elemento particular : a floresta. Três lugares foram reconhecidos no campo como sendo terrenos florestais e os especialistas, tendo recolhido dados sobre esta região, têm certeza que o conjunto é representativo de todos os tipos de florestas podendo ser encontrados na área da imagem de sensoriamento remoto. O mapa de controle foi geometricamente sobreposto à imagem de maneira que um ponto no mapa possa ter uma coordenada linha-pixel que corresponda à imagem. Usando a assinatura espectral destas zonas florestais conhecidas, torna-se possível de encontrar todos os outros pixels da imagem associados à floresta ou seja, nós iremos procurar todos os outros pixels que têm a mesma assinatura espectral. A primeira etapa consiste, então, na definição das características espectrais das ‘zonas de treinamento’ (assim chamadas a partir de agora). Etapa nº 8

Ache as intensidades correspondentes a cada zona de treinamento na banda A. Para conseguir, você deve anotar as coordenadas dos pixels das zonas de treinamento e achar as intensidades correspondentes na figura 2 (banda A). Escreva estes valores na parte de baixo da figura 8. Podemos então supor que a categoria ‘floresta’ está caracterizada pelo intervalo de intensidade registrado na banda A da figura 2. Este intervalo é definido pelo valor mínimo e máximo destas três amostras (zona de treinamento). Escreva estes valores no espaço previsto na figura 8. Faça o mesmo para a banda B.

A classificação consiste na procura de todos os pixels cuja a intensidade se situa dentro do intervalo de intensidade registrado nas zonas de treinamento. Faremos tal processo separadamente para cada banda. Etapa nº 9

Utilizando a imagem digital da banda A na figura 2, anote todos os pixels que têm uma intensidade dentro do intervalo definido para a banda A (etapa 8). Na figura 9A, escureça cada pixel correspondendo a um pixel da banda A que tem uma intensidade dentro deste intervalo (inclusive o mínimo e o máximo). Faça o mesmo para a imagem digital da banda B utilisando o intervalo definido para esta banda e o diagrama da figura 9B.

Os dois mapas florestais das figuras 9A e 9B representam o mesmo objeto no terreno, isto é, a floresta. Porém, eles são difirentes por serem construidos a partir de dados de duas bandas diferentes. O método para produzir estes mapas poderia ser comparado a uma forma rudimentar da densitometria. Um intervalo de intensidades foi ‘extraido’ da dinâmica completa da imagem. Podemos conseguir uma classificação melhor, ou mais ‘correta’ considerando, simutaneamente, as intensidades das duas bandas. 4. Classificação multiespectrais por paralelepípedos Para classificar uma imagem de modo multibandas (ou multiespectral), todas as bandas precisam ser consideradas simultaneamente. Na figura 10A, a floresta está representada por uma zona sombreada, ou seja, pelas intensidades 2 a 5 da banda A e 3 a 7 da banda B. A superposição destes dois intervalos de intensidade está ilustrada por hachuras cruzadas ("crosshatch" em inglês) e representa a assinatura multibandas da classe ‘floresta’. Para fazer uma classificação multibandas da floresta, basta anotar todos os pixels cujas coordenadas espectrais entram dentro da área retangular de hachuras cruzadas ilustrada na figura 10A.

Page 49: Sensoriamento remoto

Etapa nº 10

Usando as imagens digitais da figura 2, anotar todos os pixels da banda A que têm uma intensidade de 2, 3, 4 ou 5. Para cada pixel encontrado, verificar se a sua intensidade na banda B é de 3, 4, 5, 6 ou 7. Se um pixel satisfaz estas duas condições escureça o pixel correspondente na figura 10B. Basta fazer apenas as últimas quatro linhas; as três primeiras já foram feitas.

No total, 21 pixels devem ter sido classificados como ‘floresta’; verificar se o número está certo. Verificar também se a figura 10B representa o cruzamento lógico (união) das figuras 9A e 9B. Enfim, uma classificação multibandas, como foi executada aqui, precisa de amostras representativas do terreno para ser confiável. As intensidades dos pixels representativos são ‘mapeadas’ para cada banda. Os intervalos de intensidades das duas bandas são representados num gráfico bidimensional onde cada eixo representa uma banda (espaço objeto). O retângulo assim delimitado neste espaço representa a assinatura espectral do objeto considerado. Quando utiliza duas dimensões (centenas de bandas multiespectral aerotransportados não é fora do comun) n bandas podem produzir uma assinatura espectral de n dimensões representadas por um ‘paralelepípedo retangular’ similar ao retângulo bidimensional que produzimos aqui (sendo que mais que três dimensões não podem ser representadas no papel). 5. Classificação multibandas (vetorial) A assinatura espectral definida pela classificação multibandas retangular pode ser ainda melhorada. Para isto, basta demonstrar a limitação mais fundamental da técnica de classificação retangular (ou por paralelepípedos). Etapa nº 11

O mapa florestal da figura 10B foi verificado por inspecção visual e populações homogênias de coníferas e de caducifólias foram identificadas. A figura 11A ilustra a distribuição espacial destes dois tipos de florestas. Nosso trabalho consiste em delimitar as partes do espaço espectral correspondente a cada um destes tipos. Para cada pixel que identifica um tipo de floresta na figura 11A, você deve achar as intensidades em banda A e B (figura 2). Registre estas coordenadas espectrais na figura 11B usando o símbolo ‘C’ para coníferas e ‘D’ para caducifólias. Depois, trace um retângulo definindo a assinatura espectral da floresta de coníferas. Os dois lados verticais deste retângulo correspondem aos limites inferiores e superiores do intervalo de intensidades na banda A e as linhas horizontais, aos limites do intervalo em banda B. Trace um retângulo similar para a assinatura espectral das caducifólias. Observe que os dois retângulos se sobrepõem parcialmente.

Esta superposição das assinaturas espectrais reduz bastante a eficiência do método dos paralelepípedos. Se um pixel qualquer tiver coordenadas espectrais que caem na área de superposição, fica difícil saber se ele pertencia à classe ‘coníferas’ ou ‘caducifólias’. A classificação multibandas vetorial permite scanear um retângulo do espaço espectral e registrar cada coordenada espectral (também chamada de ‘célula’ ou de ‘vetor’) e o número de pixels associados a cada uma. Ela define a distribuição das densidades no espaço espectral. O próximo exercício consiste em utilizar um método de classificação multibanda vetorial para mapear as florestas de coníferas e de caducifólias numa outra cena (imagem). A primeira cena foi utilizada nas figuras 11A e 11B para definir as assinaturas espectrais; esta primeira cena possui as zonas (ou áreas) de treinamento dos dois tipos de florestas que foram definidas. Entretanto, é possível extrapolar essas assinaturas espectrais no outro meio (cena nº 2) onde estamos procurando detalhes do terreno ou objetos similares. É óbvio que um algoritmo e um computador vão apenas procurar objetos possuindo características espectrais iguais. É tarefa do pesquisador postular que assinaturas iguais refletem o mesmo objeto, mesmo se a cena for outra. Neste nível, é preciso ser muito cuidadoso porque erros graves de classificação podem ser induzidos com este método se algumas das características-imagem mudam

Page 50: Sensoriamento remoto

(declinação do sol, condição atmosférica, etc.) O pesquisador deverá verificar se as assinaturas correspondem a objetos idênticos. Se for preciso, ele deverá aplicar uma correção radiométrica à imagem. Etapa nº 12

As figuras 12A e 12B ilustram as imagens digitais da banda A e da banda B da nova cena (nº 2). A figura 12C mostra a representação, no espaço espectral, das assinaturas espectrais das florestas de coníferas (C) e de caducifólias (D), assim como fizemos anteriormente. Procure nas quatro primeiras linhas da figura 12D (as últimas três já foram classificadas) os pixels que têm coordenadas espectrais (nas figuras 12A e 12B) correspondendo a uma das classes (‘C’ ou ‘D’) da figura 12C e coloque o símbolo apropriado na figura 12D. As coordenadas espectrais não devem apenas ser incluidas no retângulo da assinatura mas devem coincidir também com um dos símbolos ‘C’ ou ‘D’. É a única maneira de evitar a ambiguidade da área de superposição das duas assinaturas.

Este tipo de método de treinamento e de classificação é chamado de ‘não-paramétrico’ porque, para classificar um pixel da imagem, nós utilizamos a posição absoluta das coordenadas espectrais no espaço espectral e NÃO parâmetros estatísticos como a média e o desvio-padrão. 6. Interpretação (usando as assinaturas espectrais) Um controle no campo é essencial se queremos ter certeza da natureza dos elementos detectados na imagem. Porém, é possível fazer deduções a respeito de elementos não verificados na base de características espaciais e espectrais. Etapa nº 13

Assim que o vimos anteriormente, um histograma unidimencional da banda infravermelha (B) mostra uma diferença marcante entre uma moda de baixa intensidade correspondendo à água e uma moda de alta intensidade representando as feições do terreno. Esta diferença pode ser observada facilmente no histograma da banda B da cena 2 (figura 13A). A moda à esquerda do histograma, com valores inferiores a 2 na banda B, representa com certeza pixels de água (ou, no caso extremo, poderiam ser áreas de sombra de nuvens ou de relevo também caracterizados por valores baixos). Identifique os pixels da figura 12B tendo intensidade inferiores a 2 e marque um ‘E’ nos pixels correspondentes da figura 12D. A figura 13B mostra os níveis de ocupação (população de pixels) para os objetos da cena 2. Identifique as 3 células de baixa intensidade correspondendo à água. Some o número de pixels representativos destas 3 células e certifique-se de que o total corresponde ao número de pixels identificados por um ‘E’ na figura 12D. As partes do espaço espectral, estabelecidas como representativas das florestas de coníferas e de caducifólias estão ilustradas na figura 13B. Podemos supor que a parte do espaço localizada entre as duas assinaturas espectrais corresponde a um objeto misto. Assim, as células localizadas entre as áreas (espectrais) de coníferas e de caducifólias podem ser consideradas como a representação espectral de uma mistura destes dois tipos de floresta. Procure os pixels possuindo esta mesma característica espectral e os identifique com um ‘M’ na figura 12D. Certifique-se de que o número de pixels marcados como floresta mista (‘M’) é o mesmo que a soma das populações de pixels das 3 células do espaço espectral da figura 13B.

7. Classificação não supervisionada Os métodos de classificação vistos até agora utilizam áreas de treinamento para definir a assinatura espectral, das quais o pesquisador já conhece suas características. Depois, extrapolamos esta assinatura à

Page 51: Sensoriamento remoto

outras partes da imagem ou a uma outra imagem afim de se identificar outros elementos possuindo a mesma característica espectral. É uma variação da ‘classificação supervisionada’. Um pesquisador pode querer inverter o processo. De fato, é frequentemente desejável distinguir áreas da imagem possuindo características espectrais diferentes, mesmo sem saber nada sobre a natureza das subdivisões ou das classes resultantes. Estabelecemos cartas das classes resultantes e as levamos para o campo afim de definir a natureza das subdivisões criadas. Este método é conhecido como ‘classificação não-supervisionada’, pois não se usa área de treinamento. Sua principal vantagem é de ser baseada nos parâmetros estatísticos das classes que cobrem geralmente grandes áreas geográficas no lugar de pequenas amostras (áreas de treinamento) que podem se revelar pouco representativas da variabilidade real da cena a ser mapeada. Existem vários algoritmos matemáticos, baseados em diversos métodos, que permitem achar e distinguir grupos estatisticamente ‘representativos’ no espaço espectral e que podem representar objetos importantes da cena. A maioria destes algoritmos são baseados na procura de zonas de alta população de pixels (no espaço espectral) separadas por áreas de baixa população. O exercício seguinte ilustra este método usando um algoritmo menos complexo que aqueles que são usados na prática. Etapa nº 14

A representação espectral da cena nº 2 está representada na figura 14A. Copie na figura 14B as células da figura 14A que têm uma população de pixels igual ou superior a 3. Podemos agora observar, na figura 14B, três grupos de células de população alta. Cada um deles representa na realidade o núcleo de um grupo maior ainda. A próxima etapa consiste em delimitá-los. O núcleo de duas células será chamado de ‘grupo A’ no espaço espectral e de ‘classe A’ uma vez que ele será representado no espaço imagem (espacial). Marque com um ‘A’ na figura 14B todas as células contíguas ao grupo ‘A’ inclusive aquelas encostadas apenas por uma quina (deve haver 10). Faça o mesmo para o grupo ‘B’ (grupo de três células) marcando um ‘B’ e para o grupo ‘C’ (grupo de uma célula só) marcando um ‘C’. Se houver conflito, resolva pela atração mais forte (dar à célula a etiqueta do grupo de população maior). Na figura 14B, delimite os três grupos por um traço em negrito (cercando as células de mesma etiqueta). O grupo ‘A’ deverá ter 11 células, 15 no ‘B’ e 6 no ‘C’. Reproduzir estes limites na figura 14A também. Vamos agora fazer a representação final do espaço espectral dividido em grupos. Transfira para a figura 14C as células da figura 14A que têm uma densidade igual ou superior a 1 dentro do grupo ‘A’ e marque-as com um ‘A’. Faça o mesmo com os grupos ‘B’ e ‘C’. Agora que o espaço espectral foi subdividido em grupos uniformes usando um critério pseudo-estatístico, só falta trazer os grupos de volta às suas posições geográficas. Para cada pixel da figura 14D, você deverá anotar as coordenadas espectrais nas duas bandas ilustradas nas figuras 12A e 12B, reporte estas coordenadas na figura 14C, e associe a etiqueta apropriada, ou seja, o símbolo representativo (‘A’, ‘B’ ou ‘C’). Só as últimas três linhas precisam ser ‘classificadas’, as quatro primeiras já o foram.

A próxima etapa da classificação não supervisionada, ilustrada na figura 14D, consiste em identificar cada uma das classes (A, B e C) em relação ao seu ambiente próprio. Para isto, podemos utilisar várias técnicas como a interpretação de fotos aéreas ou, quando for possível, a verificação com trabalhos de campo. Porém, não será necessário cobrir a cena inteira mas apenas uma amostra de cada categoria. Uma outra vantagem da classificação não supervisionada é que ela permite a orientação do trabalho de campo (ou outra forma de verificação) através da procura de lugares pequenos, práticos e representativos das classes estabelecidas. Por exemplo, o lugar marcado por um asterisco na figura 14D é ótimo por nos dar uma amostra de cada

Page 52: Sensoriamento remoto

classe. Geralmente, bastam alguns destes lugares para conferir a classificação e adquirir um nível de confiança para a cena inteira. Este método pode ser usado também para estabelecer a precisão da classificação. Esta verificação pode também servir para a identificação de pixels que não foram classificados (como o pixel nº 4 da linha nº 6 na figura 14D). A não-classificação de uma área pode ser causada por uma falha da técnica ou por ‘ruido’ na imagem; mas se esta área for representativa, ela poderá corresponder a um objeto particular no terreno. 8. Otros Estudios Grabau, W.E., "Pixel Problems", Miscellaneous Paper M-76-9 Mobility and Environmental Systems

Laboratory, U.S. Army Engineering Waterways Experiment Station, P.o. Box 631, Vicksburg, Miss. 39180. May, 1976.

Landgrebe, D.A.. "Machine Processing for Remotely Acquired Data", LARS Information Note 031573,

Purdue University, West Lafayette, Indiana. 1973. Lindenlaub, J. and J. Russell, "An Introduction to Quantitative Remote Sensing", LARS Information Note

ll0474, Purdue University, West Lafayette, Indiana, 1974. Orhaug, T. and 1. Akersten, "A Workshop Introduction to Digital Image Processing, FOA Report

D-30053-El. Research Institute of Sweden National Defense, S-l04 50 Stockholm 80, Sweden. September 1976.

Smith, J.A., L.D. Miller, and T. Ells, "Pattern Recognition Routines for Graduate Training in the Automatic

Analysis of Remote Sensing Imagery -- RECOGIl, Science Series No. 3A, Colorado State University, Fort Collins, Colorado. February, 1972.

Temos que lembrar que esta lista foi compilada em 1978. Depois, um grande numero de documentos foram publicados sobre o assunto. Podem se achar referencias nos jornais e livros de sensoriamento remoto, atas de symposio e tamben no WWW.

Page 53: Sensoriamento remoto

INTRODUÇÃO ÀS IMAGENS DIGITAIS

E ÀS TECNICAS DE ANÁLISE DIGITAL:

Courso de Iniciação a Análise Digital de Dados de Sensoriamento Remoto

(Utilização) Formulário dos exercícios

(Respostas dos exercícios)

T. T. Alföldi Applications Division

Nota Técnica 78-1 Impressão Marcio 1978

Re-impressão Outubro 1986 Versão Digital Agosto 1996

Canada Centre for Remote Sensing Natural Resources Canada

(antepassado: Energy, Mines and Resources Canada)

Ottawa, Canada

Page 54: Sensoriamento remoto

FIGURA 1 Imagem digital, 2 bandas, 7 x 7, linhas intercaladas Início 5 3 4 5 4 5 5 5 5 4 6 7 7 7 2 2 3 4 4 4 6 2 4 6 5 5 6 5 2 2 3 3 6 6 8 5 3 5 7 6 6 8 2 2 6 6 9 8 7 3 4 5 6 8 8 7 3 6 8 8 8 7 4 3 5 8 8 8 7 1 3 6 8 7 2 3 2 4 5 8 7 1 0 0 4 6 7 3 3 2 1 3 6 7 0 0 0 0 Fim

Page 55: Sensoriamento remoto

FIGURA 2 Imagem digital na forma geométrica apropriada. PIXELS PIXELS 1 2 3 4 5 6 7 1 2 3 4 5 6 7 L 1 L 1 I 2 I 2 N 3 N 3 H 4 H 4 A 5 A 5 S 6 S 6

7 7 BANDA ‘A’ BANDA ‘B’ FIGURA 3 Mapas de níveis de cinza. PIXELS PIXELS 1 2 3 4 5 6 7 1 2 3 4 5 6 7 L 1 L 1 I 2 I 2 N 3 N 3 H 4 H 4 A 5 A 5 S 6 S 6

7 7 BANDA ‘A’ BANDA ‘B’

Page 56: Sensoriamento remoto

FIGURA 4 Perfil de intensidade I BANDA ‘A’ I BANDA ‘B’ N 9 N 9 T 8 T 8 E 7 E 7 N 6 N 6 S 5 S 5 I 4 I 4 D 3 D 3 A 2 A 2 D 1 D 1 E 0 E 0

1 2 3 4 5 6 7 1 2 3 4 5 6 7 No do PIXELS No do PIXELS FIGURA 5 Histograma unidimensional

BANDA ‘A’ BANDA ‘B’ No

11

No 11

10

10

d 9 d 9 e 8 e 8 7 7

P 6 P 6 i 5 i 5 x 4 x 4 e 3 e 3 l 2 l 2 s 1 s 1

0 0 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 Nível de intensidade Nível de intensidade Número de pixels:

Número de pixels:

Soma = Soma =

Page 57: Sensoriamento remoto

FIGURA 6 Histograma bidimencional Banda ‘B’ Intensidade

9

8 //// /

7 ////

6 //

5 ///

4 / /

3 / / /

2

1 / /

0 / // ///

0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

FIGURA 7 Histograma bidimencional Banda ‘B’ Intensidade

9

8

7

6

5

4

3

2

1

0

0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

Page 58: Sensoriamento remoto

FIGURA 8 Mapa de controle no campo: ‘Mata’ PIXELS 1 2 3 4 5 6 7L 1 F I 2 F N 3 H 4 F A 5 S 6

7 Níveis de intensidade da banda‘A’: __ , __ , __ Intervalo de intensidade da banda‘A’: Mínimo: __ Máximo: __ Níveis de intensidade da banda‘B’: __ , __ , __ Intervalo de intensidade da banda ‘B’: Mínimo: __ Máximo: __

Page 59: Sensoriamento remoto

FIGURA 9A Mapa forestal em Banda ‘A’ PIXELS 1 2 3 4 5 6 7L 1 I 2 N 3 H 4 A 5 S 6

7 FIGURA 9B Mapa florestal em Banda ‘B’ PIXELS 1 2 3 4 5 6 7L 1 I 2 N 3 H 4 A 5 S 6

7

Page 60: Sensoriamento remoto

FIGURA 10A Parte do espaço espectral representando a ‘mata’ BandA ‘B’ Intensidade

9

8

7

6

5

4

3

2

1

0

0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

FIGURA 10B Representação da Mata em banda ‘A’ e ‘B’ PIXELS 1 2 3 4 5 6 7L 1 I 2 N 3 H 4 A 5 S 6

7

Page 61: Sensoriamento remoto

FIGURA 11A Mapa de controle no campo: tipo de mata PIXELS 1 2 3 4 5 6 7 L 1 D D D D D

I 2 C D

N 3 C C D

H 4 C C

A 5 C

S 6 C

7 C

‘C’ = coníferas ‘D’ = caducifólias FIGURA 11B Identificação dos tipos de mata no espaço espectral Banda ‘B’ Intensidade

9

8

7

6

5

4

3

2

1

0

0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

Page 62: Sensoriamento remoto

FIGURA 12A Cena #2, Banda ‘A’ PIXELS 1 2 3 4 5 6 7L 1 3 4 1 1 2 2 2I 2 4 4 4 2 1 2 2N 3 3 3 5 2 2 2 2H 4 5 5 2 2 2 2 2A 5 4 5 5 2 2 2 2S 6 4 3 3 4 4 5 5

7 5 5 3 4 4 5 4 FIGURA 12B Cena #2, Banda ‘B’ PIXELS 1 2 3 4 5 6 7L 1 7 7 0 0 0 3 3I 2 7 7 6 0 0 3 4N 3 4 4 7 1 1 3 4H 4 7 7 4 4 3 4 4A 5 6 7 7 4 5 5 5S 6 7 5 5 5 7 7 6

7 7 6 6 7 7 7 7

Page 63: Sensoriamento remoto

FIGURA 12C Cena #2, Espaço espectral Banda ‘B’ Intensidade

9

8

7 D D D

6 D D

5 C D

4 C C

3 C C C

2

1

0

0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

FIGURA 12D Cena #2, Theme Map xxx PIXELS 1 2 3 4 5 6 7L 1 I 2 N 3 H 4 A 5 D D D C C C C

S 6 D D D D

7 D D D D D D

‘C’ = coníferas ‘D’ = caducifólias

Assinaturas Espectrais

Rectangular

Page 64: Sensoriamento remoto

FIGURA 13A Cena #2, Banda ‘B’, Histograma unidimencional

17 16

No

15

14 d 13 e 12 11

P 10 i 9 x 8 e 7 l 6 s 5

4 3 2 1

0 1 2 3 4 5 6 7 8 9 Banda ‘B’ Intensidade

FIGURA 13B Cena #2, Histograma bidimencional. Banda ‘B’ Intensidade

9

8

7 1 8 8

6 1 2 2

5 3 2 1

4 7 2

3 5

2

1 2 0 3 2 0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

caducifólia

coníferas

Page 65: Sensoriamento remoto

FIGURA 14A Cena #2, Espaço espectral Banda ‘B’ Intensidade

9

8

7 1 8 8

6 1 2 2

5 3 2 1

4 7 2

3 5

2

1 2 0 3 2 0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

FIGURA 14B Cena #2, Espaço espectral Banda ‘B’ Intensidade

9

8

7

6

5

4

3

2

1 0 0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

Page 66: Sensoriamento remoto

FIGURA 14C Cena #2, Espaço espectral. Banda ‘B’ Intensidade

9

8

7

6

5

4

3

2

1 0 0 1 2 3 4 5 6 7 8 9 Banda ‘A’ Intensidade

FIGURA 14D Cena #2, Classificação não supervisionada PIXELS 1 2 3 4 5 6 7L 1 A A C C C B B

I 2 A A A C C B B

N 3 B B A C C B B

H 4 A A B B B B B

A 5

S 6

7

*