Fundamentos Do Sensoriamento Remoto

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 220

Fundamentos

do sensoriamento
remoto
João Victor Pacheco Gomes

Monyra Guttervill Cubas


Apresentação
Com o avanço tecnológico e, principalmente, com a
conquista do espaço sideral pela humanidade, foi possível o
desenvolvimento de tecnologias espaciais inimagináveis há
algumas décadas. A incessante busca por conhecer o
universo e entender o planeta que habitamos é a inspiração
para novos produtos e ferramentas lançadas diariamente não
só para pesquisadores e cientistas, mas também para uma
gama cada vez maior de usuários.

Nesta obra, procuramos trazer para perto do leitor a


tecnologia de aquisição remota de informações sobre o
planeta Terra, que a cada dia apresenta mais e mais
aplicações em nosso cotidiano. Nosso objetivo é familiarizar
o leitor com o sensoriamento remoto por meio de uma
linguagem simples, do uso de muitas imagens e de exemplos
e, ao final, apresentar uma proposta de exercícios práticos.

Uma base sólida de conhecimentos em geotecnologias é


necessária para a atuação dos mais diversos profissionais, e
aqui contemplamos desde a introdução aos sistemas sensores
até metodologias de tratamento de imagens digitais
provenientes do sensoriamento remoto. O profissional de
geografia, biologia, meio ambiente, engenharias, entre
outras áreas, deve adequar-se à realidade do grande volume
de dados coletados pelos sensores remotos e pelos dados de
campo e ser capaz de utilizá-los na análise do espaço, na
gestão do território e na transformação aliada à conservação
da paisagem.
O leitor que está dando os primeiros passos na área
encontrará um material claro, mas, ao mesmo tempo, amplo
em conteúdo e proposta. A obra está dividida em seis
capítulos que abrangem o conteúdo de iniciação ao
sensoriamento remoto.

No Capítulo 1, apresentamos ao leitor os fundamentos do


sensoriamento remoto, os principais conceitos e sua inserção
dentro das geotecnologias. De maneira breve, tratamos dos
princípios da radiação eletromagnética, essenciais para
entender a relação que acontece entre energia
eletromagnética e alvo, bem como o funcionamento dos
sensores remotos a bordo de satélites e aeronaves, para,
posteriormente, trabalhar com os dados deles provenientes.
Ainda, contextualizamos o histórico do sensoriamento
remoto, além das principais características das tecnologias
espaciais desenvolvidas em solo brasileiro.

No Capítulo 2, descrevemos os sensores remotos, os


satélites e as plataformas espaciais. Examinamos alguns
conceitos básicos, como órbitas e características principais
dos sensores. Definimos, ainda, as resoluções espacial,
espectral, temporal e radiométrica dos sensores orbitais. As
imagens digitais também são abordadas, assim como uma
“nova maneira” de se fazer sensoriamento remoto: com os
RPAs (aeronaves remotamente pilotadas).

Por sua vez, no Capítulo 3, abordamos as noções do


processamento digital de imagens. A ideia é que o leitor seja
capaz de efetuar correções, aplicar realces, implementar
filtros e realizar transformações nas imagens de
sensoriamento remoto. As técnicas são apresentadas de
modo que o leitor pense de maneira crítica sobre o porquê de
cada aplicação, mesclando a teoria com exemplos práticos.

No Capítulo 4, a interpretação de imagens provenientes de


sensoriamento remoto é feita por meio de ferramentas de
análise e interpretação. Esperamos que o leitor vislumbre as
possibilidades de uso das imagens que extrapolam a
capacidade de interpretação da visão humana. Analisamos
temas como metodologias de análise, índices e modelos de
análise e, finalmente, a classificação de imagens:
classificação supervisionada e não supervisionada.

As imagens de satélite permitem o estudo e o


monitoramento de fenômenos naturais e do meio em que
vivemos. Os fenômenos, os impactos e as alterações no uso
da terra deixam marcas na paisagem, possibilitando a
interpretação por meio dos produtos do sensoriamento
remoto. Desse modo, no Capítulo 5, reunimos as principais
aplicações do sensoriamento remoto: fenômenos ambientais,
ambientes naturais, ambientes antropizados e educação.

As práticas propostas no Capítulo 6 pretendem que o


leitor, principalmente aquele que está tendo o primeiro
contato com o tema, seja capaz de realizar exercícios e pôr
em prática muito do que foi visto de maneira teórica no
decorrer da leitura desta obra.
1
Introdução ao
sensoriament
o remoto

Monyra Guttervill Cubas


Neste capítulo introdutório, destacamos os seguintes temas:
conceitos e fundamentos do sensoriamento remoto (SR);
trajetória ao longo da história; noções básicas sobre o
espectro eletromagnético; processo de aquisição da
informação; e, por fim, desenvolvimento das tecnologias
espaciais em território brasileiro.

Nosso objetivo é sintetizar os conceitos gerais da detecção


remota de informações ambientais. Pretendemos, assim, que
você, leitor, seja capaz de entender o que é essa ciência como
um todo, sua importância e como ocorreu seu
desenvolvimento. As noções do espectro eletromagnético são
fundamentais para o avanço nessa área do conhecimento e
para o entendimento dos capítulos que virão a seguir.
Queremos que você pense de maneira crítica sobre as
tecnologias e entenda que elas estão disponíveis para auxiliar
o trabalho do geógrafo e demais profissionais em análises e
estudos, de cunho tanto ambiental quanto rural ou urbano, da
área de educação, ou para tantos outros fins.

Como o livro trata de introdução ao SR, a profundidade


com a qual iremos abordar diferentes temas pode demandar
leituras extras, é o caso desta primeira parte, que pode ter seu
conteúdo aprofundado com as leituras indicadas no capítulo.

1.1 Definição de
sensoriamento remoto
Para começarmos nosso estudo sobre o uso das tecnologias
para análise dos recursos terrestres, primeiramente devemos
entender o que o termo SR significa.

O SR foi definido formalmente pela American Society for


Photogrammetry and Remote Sensing (ASPRS) como: “a
arte, ciência, e tecnologia de obter informações valiosas sobre
objetos físicos e o ambiente, através de processos de
gravação, medição e interpretação de imagens e
representações digitais dos padrões de energia derivados de
um sistema sensor que não está em contato” (Colwell, 1997,
p. 3, tradução nossa). O conceito de SR clássico, aquele
baseado quase que exclusivamente em produtos obtidos por
plataformas orbitais e aéreas, está sujeito a diferentes
interpretações, havendo divergência e convergência entre
elas. Apresentamos, a seguir, algumas dessas definições por
autores reconhecidos dessa ciência:

» “A medida das propriedades de um objeto na superfície


da Terra usando dados adquiridos por meio de aeronaves
e satélites” (Schowengerdt, 2007, p. 2, tradução nossa).
» “A ciência e a arte de obter informação de um objeto,
área ou fenômeno por meio da análise de dados
adquiridos por um dispositivo que não está em contato
direto com a área, objeto ou fenômeno sob investigação”
(Lillesand; Kiefer, 1994, p. 30, tradução nossa).
» “O registro de informações (sem que haja contato) do
espectro eletromagnético por meios mecânicos,
fotográficos, numéricos ou sensores visuais localizados
em plataformas móveis” (Fussell; Rundquist, 1986, p.
1.510, tradução nossa).
» “Sensoriamento Remoto é uma ciência que visa o
desenvolvimento da obtenção de imagens da superfície
terrestre por meio da detecção e medição quantitativa
das respostas das interações da radiação eletromagnética
com os materiais terrestres” (Meneses; Almeida, 2012, p.
3).

Os sensores remotos são capazes de coletar a energia


refletida pelo objeto, convertê-la em sinal passível de ser
registrado e apresentá-lo em forma adequada à extração de
informações. O SR toma como base a premissa de que cada
alvo na superfície terrestre tem uma característica única de
reflexão e emissão de energia eletromagnética. A energia
eletromagnética utilizada na obtenção dos dados é também
chamada de radiação eletromagnética.

Apenas sensores que detectam radiação eletromagnética


devem ser classificados como SR. Alguns equipamentos que
detectam informações e imagens sem contato direto com o
alvo, mas sem uso da energia eletromagnética, como
sismógrafos, sismômetros, gravímetros, por exemplo, não
fazem parte do SR (Meneses; Almeida, 2012; Tôsto et al.,
2014).

Ao mesmo tempo, é comum a afirmação de que que apenas


as imagens obtidas por sensores orbitais são produtos de SR,
pois coincidem com a criação do termo durante a era espacial
(anos 1960). Mas fotografias aéreas obtidas por aviões
também fazem parte do SR, da mesma maneira que os
produtos adquiridos por RPAs (aeronaves remotamente
pilotadas), no Brasil, popularmente conhecidos como drones.

A Figura 1.1 mostra esquematicamente como se processa a


aquisição de informação sobre um alvo por meio do SR. São
atividades que envolvem detecção, aquisição e análise da
energia eletromagnética emitida ou refletida pelos objetos e
registradas pelos sensores.

Figura 1.1 – Princípios físicos do SR


patineegvector, Animashka e Yafeto/Shutterstock

Fonte: Taveira; Cubas; Fogaça, 2017, p. 119.

Jensen (2009) cita um modelo que mostra a interação entre


várias áreas que podemos chamar de geociências: SR,
cartografia, levantamento e Sistemas de Informações
Geográficas (SIG). O modelo pode ser conferido na Figura
1.2, em que algumas grandes áreas da ciência (como ciências
biológicas, ciências sociais, ciências físicas, matemática e
lógica) interagem entre si, mas o mais importante é que
nenhuma área domina a outra.

Figura 1.2 – Modelo de interação entre ciências


Fonte: Jensen, 2009, p. 5.

O SR faz parte das geotecnologias, que são: a cartografia


digital, o SR, os SIG e o Sistema de Posicionamento Global
(GPS), entre outras. Podem também estar incluídas outras
áreas do conhecimento, como topografia, fotogrametria,
geoestatística, webmapping 1 , entre outros. Para Taveira,
Cubas e Fogaça (2016), cada uma dessas geotecnologias se
sobrepõe ao geoprocessamento, porém suas finalidades são
distintas, como pode ser visto na Figura 1.3, a seguir.

Figura 1.3 – Geoprocessamento


Fonte: Taveira; Cubas; Fogaça, 2017, p. 115.

Agora que já conhecemos o SR e sua interação com as


geociências e outras áreas do conhecimento científico, não
podemos deixar de mencionar as vantagens de termos toda
essa tecnologia disponível. O SR orbital, aquele que obtém
informações por meio de sensores a bordo de satélites, tem a
grande vantagem de poder coletar grandes áreas da superfície
da Terra em curto tempo, com grande repetitividade e baixo
custo para o usuário. Entre outras vantagens do SR, Centeno
(2003) indica:

» visão panorâmica de uma região;


» cobertura global do planeta;
» condições homogêneas para observação de um
fenômeno que ocorre em uma extensa área (por
exemplo, obter imagens de uma área extensa com as
mesmas condições de iluminação);
» possibilidade de obter, por meio dos sensores, energia
em faixas espectrais as quais os olhos humanos são
incapazes de visualizar.
» disponibilidade de um arquivo histórico de imagens.

Jensen (2009, p. 8) cita também outra vantagem muitas


vezes esquecida por outros autores: ‘‘o Sensoriamento
Remoto é não intrusivo se o sensor estiver registrando
passivamente a energia eletromagnética refletida ou emitida
pelo fenômeno de interesse. Esta é uma consideração muito
importante, uma vez que o sensoriamento remoto passivo não
perturba o objeto ou a área de interesse”.

Meneses e Almeida (2012) relatam as principais vantagens


que as imagens orbitais trouxeram com relação às fotografias
aéreas obtidas por aerofotogrametria: essa forma de cobertura
repetitiva, obtendo imagens periódicas de qualquer área do
planeta, propicia detectar e monitorar mudanças que
acontecem na superfície terrestre. Essa é a principal razão
pela qual as imagens de satélites passaram a ser a mais
eficiente ferramenta para uso nas aplicações que envolvem
análises ambientais dos diversos ecossistemas terrestres.

Também precisamos lembrar que há desvantagens e


limitações nessa ciência. O SR orbital, quando necessário
para estudos de áreas pequenas e muito específicas, acaba
tornando-se um método com custo financeiro alto. Sistemas
ativos de SR, como os radares, são considerados intrusos ao
emitir radiação eletromagnética em direção ao alvo. Treinar e
capacitar profissionais para interpretar e analisar imagens e
dados pode levar anos, e mesmo assim eles não estão isentos
de produzir resultados sem erros. Além disso, os dados
obtidos remotamente são apenas uma parte dos estudos,
apresentando pouquíssimas vezes o resultado desses estudos.
É comum que a introdução de novas tecnologias leve à
superestimação, a ponto de parecer a perfeita solução para
vários problemas da ciência e da engenharia.

1.1.1 Histórico do sensoriamento remoto


Para grande parte de cientistas da área e membros da ASPRS,
foi com a invenção da câmera fotográfica que se tornou
possível o início do SR, sendo este o primeiro instrumento
utilizado para tomada de fotos aéreas (Philipson, 1997). O
termo sensoriamento remoto apareceu pela primeira vez na
literatura científica em 1960 por Evelyn L. Pruit e
colaboradores (Meneses, Almeida, 2012).
A palavra fotografia é muito citada durante a história do
SR, justamente por ter sido seu primeiro produto. Os termos
fotogrametria e fotointerpretação fazem parte da história,
mas surgiram anteriormente ao termo SR.

No século XIX, foi desenvolvida a câmera fotográfica


com disparador automático e ajustável. Essas câmeras eram
leves, carregadas com pequenos rolos de filmes e, então,
fixadas ao peito de pombos-correios. Como eram de uso
militar, sobrevoavam posições inimigas para tomadas de
fotos. Essas fotografias serviam para o reconhecimento da
posição e da infraestrutura de forças inimigas. Com o passar
dos anos, os pombos foram substituídos por balões não
tripulados, também de uso militar, sendo muito utilizados
durante a Primeira Guerra Mundial.

Mais tarde, com o advento da aviação, ao mesmo tempo


que se aprimoravam as câmeras fotográficas, ganharam
espaço as fotografias aplicadas ao estudo da paisagem e seus
recursos. Foram muitas décadas de uso e desenvolvimento
exclusivo da aerofotogrametria.

Não podemos deixar de mencionar a busca pelo domínio


da tecnologia durante a corrida espacial, no contexto da
Guerra Fria entre URSS (União das Repúblicas Socialistas
Soviéticas) e Estados Unidos, a qual muito contribuiu para o
SR, trazendo novos instrumentos e produtos gerados, novas
formas de obtenção de dados e informações e, por fim, novos
modos de interpretação e análise.

Já na década de 1960, as fotografias aéreas passam a ser


substituídas por imagens orbitais digitais. Posteriormente,
durante a década de 1970, ocorreu o que se pode chamar de
grande revolução do SR, com o lançamento dos satélites de
recursos naturais terrestres, como o Landsat-1, do satélite de
monitoramento das condições meteorológicas AVHRR, do
satélite Seasat, que utiliza radar para monitoramento do
oceano, e do satélite TOMS de mapeamento da camada de
ozônio.

Foram avanços em diversas áreas da ciência que,


conjuntamente, levaram à criação do SR atual. Esforços
multidisciplinares, principalmente das áreas de física,
química, biociências, matemática, computação e geociências,
foram responsáveis pela facilidade que temos hoje em obter
imagens e dados de maneira rápida, acurada e precisa.

No Quadro 1.1, podemos observar um breve resumo da


evolução do SR e eventos que o tornaram possível.

Quadro 1.1 – Principais eventos relacionados ao SR

Período Evento

1672
» Desenvolvimento da
teoria da luz; por Isaac
Newton
(decomposição da luz
branca).

1826
» Invenção da fotografia.

Anos 1850
» Fotografias obtidas por
câmeras fotográficas a
bordo de balões.

1858
» Primeira fotografia
aérea foi tirada por
Gaspard Felix
Período Evento
Tournachon (Nadar) de
um balão em Paris –
França.

1873
» Teoria do
eletromagnetismo por
J. C. Maxwell.

1909
» Fotografias obtidas por
aviões.

Anos 1910
» Primeira Guerra
Mundial:
reconhecimento aéreo.

Anos 1920
» Desenvolvimento e
aplicações de
fotografia aérea e
fotogrametria.

Anos 1930
» Desenvolvimento de
radar na Alemanha,
nos Estados Unidos e
no Reino Unido.
Período Evento

Anos 1940
» Segunda Guerra
Mundial: aplicação do
infravermelho e
regiões do micro-
ondas.
» Utilização de filmes
em infravermelho na
Segunda Guerra
Mundial para detecção
de camuflagem.
» Primeiros
experimentos para a
utilização de câmeras
multiespectrais.

Anos 1950
» Pesquisa militar.

Anos 1960
» A era dos satélites:
corrida espacial entre
Estados Unidos e Ex-
União Soviética.
» Primeiro satélite
meteorológico
(TIROS-1).
» Skylab: primeira
estação espacial
estadunidense para
observações a partir do
espaço.
Período Evento
» Lançamentos de
satélites
meteorológicos.
» Primeiras fotografias
obtidas pelos
programas espaciais
Mercury, Gemini e
Apollo.

1961
» Lançamento do
primeiro satélite
tripulado – Vostok 1: a
bordo estava o
cosmonauta Iuri
Alekseievitch Gagarin.

Anos 1970
» Rápidos avanços no
processamento digital
de imagens.

1972
» Lançamento do
primeiro satélite de
pesquisa de recursos
terrestres (Landsat-1).

1973
» Primeiras imagens do
Landsat recebidas no
Período Evento
Brasil.

Anos 1980
» Desenvolvimento de
sensores
hiperespectrais.
» Lançamento do
Landsat-4: nova
geração de satélites da
série Landsat.

1986
» Lançamento do satélite
francês de observação
da terra (SPOT-1).

Anos 1990
» Lançamento de
satélites de
monitoramento de
recursos terrestres por
agências espaciais
nacionais empresas
comerciais.

1999
» Lançamento do satélite
sino-brasileiro
CBERS-1.
Período Evento

Anos 2000
» Lançamento de
sensores de alta
resolução espacial.

2003
» Lançamento do satélite
sino-brasileiro
CBERS-2.

2007
» Lançamento do satélite
sino-brasileiro
CBERS-2B.

Anos 2010
» Popularização dos
RPAs (aeronaves
remotamente
pilotadas).

2014
» Lançamento do satélite
sino-brasileiro
CBERS-4.

2019
» Lançamento do satélite
sino-brasileiro
CBERS-4A.
Ao longo da história, podemos perceber a evolução do
desempenho e aprimoramento de satélites, sensores e
plataformas espaciais. Com o passar dos anos, os
equipamentos mudaram de grandes e pesados para menores e
mais leves. Os sensores tornaram-se digitais, o principal
combustível e as baterias foram sofrendo alterações, e os
painéis solares e a arquitetura ficaram mais modernos.

As últimas décadas promoveram uma verdadeira revolução


na resolução dos sensores, principalmente no que diz respeito
à resolução espacial. Nesse sentido, a tendência é que a
humanidade acompanhe o surgimento de equipamentos e
produtos com cada vez mais desempenho e qualidade,
justamente por se tratar de uma área que envolve tecnologia
de ponta e é desenvolvida nos principais centros de pesquisa
mundiais.

1.1.2 Espectro eletromagnético


Para entendermos o que é o espectro eletromagnético,
precisamos primeiramente compreender o que é a radiação
eletromagnética (REM).

Para Tôsto et al. (2014), a REM:

É a forma pela qual a energia é transmitida por meio


de um campo eletromagnético variável, no qual os
campos elétricos e magnéticos têm direções
perpendiculares entre si. A energia produzida pelo
Sol chega à Terra por esse modo de transmissão. Ao
incidir sobre um corpo, a radiação eletromagnética
(REM) pode ser refletida, absorvida ou transmitida.

Espectro eletromagnético (Figura 1.4) é o arranjo da


radiação eletromagnética ordenada de maneira contínua em
função de seu comprimento de onda ou de sua frequência.
Mesmo se tratando de uma representação contínua, os
cientistas a dividiram em intervalos de comprimento de onda.

A forma mais conhecida de REM é a luz e condiz à faixa


de radiação à qual nossos olhos são sensíveis, chamada de luz
visível. Mas há outras formas de radiação (natural ou
artificial), como: infravermelha, micro-ondas, ondas de rádio,
ultravioleta, raios-X e raios gama.

No SR, as fontes de REM mais usadas são: o Sol, a Terra e


sensores de satélites ativos. A faixa espectral mais utilizada
em SR estende-se entre os comprimentos de onda de 0,4 e 14
μm (micrômetros), na região do visível e do infravermelho, e
normalmente são sensores passivos que utilizam a energia
refletida ou emitida pela superfície terrestre. Também é muito
utilizada a faixa espectral que se estende entre 3 cm e 68 cm
na região das micro-ondas, atuando os sensores ativos com
base em técnicas de radar (Tôsto et al., 2014).

Figura 1.4 – Espectro eletromagnético

Designua/Shutterstock

As principais faixas do espectro eletromagnético utilizadas


em SR estão descritas a seguir.
» Micro-ondas: por serem pouco atenuadas pela atmosfera,
permitem o uso de sensores em qualquer condição de
tempo. É possível imageamento ativo por radar, e a
grande vantagem é a possibilidade de imageamento
noturno ou em dias com densa cobertura de nuvens.
» Infravermelho: tem grande importância para o SR no
estudo da vegetação, da geologia e no monitoramento da
atividade industrial por meio da distribuição de calor. A
radiação infravermelha é facilmente absorvida pela
maioria das substâncias (efeito de aquecimento).
» Visível: essa radiação é importante para o SR, pois
imagens obtidas nessa faixa apresentam correlação com
a experiência visual do intérprete. É a única porção do
espectro que podemos associar com o conceito de cor.
» UV (ultravioleta): utilizada para detecção de minerais
por luminescência e poluição marinha, uma vez que
esses elementos emitem luz quando expostos à radiação
UV. Mas a forte atenuação atmosférica nessa faixa é o
grande obstáculo em sua utilização.

As regiões do espectro ainda podem ser subdivididas


exemplificativamente desta forma:

» A luz visível pode ser dividida em azul, verde e


vermelha.
» A radiação infravermelha pode ser dividida em
infravermelho próximo, infravermelho médio e
infravermelho termal.
» A radiação UV pode ser subdividida em UV próximo,
UV distante e UV extremo.

Nossos olhos só conseguem ver uma pequena parte do


espectro eletromagnético, a qual contém as cores espectrais,
mas nossa pele também pode sentir diferenças de
temperatura. Essa parte do espectro é chamada de visível e
está representada na Figura 1.5.
Figura 1.5 – Espectro visível

Belozersky/Shutterstock

Banda espectral é o intervalo entre dois comprimentos de


onda no espectro eletromagnético. Costuma-se denominar a
banda espectral de acordo com a região do espectro em que
ela se localiza (por exemplo: vermelho, verde, infravermelho
próximo etc.). Os sensores captam a energia refletida e/ou
emitida pelos alvos em determinadas bandas do espectro e
geram imagens de acordo com a reflectância observada.
Sistemas sensores que registram a energia em diversas bandas
do espectro geram uma imagem para cada banda.

Quando a REM incide sobre um objeto, ela pode ser


refletida, absorvida ou transmitida (Tôsto et al., 2014). Todas
essas interações entre o objeto e a radiação são determinadas
pelas características físico-químicas e biológicas desses
corpos e podem ser identificadas nas imagens de SR.
Consequentemente, a energia eletromagnética refletida e
emitida pelos objetos permite que se extraiam informações
sobre suas características físicas (forma, temperatura, cor etc.)
e químicas (composição).

Dois termos importantes para melhor entendermos a


relação entre o SR e o espectro eletromagnético são: (1) o
comprimento de onda; e (2) a frequência. Ambos são
propriedades da REM e, quanto maior for o comprimento de
onda da radiação, menor será sua frequência. O
comprimento de onda é a distância de um pico de onda ao
outro, e a frequência é medida pelo número das ondas que
passam por um ponto do espaço em determinado tempo. A
unidade para frequência é o hertz (Hz), e a unidade para
comprimento de onda é o metro (m).

Centeno (2003, p. 19) afirma que “quando a energia


eletromagnética entra em contato com a matéria, ocorrem
interações a nível molecular e atômico, sendo o espalhamento
atmosférico e absorção os principais”.

A energia sofre influências atmosféricas como, por


exemplo, o espalhamento atmosférico (ou dispersão
atmosférica). Esse fenômeno ocorre quando partículas da
atmosfera, como gases e aerossóis, modificam a direção de
propagação da radiação solar, dispersando-a em todas as
direções e gerando um campo de luz difusa. A radiação
proveniente de um objeto na superfície terrestre pode, por
exemplo, sofrer espalhamento atmosférico antes de ser
captada por um sensor orbital, o que faz com que se perca
qualidade nos dados obtidos pelo sensor.

Outra influência atmosférica importante é a absorção


atmosférica. Diferentemente da dispersão, a absorção
significa uma perda de energia e é principalmente causada
devido à interação com gases presentes na atmosfera, como
vapor d’água, dióxido de carbono, metano e ozônio. As
diferentes moléculas que absorvem energia de diferentes
regiões do espectro eletromagnético limitam a aquisição de
informações por sensoriamento remoto, uma vez que há
regiões nas quais a energia é totalmente absorvida. Essas
regiões são chamadas de bandas de absorção da atmosfera,
enquanto as regiões de alta transmitância são chamadas de
janelas atmosféricas, regiões do espectro eletromagnético de
onde partem grande parcela dos dados de SR.

1.1.3 Comportamento espectral de alvos


O comportamento espectral de alvos é o estudo da
reflectância espectral de objetos como vegetação, solos,
minerais e rochas e água. Ou seja, é o estudo da interação da
REM com diferentes objetos da superfície terrestre, conforme
sua composição.

O fator que mede a capacidade de um objeto de refletir a


energia radiante indica a sua reflectância, enquanto a
capacidade de absorver energia radiante é indicada pela sua
absortância e a capacidade de transmitir energia radiante é
indicada pela sua transmitância.

A assinatura espectral é a intensidade com a qual um alvo


reflete ou emite a REM nos diferentes comprimentos de onda
do espectro eletromagnético. Essas interações são
dependentes das características bio-físico-químicas do alvo.

Ao enxergarmos a cor de um objeto, vemos ali o resultado


da interação da luz com esse alvo, ou seja, enxergamos a
energia referente à região do espectro eletromagnético que
esse alvo refletiu (refletância). Os sensores multiespectrais a
bordo dos satélites geram imagens em um número baixo de
bandas e apresentam assinaturas espectrais de forma pouco
detalhada. Já os sensores hiperespectrais, que captam
centenas de faixas do espectro, apresentam assinaturas
espectrais mais detalhadas.

De maneira geral, as variações de energia refletida pelos


objetos podem ser representadas por meio de curvas
espectrais, como na Figura 1.6, e tornam possível a
diferenciação entre os objetos na superfície terrestre. A curva
da vegetação mostra, por exemplo, que a vegetação reflete
mais energia na faixa correspondente ao verde na região do
visível. No entanto, com uma segunda análise, constatamos
que é na região do infravermelho próximo que a vegetação
reflete mais energia e se diferencia dos outros objetos.

Figura 1.6 – Curva espectral de vegetação, água e solo


Fonte: Florenzano, 2007, p. 12.

A fim de saber interpretar as imagens SR, é necessário que


o usuário do sistema compreenda as características dos alvos
e tenha em mente que a assinatura espectral captada pelo
sensor do satélite, no caso de SR orbital, é uma média das
assinaturas espectrais de todos os objetos que estão contidos
na superfície imageada. Bowker et al. (1985) apresentam, em
seu estudo, uma coleção de informações sobre resposta
espectral dos alvos, essencial para aprofundar-se no tema.

1.2 Processo de aquisição


da informação
Diferentemente da fase inicial do SR, em que a preocupação
principal era colocar os satélites em órbita, hoje, com mais de
40 anos do lançamento dos primeiros satélites de observação
da Terra, a preocupação é com o uso final dos dados. O
grande desafio tecnológico atual é transformar as informações
primárias em informações qualificadas (Novo, 2008).
Para gerar informação relevante, o processo de SR (Figura
1.7) é composto por alguns elementos fundamentais. A
quantidade de elementos e a maneira como o processo de
aquisição da informação é explicado não são unânimes entre
os cientistas da área. Vamos mostrar a seguir, de acordo com
Centeno (2003), de maneira resumida, como esse processo
acontece.

a. Fonte de energia: deve haver uma fonte externa de energia


que ilumine ou forneça energia eletromagnética para o
objeto de interesse, por exemplo, o Sol. Caso não haja uma
fonte externa, o sistema deve contar com sua própria fonte
de energia artificial.
b. Radiação/energia eletromagnética: a energia que viaja
interage com a atmosfera em dois momentos, no processo
fonte-alvo, e no processo alvo–sensor.
c. Interação com o alvo: ao atingir a superfície do alvo, a
energia pode ser absorvida, refletida ou transmitida.
d. Registro da energia pelo sensor: depois de a energia
interagir com o objeto na superfície terrestre e propagar-se
pela atmosfera, é necessário que um sensor colete e grave
essa radiação.
e. Transmissão, recepção e processamento dos dados: a
energia gravada pelo sensor orbital deve ser transmitida
para uma estação terrestre de recebimento e processamento
onde os dados serão transformados em imagens.
f. Interpretação e análise: a imagem processada é interpretada
pelos mais diversos profissionais a fim de extrair
informações sobre objeto/área/fenômeno. O dado bruto
adquirido pelos sensores de nada servem ao usuário final,
por isso há a necessidade de transformá-los em produtos.
g. Aplicações: uma vez adquiridos os dados e gerados os
produtos, estes últimos podem ser utilizados para subsidiar
a resolução de problemas (estudos e pesquisas em diversas
áreas).
Figura 1.7 – Processo de SR

Vector Tradition, Theus e Pyty/Shutterstock

Fonte: Canada, 2020.

Os processos mencionados no trecho anterior serão


tratados com mais detalhes nos próximos capítulos.

1.3 Programa espacial


brasileiro
No Brasil, quem controla os satélites nacionais é a Agência
Espacial Brasileira (AEB). Ela é responsável por projetos,
atividades e aplicações relacionadas aos satélites.

O lançamento do primeiro satélite brasileiro ocorreu em


1993. O chamado SCD-1 (Satélite de Coleta de Dados 1)
capta sinais de mais de 750 estações automáticas de coleta de
dados ambientais em todo território nacional. Em 1998, foi
lançado o SCD-2. Ambos foram projetados, construídos e
operados pelo Instituto Nacional de Pesquisas Espaciais
(INPE). O SCD-1 segue retransmitindo informações para
previsão do tempo, planejamento agrícola e monitoramento
do nível de água de rios e represas, entre outras aplicações
(Tôsto et al., 2014; Brasil, 2013).

Um dos grandes marcos da ciência em nosso país,


principalmente na área de tecnologia espacial, foi o
lançamento do satélite denominado China-Brazil Earth
Resources Satellite (CBERS), em junho de 1999. O satélite
CBERS faz parte de um acordo de cooperação entre Brasil e
China, sendo o Brasil representado pelo INPE, e a China, pela
Academia Chinesa de Tecnologia Espacial (CAST). Assim, o
projeto previa a construção de dois satélites sino-brasileiros
de recursos terrestres: CBERS-1 e CBERS-2. Além dos
satélites previstos, em 2007 foi lançado o CBERS-2B, satélite
aprimorado em relação aos modelos anteriores, mas que teve
sua vida útil até o ano de 2010.

O lançamento do satélite CBERS-3 ocorreu em dezembro


de 2013 e sua representação encontra-se na Figura 1.8. Em
razão de uma falha de funcionamento do veículo lançador, o
CBERS-3 não foi posicionado na órbita prevista, resultando
em sua reentrada na atmosfera da Terra. Após o incidente com
o satélite CBERS-3, o lançamento do CBERS-4 ocorreu em
dezembro de 2014 com sucesso.

Figura 1.8 – Satélite CBERS


INPE/www.cbers.inpe.br

O CBERS 04A, sexto satélite da família CBERS, foi


lançado e colocado em órbita com sucesso no dia 20 de
dezembro de 2019. Do mesmo modo que os satélites
anteriores da família CBERS, CBERS04A é um satélite de
sensoriamento remoto de média resolução e conta com
equipamentos que operam no espectro visível com resoluções
na faixa de 2 a 60 metros.

O satélite Amazônia 1 (SSR-1) tem o intuito de melhorar o


sistema de alertas de desmatamentos na região Amazônica e
está em desenvolvimento pelos cientistas brasileiros. Além
disso, há os satélites da missão Sabia-Mar (Satélite
Argentino-Brasileiro de Informação Ambientais Marinhas),
para estudos oceânicos, e o GPM-Brasil, para estudos
meteorológicos (Tôsto et al., 2014). Esses dois últimos
projetos são desenvolvidos em parceria com Argentina e
Estados Unidos, respectivamente.

Indicações culturais
EARTH from Space. Direção: Iain Riddick. Canadá: Discovery Channel,
2013. Documentário.

O documentário Earth from Space explora como os satélites e as espaçonaves


revolucionaram a maneira como os cientistas olham para o mundo e seus
intrincados sistemas. Cientistas das geotecnologias comentam durante todo o
material, de aproximadamente duas horas de duração.

ABOVE and beyond: NASA’s Journey to Tomorrow. Direção: Rory Kennedy.


EUA: Discovery Channel, 2018. Documentário.

O documentário Above and beyond examina as maneiras notáveis pelas quais a


Nasa (National Aeronautics and Space Administration) mudou a visão que temos
do nosso planeta, do nosso universo e de nós mesmos, cobrindo um período de 60
anos, desde o primeiro pouso lunar até as mais recentes missões à Marte,
incluindo a vasta rede de satélites que medem a saúde de nosso planeta. O Canal
Discovery destaca a instituição histórica da Nasa, levando-nos à Lua, à superfície
de Marte, ao limite de nosso sistema solar e além.

SBSR – Simpósio Brasileiro de Sensoriamento Remoto. Biblioteca Digital.


Disponível em: <http://urlib.net/rep/83LX3pFwXQZ5Jpy/CxGU3>. Acesso
em: 5 jan. 2021.

Acesse a Biblioteca Digital com o acervo dos Anais do Simpósio Brasileiro de


Sensoriamento Remoto. Estão disponíveis para consulta os artigos publicados em
todas as edições. Trata-se de um conteúdo riquíssimo, que é o retrato das
pesquisas em SR no Brasil.

Síntese
Neste capítulo, apresentamos uma introdução do SR.
Percorremos diferentes questões: conceitos; desenvolvimento
dessa ciência ao longo da história; espectro eletromagnético e
comportamento espectral dos alvos; como adquirimos
informações dos dados obtidos pelos sensores remotos; e,
finalmente, história do programa espacial brasileiro.

Destacamos até aqui a utilidade da aquisição de dados de


um objeto ou de uma área de interesse a partir de um ponto
distante privilegiado usando a tecnologia possibilitada pelo
SR.

Tudo de que tratamos até o momento é de extrema


relevância para o entendimento dessa ciência como um todo e
serve para que possamos compreender os demais assuntos
que serão abordados nos próximos capítulos.

Atividades de autoavaliação

1. O SR está relacionado com uma coleção de técnicas de


aquisição, processamento e análise de dados coletados por
sensores remotos. Assinale a alternativa que apresenta a
sequência correta referente ao esquema a seguir:

Vector Tradition, Theus e Pyty/Shutterstock

Fonte: Canada, 2020.

a) A – fonte de energia; B – atmosfera; C – alvo; D –


plataforma/sensor; E – transmissão; F –
processamento/análise; G – aplicações.
b) A – fonte de energia; B – transmissão; C – alvo; D –
plataforma/sensor; E – atmosfera; F –
processamento/análise; G – informação.
c) A – fonte de energia; B – atmosfera; C –
plataforma/sensor; D – alvo; E – transmissão; F –
informação; G – processamento/análise.
d) A – atmosfera; B – fonte de energia; C – alvo; D –
plataforma/sensor; E – transmissão; F –
processamento/análise; G – informação.
e) A – atmosfera; B – fonte de energia; C – alvo; D –
plataforma/sensor; E – informação; F –
processamento/análise; G – transmissão.

2. Sobre a radiação eletromagnética, analise as assertivas a


seguir e indique V para as verdadeiras e F para as falsas.
( ) O olho humano só pode ver a parte do espectro
eletromagnético que contém as cores espectrais.
( ) Ao incidir sobre um corpo, a radiação eletromagnética
pode ser refletida, absorvida ou transmitida.
( ) São exemplos de fontes de radiação eletromagnética: o
Sol, a Terra com sua radiação infravermelha e os sensores
de satélites ativos e passivos.
( ) O espectro eletromagnético não é contínuo, por isso é
dividido em intervalos de comprimento de onda.
( ) A radiação eletromagnética é uma forma de propagação
de energia.

Agora, assinale a alternativa que corresponde à sequência


correta:

a) V – V – F – F – V.

b) V – V – F – V – V.
c) V – F – V – F – V.

d) F – V – F – F – V.

e) F – V – F – V – F.

3. Para Tôsto et al. (2014, p. 62), a energia eletromagnética


“é a forma pela qual a energia é transmitida por meio de
um campo eletromagnético variável, no qual os campos
elétricos e magnéticos têm direções perpendiculares entre
si.” Sobre a energia eletromagnética, analise as
afirmações a seguir.
I. A forma mais conhecida de radiação eletromagnética é a
luz que corresponde à parte visível dessa radiação ao olho
humano.
II
. A radiação ultravioleta, os raios-X e as micro-ondas são
também formas de radiação eletromagnética.
II
I. A unidade utilizada para o comprimento de onda é o hertz,
representada pelo símbolo Hz. Já unidade criada para
representar a frequência é dada em micrômetros,
milímetros ou metros.

Quais afirmações são verdadeiras?

a) Somente a afirmativa I.

b) Somente a afirmativa II.

c) As afirmativas I e III.

d) As afirmativas I e II.

e) As afirmativas II e III.
4. Complete corretamente as lacunas das afirmativas a
seguir.

____________________ é a distância de um pico de onda


ao outro.

A _______________________ é medida pelo número das


ondas que passam por um ponto do espaço em
determinado tempo.

A energia sofre influências atmosféricas como, por


exemplo, o espalhamento atmosférico, também conhecido
como _______________________.

A _______________________ significa uma perda de


energia.

As regiões de alta transmitância são chamadas de


___________ . São regiões do espectro eletromagnético
de onde partem grande parcela dos dados de SR.

Qual opção a seguir completa corretamente as frases


apresentadas?

a) frequência – comprimento de onda – dispersão atmosférica


– absorção atmosférica – janelas atmosféricas
b) comprimento de onda – frequência – dispersão atmosférica
– absorção atmosférica – janelas atmosféricas
c) frequência – comprimento de onda – absorção atmosférica
– dispersão atmosférica – janelas atmosféricas
d) comprimento de onda – frequência – absorção atmosférica
– dispersão atmosférica – janelas atmosféricas
e) frequência / comprimento de onda / janelas atmosféricas /
absorção atmosférica / dispersão atmosférica
5. Sobre o programa espacial brasileiro, analise as assertivas
a seguir e indique V para as verdadeiras e F para as falsas.
( ) No Brasil, quem controla os satélites nacionais é a AEB.
( ) O satélite CBERS faz parte de um acordo de cooperação
entre Brasil e Rússia.
( ) Em razão da crise econômica enfrentada pelo Brasil, não
há previsão de lançamento de novos satélites e sistemas
sensores para os próximos anos.
( ) Os únicos satélites brasileiros em funcionamento são
aqueles destinados às telecomunicações e operados pela
Embratel (Empresa Brasileira de Telecomunicações).
( ) O Satélite de Coleta de Dados 1, ou SCD-1, foi o
primeiro satélite brasileiro lançado ao espaço em 1993.

Agora, assinale a alternativa que corresponde à sequência


correta:

a) V – V – F – F – V.

b) V – V – F– V – V.

c) V – F– V – F – V.

d) F – V – F – F – V.

e) V – F – F – F – V.

Atividades de aprendizagem

Questões para reflexão

1. Acesse o site do INPE e realize uma pesquisa sobre os


satélites CBERS. É possível se informar sobre várias
2
Plataformas e
sistemas
sensores

Monyra Guttervill Cubas


Neste segundo capítulo, daremos continuidade ao estudo da
vasta área do conhecimento que é o sensoriamento remoto
(SR). A segunda parte desta obra descreve, de uma forma
geral, os sensores e seu principal produto: as imagens
orbitais. Apresentamos, ainda, alguns endereços eletrônicos
onde é possível baixar imagens de satélite disponibilizadas de
forma gratuita.

2.1 Satélites artificiais


Um satélite artificial é um equipamento produzido pelo ser
humano e que segue a órbita de um planeta ou corpo celeste.
Ele é lançado e posicionado no espaço com o auxílio de um
foguete. Há satélites com objetivos específicos, como os
destinados às telecomunicações, ao monitoramento dos
recursos naturais, ao uso restrito militar, à navegação (GNSS
– Global Navigation Satellite System), entre outros.

A maior parte dos satélites artificiais utilizam a energia


solar captada em seus painéis solares para funcionar. Tais
painéis têm baterias recarregáveis que armazenam a energia
gerada por eles. Esses satélites são dotados de antenas de
comunicação, transmissores, diversos tipos de sensores,
câmeras, sistema de navegação e outros instrumentos
científicos importantes para o cumprimento de sua missão.

2.1.1 Órbitas

As plataformas espaciais e os satélites podem ser


classificados, conforme o tipo de órbita (trajetória), em
satélites geoestacionários e satélites de órbita polar.

A órbita geoestacionária de um satélite fica


permanentemente sobre a linha do equador e move-se no
sentido oeste para leste, mesmo sentido de rotação da Terra.
Os satélites, nessa órbita, estão a uma altitude média de cerca
de 36.000 km. Apresentam o período de rotação coincidente
com o período de rotação da Terra, de aproximadamente 24h.
Dessa maneira, um observador em um local qualquer na
superfície terrestre pode visualizar o satélite na mesma
posição, no mesmo horário do dia e a mesma distância da
Terra.

Os satélites de órbita polar passam pelos polos ou


próximos a eles. Cruzam de maneira perpendicular (intercepta
em ângulo reto) à Linha do Equador, no sentido norte para
sul. Suas órbitas duram aproximadamente de uma a duas
horas. Um satélite de órbita polar passa pelo mesmo local na
Terra uma vez a cada 12 horas.

Os satélites de órbita polar giram em uma órbita que


permanece sempre no mesmo plano, ao mesmo tempo que o
planeta Terra gira 15 graus por hora. Durante um dia, o
satélite passa por novas regiões, sobre as quais o Sol está
incidindo aproximadamente na mesma hora solar que na
passagem anterior, o que possibilita imagear a superfície
terrestre com a mesma intensidade de iluminação. Exemplos
de satélites com órbita polar são os satélites meteorológicos
da série NOAA (National Oceanic and Atmosphere
Administration), dos Estados Unidos.

Figura 2.1 – Órbita polar e geoestacionária


Zern Liew/Shutterstock

Fonte: INPE, 2021c.

Os satélites costumam orbitar entre 180 km e 36.000 km de


altitude. A órbita dos satélites pode ser classificada como
baixa, média e alta (Tôsto et al., 2014). Satélites de baixa
órbita (baixa altitude) podem, em um único dia, realizar
várias voltas em torno da Terra, além disso, costumam ficar
entre 600 e 700 km da Terra e viajam a 27.400 km/h, dando
uma volta no planeta a cada 90 minutos. Os satélites de SR
para monitoramento do planeta Terra costumam ser de baixa
órbita. Satélites de órbita média compõem os sistemas de
posicionamento global por satélite, como os do sistema
GNSS. Na altitude em que se encontram, aproximadamente
20 mil km, costumam levar cerca de 11 horas para dar uma
volta completa no planeta. Em alta órbita encontram-se os
satélites acima dos 35.700 km de altitude, muito adotada
pelos satélites de comunicação e de meteorologia, sendo eles
os do tipo geoestacionários.

Curiosidade
Quando foi lançado o primeiro satélite
artificial?

Em 4 de outubro de 1957, foi lançado o satélite Sputinik pela


União das Repúblicas Socialistas Soviéticas (URSS). O
lançamento do Sputnik é tido como um dos responsáveis pela
crise entre os Estados Unidos e a antiga União Soviética, que
antecipou a corrida espacial em plena Guerra Fria. Medindo
cerca de 59 cm e pesando 83 kg, o Sputinik viajou a uma
velocidade de 29 mil km/h a uma altitude de 900 km, tendo
permanecido em órbita por seis meses. Os soviéticos
lançaram, nos três anos seguintes, o Sputnik 2, 3 e 4 (Furtado;
Rodrigues; Tôsto, 2021).

2.1.2 Os sensores remotos


Antes de entrarmos no mérito dos sensores remotos,
precisamos lembrar que o olho humano é um sensor natural,
mas com limitações, as quais permitem enxergar apenas a luz
ou a energia visível. Por isso há o investimento e a pesquisa
em sensores artificiais que possibilitem visualização de
regiões de energia do espectro eletromagnético invisíveis ao
olho humano.

Os sensores remotos são dispositivos que captam e


registram a energia refletida ou emitida pelos alvos na
superfície terrestre. Esses dispositivos medem ou estimam
determinada propriedade do alvo ao responderem aos
estímulos físicos e químicos.

Os sensores podem ser câmeras fotográficas, sistemas de


varredura (escâneres), radares, entre outros. Eles podem ser
instalados a bordo de plataformas terrestres, aéreas (aviões,
balões, drones ou aeronaves remotamente pilotadas – RPAs) e
orbitais (satélites artificiais). Cabe aqui ressaltar a diferença
entre o produto gerado pelo sensor a bordo do satélite e pela
câmera, por exemplo, a bordo de uma aeronave: o produto de
SR chamado imagem é gerado pelo sensor, e a fotografia é
gerada pela câmera.

Os sensores são classificados em ativos e passivos, de


acordo com a fonte de energia utilizada.

Sensores passivos (ou ópticos) não têm fonte própria de


emissão de radiação, por isso dependem de uma fonte de
energia externa (geralmente, essa fonte de energia é o Sol)
para captar a radiação solar refletida ou transmitida pelo alvo,
ou então a radiação emitida naturalmente por ele. Na
categoria dos sensores passivos estão incluídos os
espectrômetros, os espectrorradiômetros e os radiômetros.

Já os sensores ativos são capazes de emitir radiação em


direção à superfície da Terra, fornecendo energia para
imagear. Os objetos são atingidos pela radiação, que, então, é
refletida e captada pelo sensor acoplado ao satélite. A maior
parte dos sensores ativos opera na faixa das micro-ondas, o
que faz com que sejam capazes de penetrar na atmosfera na
maioria das condições. Na categoria de sensores ativos estão
incluídos os radares imageadores, altimétricos e
escaterômetros.

Os sensores são classificados em imageadores e não


imageadores, de acordo com o produto obtido.

No âmbito do SR, nem todos os sensores remotos geram


imagens como produto. Alguns sensores medem a energia
refletida pelos objetos e armazenam esses valores na forma de
números, sem apresentar, por exemplo, a localização dos
dados obtidos.

São exemplos de sensores não imageadores os


radiômetros, que medem a radiância de um alvo e apresentam
os dados na forma de números, os espectrorradiômetros, que
medem a radiância em diferentes bandas do espectro
eletromagnético e apresentam os resultados em forma de
tabela numérica ou de gráfico (Tôsto et al., 2014).

O produto gerado pelos sensores imageadores orbitais


costumam ser as imagens de satélite, na forma de uma matriz
de números digitais, cada qual associado a um pixel (derivado
do inglês picture element).

Sensores imageadores devem ser escolhidos uma vez que


seja necessário obter informações espaciais da superfície
sensoriada. Caso o interesse seja por informações espectrais,
e não imagens da superfície observada, devem ser utilizados,
por exemplo, espectrômetros (também chamados de sensores
hiperespectrais), ou mesmo espectrorradiômetros.

2.1.3 Resolução dos sistemas sensores


A resolução espacial refere-se à habilidade do sensor em
distinguir e medir os alvos. Essa habilidade baseia-se na
projeção geométrica do detector na superfície terrestre,
definindo sua área do campo de visada (FOV – Field of View)
do instrumento em certa altitude e em determinado instante
(Florenzano, 2002).

Resumidamente, a resolução espacial determina o tamanho


do menor objeto passível de ser identificado na imagem.
Assim, deve ser considerado o tamanho do pixel da imagem,
por exemplo: se determinado alvo tem dimensões de 1 m × 1
m, logo a resolução espacial da imagem para que esse
elemento seja identificado deve ser de 1 m. Quanto menor for
o tamanho do pixel, maior será a resolução espacial dessa
imagem, o que significa que é mais fácil distinguir objetos
dispostos na superfície terrestre. Quanto menor for o objeto
passível de ser visto, maior será a resolução espacial de um
sensor. Na Figura 2.2, podemos distinguir três imagens
orbitais e uma fotografia aérea, separadas de acordo com sua
resolução espacial.
Figura 2.2 – Exemplo de resolução espacial

US Geological Survey Department of the Interior/USGS

Fonte: Melo, 2002, p. 31.

A resolução temporal de um sistema sensor orbital,


também conhecida como tempo de revisita, refere-se ao
intervalo de tempo mínimo que o sensor instalado em um
satélite demora para obter duas imagens consecutivas de uma
mesma área. A resolução temporal depende das características
da órbita do satélite. No entanto, quando falamos de sensores
aerotransportados, ou então de RPAs, não existe um intervalo
de tempo sistemático entre duas observações, pois aviões, por
exemplo, podem levantar voo a qualquer momento.

A seguir, temos alguns exemplos de resolução temporal de


satélites de observação da Terra. Vale lembrar que, quanto
maior for esse intervalo de tempo, menor será a resolução
temporal. Isso quer dizer que o satélite CBERS tem uma
resolução temporal menor do que a do satélite GeoEye.

» CBERS: 26 dias (ocorre variações de sensor para


sensor).
» Spot: 26 dias (variações de sensores).
» Landsat: 16 dias para voltar a imagear uma mesma
área no globo.
» WorldView: varia de 1,1 a 4,6 dias (variação de
acordo com o satélite WorldView-1 ou WorldView-2
e angulação nadir e off-nadir 1 ).
» Quickbird: 1 a 3,5 dias (dependendo da latitude).
» GeoEye: 3 dias (no máximo).

A resolução radiométrica de um sensor é definida pelo


número de níveis de cinza (ou DN – digital number) para se
compor a imagem. Os níveis de cinza expressos em cada pixel
da imagem representam a intensidade média de energia
eletromagnética medida pelo sensor. Os valores de DN são
expressos em forma de números de dígitos binários (bits),
como no exemplo da Figura 2.3. Assim, podemos dizer que,
quanto maior for o número de níveis de cinza, ou DN, maior
será a resolução e a qualidade visual da imagem.
Figura 2.3 – Exemplo de radiação radiométrica

Fonte: Melo, 2002, p. 34.

A resolução espectral de um sensor representa a menor


porção do espectro eletromagnético que um sistema sensor é
capaz de segmentar. Falamos de resolução espectral de
sensores quando nos referimos aos sensores multi ou
hiperespectrais, aqueles que registram a energia em diferentes
bandas do espectro eletromagnético.

Assim, quanto mais estreitas forem essas bandas, quando


se trata de intervalo de comprimento de onda, maior será a
resolução espectral. E quanto maior é o número de faixas do
sensor, maior é a capacidade de o sistema registrar diferenças
espectrais entre os objetos, ou seja, maior será sua resolução
espectral e maiores serão as possibilidades de identificar
alvos e registrar suas diferenças espectrais.

Figura 2.4 – Diferentes tipos de resolução espectral


Fonte: Lira et al., 2016, p. 30.

Preste atenção!

O que são sensores hiperespectrais e


sensores multiespectrais (MS)?

Os sensores de alta resolução espectral (hiperespectrais) são


utilizados para a obtenção de informação detalhada sobre
alvos. São responsáveis por coletar dados espectrais em
diversas bandas estreitas e contínuas. Os sensores
hiperespectrais são considerados uma evolução dos sensores
multiespectrais. Quando nos referimos às imagens geradas
por sensores multiespectrais, são imagens formadas por
poucas bandas (normalmente entre 3 e 20), e não são
necessariamente bandas coladas umas às outras. Já as
imagens hiperespectrais normalmente são formadas por um
maior número de bandas obrigatoriamente próximas
(Formaggio; Sanches, 2017).

Por fim, importa lembrar, aqui, das imagens


pancromáticas (PAN), que geralmente se apresentam em
escalas de cinza. Elas têm apenas uma banda espectral, que
abrange a maior parte do espectro visível e parte do
infravermelho. Uma grande parcela dos satélites apresenta a
banda pancromática com resolução espacial maior do que as
bandas multiespectrais.
2.2 Imagem digital em
sensoriamento remoto
As imagens de SR são constituídas por um arranjo de
elementos sob a forma de uma malha ou grid. Cada célula, ou
pixel, desse grid está localizada em um sistema de
coordenadas no formato linha e coluna, representados por
“x” e “y”. É de praxe determinar a origem do grid em seu
canto superior esquerdo. Mesmo havendo diferenças entre os
termos, em SR, os conceitos de imagem e raster são
utilizados como sinônimos.

Figura 2.5 – Imagem Landsat

Fonte: Lira et al., 2016, p. 59.


Cada pixel contém um atributo numérico, um DN , que
indica o nível de cinza da célula, o qual se diferencia do preto
(quando absorve toda a energia) ao branco (quando reflete
toda a energia). O número digital de um pixel corresponde à
intensidade da radiação eletromagnética refletida ou emitida
pelo alvo. O DN é a média da intensidade da radiação
eletromagnética refletida ou emitida por esses diferentes
objetos na superfície da Terra.

Na Figura 2.6, temos um exemplo de imagem digital, na


qual o valor numérico de cada pixel representa uma
intensidade de energia e um nível de cinza. Podemos, por
exemplo, comparar o pixel de valor 178 com o pixel de valor
21. Dessa maneira, o pixel de valor 178 obteve maior energia
e nível de cinza maior, tornando-se mais claro na imagem,
com coloração próxima ao branco. Já o pixel de valor 21
obteve menor energia e nível de cinza menor, parecendo mais
escuro na imagem, com matiz próximo ao preto.

Figura 2.6 – Natureza matricial de uma imagem digital


Fonte: Lira et al., 2016, p. 59.

Ao utilizar um sensor remoto para imagear uma área,


obtêm-se uma imagem em que cada pixel representa uma área
com as mesmas dimensões na superfície da Terra. Isso quer
dizer que, se o sensor registra imagens com pixel de 30 m ×
30 m, por exemplo, todos os pixels das imagens feitas por
esse sensor terão dimensões iguais. O tamanho do pixel está
relacionado com a resolução espacial da imagem. Quanto
menor é o tamanho, maior é a resolução espacial da imagem e
maior é a capacidade de distinção e definição de alvos
pequenos da superfície terrestre. Já a intensidade de radiação
eletromagnética gravada em cada pixel é convertida para um
número inteiro dentro de uma faixa que depende da resolução
radiométrica do sensor.

As imagens capturadas por sensores eletrônicos são obtidas


originalmente em níveis de cinza, sendo possível, a partir
delas, gerar imagens coloridas. Para gerar essas imagens, é
preciso sobrepô-las por meio de filtros coloridos em azul,
verde e vermelho (cores primárias).

Existem duas formas distintas de combinar as cores


primárias para produzir outras cores. A combinação por
adição é a que resulta da projeção de luzes coloridas
sobrepostas; já a combinação por subtração é a que resulta da
mistura de pigmentos. São denominadas cores
complementares as que dão branco por combinação aditiva,
ou preto por combinação subtrativa (Cardinali, 1992). A cor
de um objeto na imagem vai depender da quantidade de
energia por ele refletida, da mistura das cores (segundo o
processo aditivo) e da associação das cores com as imagens.

2.3 RPAs (aeronaves


remotamente pilotadas)
Os RPAs originam da expressão em inglês Remotely Piloted
Aircraft System, termo técnico e padronizado
internacionalmente pela Organização da Aviação Civil
Internaciconal (OACI) – em português utilizamos a sigla
RPAs. Aplicados à aerofotogrametria, os RPAs têm câmeras
com a finalidade de obter imagens aéreas capazes de gerar
dados de forma mais rápida e com mais detalhes se
comparados aos levantamentos convencionais.

A expressão veículos aéreos não tripulados (VANTs) tem


origem em Unmanned Aerial Vehicle (UAV), usada para
indicar uma aeronave sem piloto a bordo que tem a habilidade
de voar de modo autônomo. Essa denominação é considerada
obsoleta pela OACI, e, atualmente, o termo oficial utilizado
nos aerolevantamentos é RPA. Já o termo drone é mais
utilizado para fins recreativos e um apelido informal para
todo e qualquer objeto voador não tripulado. No Brasil, são
popularmente conhecidos como drones (em inglês significa
“zangão” em razão do zumbido que faz) e captam a radiação
eletromagnética dos alvos, como os tradicionais sensores
orbitais. Drone é um termo genérico e sem amparo técnico.

O uso de RPAs vem sendo adotado nos estudos de SR, pois


proporciona baixo custo de aquisição de dados de alta
resolução espacial quando comparados a uma aeronave
tripulada ou satélite para os mesmos fins (Jensen, 2009). A
facilidade de obtenção de imagens a qualquer momento,
diferentemente da resolução temporal dos sensores orbitais, é
a grande vantagem nesse caso.

Nesses equipamentos, podem ser embarcados uma gama de


sensores, incluindo câmeras hiperespectrais, térmicas e
fotogramétricas, como o Lidar (Light Detection and Ranging)
e o sonar. Dois tipos principais de modelos são encontrados
no mercado: os multirotores e os de asa fixa. A Figura 2.7
apresenta exemplos de RPAs.

Figura 2.7 – Exemplos de RPAs

Rocksweeper e aapsky/Shutterstock

No Brasil, os RPAs têm encontrado um enorme potencial


na agricultura e no setor florestal. Apesar de algumas
limitações inerentes, como recobrimento de grandes áreas,
essas tecnologias podem fornecer dados valiosos passíveis de
serem usados para influenciar políticas e tomadas de decisão.

Entre as principais aplicações dos RPAs, podemos citar:


agricultura de precisão; estudos ambientais; proteção de
fronteiras; gestão de reservatórios, represas e usinas;
arqueologia; áreas de proteção ambiental; engenharia civil;
mineração; esforços humanitários no gerenciamento de
desastres; ramo imobiliário e urbanístico.

2.4 Lidar
O Lidar consiste basicamente em uma tecnologia óptica de
detecção remota destinada a obter a distância e/ou outra
informação por varredura a respeito um objeto distante. Trata-
se de um sensor ativo capaz de gerar dados de altitude e dos
elementos da superfície. Em português, também são comuns
as expressões Sistema de Varredura a Laser e Sistema de
Perfilamento a Laser.

No método chamado laser pulsado, a distância do sensor


até a superfície abaixo da plataforma do próprio sensor é
determinada pela medida do tempo entre o sinal emitido e a
detecção do sinal refletido. No pós-processamento, os dados
laser são combinados com dados de posição e orientação da
plataforma para a criação de uma nuvem de pontos
georreferenciados.

Essa tecnologia vem sendo muito utilizada para o


monitoramento de alta precisão de produtividade agrícola e
florestal. Diferentemente das imagens de satélite ópticas e das
fotografias aéreas, o Lidar é capaz de mapear o terreno logo
abaixo da vegetação, gerando o Modelo Digital de Terreno
(MDT), ou obter a estimativa da altura e da estrutura florestal,
tendo como produto o Modelo Digital de Superfície (MDS).

2.5 Radar
O radar, termo originário da língua inglesa, radio detection
and ranging (ou “detecção e telemetria por rádio”), é um
sensor que emite e recebe radiação eletromagnética na faixa
das micro-ondas (ondas de rádio), incluindo comprimentos de
onda de 1 milímetro a 1 metro. A principal vantagem do radar
é poder atuar em quaisquer condições atmosféricas, o que
permite a obtenção de imagens em qualquer situação de
nebulosidade e de tempo atmosférico. Como é um sensor
ativo, também pode atuar durante a noite.

Os radares podem ser classificados em imageadores, como


escaterômetros e altímetros, e não imageadores. Os radares
não imageadores são os SLAR (Side Looking Airbone
Radar), que podem ser classificados em SAR (Synthetic
Aperture Radar) ou em RAR (Real Aperture Radar) – ambos
têm visada lateral e imagens geradas a partir de uma faixa
contínua ao longo da trajetória do sensor.

Muitas feições na superfície terrestre podem ser mais bem


discriminadas com imagens de radar em comparação aos
dados ópticos de SR, como gelo, áreas úmidas e inundadas,
biomassa, estruturas geológicas, entre outras.

Preste atenção!
Um fato importante na história do nosso país foi o projeto
Radam Brasil, operado nas décadas de 1970 e 1980. Foi
realizado um imageamento com imagens de radar responsável
pelo fornecimento do único mapeamento sistemático de todo
o território, em escala 1:250.000 com folhas temáticas de
1:1.000.000. Cada volume publicado foi dividido em cinco
seções: geologia, geomorfologia, pedologia, vegetação e uso
potencial da terra (Borges; Rajão, 2016).

Indicações culturais
INPE – Instituto de Pesquisas Espaciais. Divisão de Geração de Imagens.
Catálogo. Disponível em: <http://www.dgi.inpe.br/catalogo>. Acesso em: 5
jan. 2021.

No banco de imagens da Divisão de Processamento de Imagens do Instituto de


Pesquisas Espaciais (DGI/INPE), é possível acessar um catálogo de imagens de
satélite de todo o globo. Nele se encontram produtos dos satélites/sensores da
série CBERS, Landsat, MODIS (Terra e Aqua) e ResourceSat de diferentes anos. A
grande vantagem é a interface toda em português.

USGS – United States Geological Survey. Earth Explorer. Disponível em: <h
ttps://earthexplorer.usgs.gov/>. Acesso em: 5 jan. 2021.

O USGS (United States Geological Survey) disponibiliza uma vasta galeria de


imagens de satélite, fotografias aéreas e imagens de RPAs. São dados ópticos e de
radar, dados de satélites meteorológicos e até mapas de elevação digitais. É
possível encontrar dados de sensores remotos da Nasa (National Aeronautics and
Space Administration), como Landsat, Terra e Aqua Modis, Aster, entre outros. Há
também dados comerciais de satélites de alta resolução espacial, como Ikonos-2 e
OrbView-3. Reúne conjuntos de dados de código aberto fornecidos em
colaboração com agências espaciais internacionais de outros países, como dos
satélites Resourcesat-1 e 2 e Sentinel-2.

EARTHDATA SEARCH – NASA. Disponível em: <https://search.earthdata.na


sa.gov/>. Acesso em: 5 jan. 2021.

Através do Earthdata Search, é possível ter acesso a dados dos


satélites/sensores: Aqua, Terra, Aura, TRMM, Calipso, Nasa DC, Jason, Envisat,
Alos, Meteosat, Goes, Icesat, Gms, Landsat, Nimbus, Smap, Radarsat, Noaa, GPS,
entre outras fontes de dados, como fotografias aéreas e medições de campo.

COPERNICUS OPEN ACCESS HUB. Disponível em: <https://scihub.coperni


cus.eu/>. Acesso em: 5 jan. 2021.

O Copernicus Open Access Hub fornece acesso a uma ampla variedade de


imagens orbitais gratuitas de todos os satélites Sentinels (Sentinel-1, Sentinel-2.
Sentinel-3 e Sentinel-5P). Imagens de radar, imagens ópticas multiespectrais e
produtos para monitoramento ambiental e atmosféricos.

USGS – United States Geological Survey. Landsat Missions. Disponível em:


<www.usgs.gov/landsat>. Acesso em: 5 jan. 2021.

O novo site (em inglês) das missões Landsat é riquíssimo em informações e


conteúdo. Vale a pena explorá-lo.

NASA – National Aeronautics And Space Administration. Earth


Observatory. Disponível em: <https://earthobservatory.nasa.gov>. Acesso em:
7 abr. 2020.

O Earth Observatory compartilha imagens, histórias e descobertas sobre o


meio ambiente, sistemas da Terra e clima que emergem da pesquisa da Nasa,
incluindo missões, satélites, pesquisas em campo e modelos. Recomendado tanto
para iniciantes que estão descobrindo o SR quanto para os experts que se
fascinam com imagens e descobertas científicas.

Síntese
Neste capítulo, abordamos brevemente os satélites, suas
órbitas e as principais classificações de sensores remotos.
Posteriormente, classificamos os sensores pelas suas
resoluções: espacial, temporal, espectral e radiométrica.

Por fim, analisamos as imagens digitais e indicamos alguns


websites, nos quais você pode encontrar um banco de
imagens de SR e adquiri-las gratuitamente. Também tratamos
de um tema recente da área: os RPAs, em voga nos últimos
anos e que, com certeza, ainda demanda mais pesquisas e
leituras.

Atividades de autoavaliação

1. Sobre as imagens digitais de SR, complete corretamente


as lacunas das afirmativas a seguir.
I. O conversor digital/analógico é responsável por converter
a informação conduzida analogicamente pela radiação
eletromagnética em um valor digital, codificado por uma
unidade denominada _______________________.
II
. Os pixels são organizados na disposição de
_______________ e _______________________.
II
I. As estações terrestres de rastreamento gravam o sinal
digital transmitido pelo satélite, e, em laboratórios, a
imagem no formato _______________________ é
produzida para ser distribuída aos usuários finais.
I
V. As imagens digitais são constituídas por um arranjo de
elementos sob a forma de uma
_______________________ ou
_______________________.
V. O _______________________ ou
_______________________ de um pixel corresponde à
intensidade da radiação eletromagnética refletida ou
emitida na área da superfície terrestre correspondente ao
pixel.

Qual opção a seguir completa corretamente as frases


apresentadas?

a) pixel – linhas/colunas – raster – malha/grid – DN/número


digital
b) raster – linhas/colunas – pixel, malha/grid – DN/número
digital
c) pixel – DN/número digital – raster – linhas/colunas –
malha/grid
d) raster – malha/grid – pixel – linhas/colunas – DN/número
digital
e) pixel – linhas/colunas – raster – DN/número digital –
malha/grid

2. “A qualidade de um sensor geralmente é especificada pela


sua capacidade de obter medidas detalhadas da energia
eletromagnética. As características dos sensores estão
relacionadas com a resolução: espacial, espectral,
radiométrica e temporal” (Moraes, 2002, p. 19). Sobre o
tema, complete corretamente as lacunas das afirmativas a
seguir.
I. A resolução _______________________ está relacionada
à capacidade do sensor em discriminar a intensidade de
energia refletida ou emitida pelos objetos.
II
. A resolução _______________________ representa a
capacidade do sensor de discriminar objetos em função do
tamanho deles. Ela indica o tamanho do menor elemento da
superfície capaz de ser caracterizado pelo sensor.
II
I. A resolução _______________________ do sensor, que
está relacionada com a repetitividade com que o sistema
sensor pode adquirir informações, ou seja, a frequência do
imageamento sobre a mesma área. Por exemplo, os
sensores do satélite Geoeye têm uma repetitividade de três
dias.
I
V. A resolução _______________________ refere-se à
largura do espectro eletromagnético em que opera o sensor.

Qual opção a seguir completa corretamente as frases


apresentadas?

a) espacial – espectral – radiométrica – temporal

b) espacial – espectral – temporal – radiométrica

c) radiométrica – espacial – temporal – espectral

d) espectral – espacial – temporal – radiométrica

e) temporal – espacial – radiométrica – espectral


3. Para que haja o sensoriamento remoto, é necessário que
haja uma medição, à distância, das propriedades dos
objetos ou alvos. As principais propriedades primárias
dos alvos que são medidas pelos sensores remotos são a
capacidade de reflexão e de emissão de energia
eletromagnética (Epiphanio, 2000). Sobre essa ciência,
analise as afirmações a seguir.
I. Os sistemas sensores passivos não têm fonte própria de
energia eletromagnética. Já os sensores ativos têm fonte
própria de energia e a emitem para os objetos terrestres
imageados, detectando parte da energia que esses objetos
refletem em direção ao sensor.
II
. As câmeras fotográficas foram os primeiros equipamentos
a serem desenvolvidos e utilizados para o sensoriamento
remoto de objetos terrestres. Os primeiros sensores remotos
conhecidos foram aqueles embarcados em aviões, já no
século XX.
II
I. Os sensores que captam dados de diferentes regiões do
espectro eletromagnético são chamados de multiespectrais.

Quais afirmações são verdadeiras?

a) Todas as afirmativas.

b) As afirmativas I e III.

c) As afirmativas I e II.

d) Apenas a afirmativa I.

e) As afirmativas II e III.
4. Analise as assertivas a seguir e indique V para as
verdadeiras e F para as falsas.
( ) As órbitas geoestacionárias são circulares e contidas no
plano equatorial, acompanham o movimento de rotação
da Terra, apontando sempre para o mesmo local.
( ) Os radares são sensores que enviam e captam energia da
região do infravermelho. Ao contrário dos sensores
ópticos, os radares funcionam também durante a noite e
com o tempo nublado e chuvoso.
( ) Avião, satélite e VANTs (drones) são exemplos de
plataformas utilizadas para o SR.
( ) O satélite Landsat tem resolução temporal menor do que
o satélite Quickbird.
( ) Os satélites de SR para monitoramento do planeta Terra
costumam ser de alta órbita.

Agora, assinale a alternativa que corresponde à sequência


correta:

a) F – V – V – F – F.

b) V – V – F – V – V.

c) V – F– V – F – V.

d) V – F – V – V – F.

e) F – F – V – V – F.

5. Sobre a diversidade de produtos e plataformas de SR,


analise as seguintes afirmações:
I. São produtos de SR apenas as imagens obtidas por
sensores orbitais.
II
. Os veículos aéreos não tripulados, ou drones, como são
conhecidos popularmente, são capazes de embarcar
sensores de alta resolução espacial e são considerados parte
do SR.
II
I. Uma das vantagens dos sensores remotos está na
possibilidade de obter energia em faixas espectrais as quais
os olhos humanos são incapazes de visualizar.

Quais afirmações são verdadeiras?

a) As afirmativas I e II.

b) As afirmativas I e III.

c) Apenas a afirmativa II.

d) Apenas a afirmativa III.

e) As afirmativas II e III.

Atividades de aprendizagem

Questões para reflexão

1. Faça uma pesquisa sobre o uso dos RPAs como


plataformas para o sensoriamento remoto. Utilize também
os termos VANTs (veículos aéreos não tripulados) e
drones. Investigue a aplicação desses equipamentos em
diferentes áreas, sua arquitetura e as faixas em que os
sensores operam. As regras para a utilização desses
veículos podem ser encontradas na página oficial da
Agência Nacional de Aviação Civil (Anac):
ANAC – Agência Nacional de Aviação Civil. Disponível em: <https://ww
w.anac.gov.br>. Acesso em: 5 jan. 2021.

2. Pesquise e reflita sobre o uso do Lidar em estudos


relacionados à geografia e ao meio ambiente.

Atividade aplicada: prática

1. Elabore uma apresentação sobre as principais diferenças


entre as imagens obtidas por sensores remotos e aquelas
obtidas por fotogrametria convencional. Procure deixar
sua exposição mais interessante incluindo exemplos de
imagens e fotografias aéreas, infográficos e demais
materiais que ilustrem o tema.

1 Ângulos de visada em que as imagens são adquiridas.


3
Noções de
processament
o digital de
imagens

João Victor Pacheco Gomes


Neste capítulo, vamos abordar as principais etapas do
processamento digital de imagens (PDI), a fim de
compreender como são aplicados alguns dos principais
métodos que possibilitam a extração de informações de uma
imagem de satélite. Apresentaremos os procedimentos
básicos e, ao final da leitura, você será capaz de efetuar
correções, aplicar realces, aplicar filtros e realizar
transformações nas imagens. Antes, contudo, faremos uma
breve contextualização para que você compreenda a
importância desse tema.

Os dados oriundos de um sensor remoto, geralmente na


forma de uma imagem de satélite, devem passar por uma série
de processamentos para extração de informações que possam
ser aplicados na solução de problemas e na análise de
fenômenos que ocorrem na superfície terrestre. Extrair
informações em uma imagem não é um processo trivial como
observar uma paisagem ou uma fotografia, pois as imagens de
satélite representam regiões do espectro eletromagnético que
o olho humano não consegue captar e, por isso, a imagem
pode não ser familiar aos olhos do analista, ainda que ele
conheça bem a área representada. Outro aspecto importante é
que, mesmo que a imagem represente características da região
do visível, a visão ortogonal exibida em escala de cinza pode
dificultar a interpretação da cena. Dessa forma, é necessária a
aplicação de procedimentos de análise não apenas visuais,
mas também digitais, de modo a gerar informações a partir da
imagem (Jensen; Lulla, 1987).

A imagem digital apresenta vantagens em relação à


imagem analógica, pois é formada por um conjunto de pixels
que armazena um valor e que podem ser manipulados tal qual
uma matriz matemática. Assim, o analista pode implementar
alterações que gerem melhorias na qualidade visual da
imagem ou realizar procedimentos que envolvem cálculos
matriciais complexos previamente programados em
algoritmos computacionais, a fim de realizar o chamado
processamento digital na imagem.
Podemos dizer, portanto, que o PDI envolve técnicas
computacionais que visam ao realce e à extração de
informações específicas da imagem (Novo, 2008). Ao longo
do tempo, cientistas tem conseguido implementar grandes
avanços nas técnicas de PDI, incorporando elementos
adicionais de interpretação de imagem no processo de análise
(Jensen; Lulla, 1987).

O PDI deve ser realizado com muito cuidado pelo analista


para evitar a perda de informação durante o processamento.
Para isso é necessário seguir as etapas atentamente,
implementando as transformações necessárias de acordo com
a finalidade da análise, pois cada etapa de processamento
pode ocasionar a perda de um número de informações,
caracterizada em uma quantidade de pixels. Desse modo, é
necessário dominar as etapas de PDI com o intuito de obter o
máximo de seu potencial. É possível dividir o PDI em três
etapas: o pré-processamento da imagem, o realce e a
classificação (Novo, 2008), conforme veremos a seguir.

3.1 Pré-processamento
Antes de analisarmos os procedimentos de correção das
imagens, é necessário conhecer os principais tipos de erros
que podem ocorrer no processo de aquisição da imagem de
satélite. Os erros contidos nas imagens são classificados,
basicamente, como geométricos e radiométricos, de acordo
com a fonte dos erros adquiridos (Centeno, 2003).

A etapa de pré-processamento da imagem tem como


objetivo corrigir os erros oriundos do processo de aquisição
de imagens de sensoriamento remoto (SR). Esses erros
podem causar alterações no resultado do PDI e devem ser
minimizados na etapa de pré-processamento da imagem. O
objetivo dessa etapa, portanto, é realizar correções de modo a
preparar a imagem para que sejam implementados os
mecanismos de processamento digital, evitando, assim,
resultados inadequados, ou seja, a propagação de erros a cada
processo de análise.

Os erros geométricos podem ocorrer em razão da


topografia do terreno e, também, por conta da curvatura da
superfície terrestre, pois a imagem obtida pelo satélite é
bidimensional, e a superfície curva não é representada
fidedignamente pela imagem captada. Desse modo, os objetos
dispostos na superfície terrestre podem não aparecer em sua
posição correta na imagem de satélite, sendo necessária uma
correção geométrica para reposicionar a imagem, obtendo
maior precisão. Na Figura 3.1, podemos observar um
exemplo desse tipo de erro, em que os pontos na imagem
estão discordantes com os mesmos pontos no mapa de
referência.

Figura 3.1 – Exemplo de erro geométrico

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

É importante ressaltar que os erros geométricos têm


relevância maior no processo de produção de mapas a partir
de imagens de SR (Centeno, 2003; Moreira, 2005). A
cartografia tem como principal fundamento a precisão no
posicionamento das informações; por esse motivo, a
elaboração de mapas a partir de imagens de satélite deve ser
precedida por uma correção geométrica com o intuito de
evitar erros.

Os erros radiométricos ocorrem em virtude dos efeitos da


atmosfera que interferem na aquisição da energia refletida
entre o objeto e o satélite, podendo causar efeitos que são
chamados de ruídos (Figura 3.2) e que devem ser atenuados
para que não interfiram na análise da imagem. A atenuação
dos efeitos da atmosfera na imagem é feita a partir da
calibração da radiometria diretamente na imagem adquirida,
ou seja, vários procedimentos matemáticos são efetuados a
partir das ferramentas disponíveis nos softwares de PDI,
analisando pixel a pixel, identificando aqueles considerados
ruídos, eliminando esses ruídos e substituindo por uma
informação mais precisa, estatisticamente calculada, com
base no valor dos pixels do entorno.

Figura 3.2 – Exemplo de ruído

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.


As técnicas de pré-processamento de imagem são
imprescindíveis para a melhoria da qualidade do dado a ser
analisado. No entanto, é importante ressaltar que técnicas de
pré-processamento que alteram muito a imagem devem ser
evitadas (Florenzano, 2007). O excesso de alteração na
imagem pode interferir na qualidade do processo de
classificação, assim como no processo de aplicação de realce
que faz parte do PDI. A seguir, vamos nos aprofundar um
pouco mais nas etapas de pré-processamento das imagens.

3.1.1 Correção geométrica


A etapa de correção geométrica de uma imagem de satélite
tem como base a aplicação de modelos matemáticos que são
aplicados para toda a imagem. Cada tipo de distorção
presente na imagem deve ser modelado matematicamente
para que a imagem resultante do processo de pré-
processamento seja totalmente isenta de erros geométricos.
Podemos identificar separadamente cada erro e corrigi-lo com
base em suas especificidades, aplicando o modelo matemático
adequado, por exemplo, a projeção central de uma imagem
pode ser corrigida de modo a transformar a projeção dessa
imagem em ortogonal, ortorretificando imagem com base
nesse processo. É possível aplicar também alterações
baseadas em modelos matemáticos existentes para correção
das distorções do relevo apresentadas pela região imageada.
No entanto, é mais comum aplicar uma solução que atua de
maneira simultânea em diferentes erros geométricos da
imagem, como é o caso das correções que serão apresentadas
a seguir, baseadas em pontos de controle e registro de
imagens.

Georreferenciamento por pontos de controle

Os erros geométricos obtidos no processo de aquisição das


imagens podem ser corrigidos com a utilização de pontos de
controle, estes definidos como pontos na superfície terrestre,
facilmente reconhecíveis na imagem de satélite e dos quais se
conhecem as coordenadas exatas. Essas coordenadas podem
ser obtidas em campo com equipamentos de precisão ou a
partir de um mapa. O termo georreferenciamento é aplicado
em razão do processo de correção das coordenadas pixel a
pixel da imagem baseada em coordenadas de pontos de
controle, fazendo com que a referência espacial da imagem
seja alterada com base nas coordenadas dos pontos (Centeno,
2003; Florenzano, 2007).

O método de georreferenciamento por pontos de controle


consiste em estimar os erros da imagem com base nos pontos
de controle e ajustar o modelo matemático para aplicar as
correções geométricas em todos os pixels da imagem. O
resultado, portanto, será uma imagem isenta de erros, os quais
foram corrigidos com base nos pontos de controle, ou seja, a
qualidade do resultado é diretamente proporcional à qualidade
dos pontos de controle (Florenzano, 2007). Dessa forma, é
necessário que o analista adquira as coordenadas dos pontos
em uma base confiável ou, se for a campo, que a aquisição de
coordenadas dos pontos seja feita com muita precisão para
que não ocorra a propagação de erros na imagem.

A aplicação do método consiste na identificação de pontos


na imagem que sejam facilmente reconhecíveis e
identificáveis no mundo real ou em um mapa que será usado
como base para o georreferenciamento. Em seguida, esse
ponto deve ser marcado na imagem para que o sistema possa
reconhecer suas coordenadas “x” e “y” (Figura 3.3). O
analista deve tomar cuidado para não adquirir pontos em
regiões que causem qualquer tipo de dubiedade na
interpretação ou, no caso de ir a campo, deve adquirir as
coordenadas, marcar um local que seja acessível, evitando
regiões perigosas, lagos, rios, meio de rodovias e qualquer
outra região que cause qualquer instabilidade posicional ou
que impeçam de qualquer maneira o acesso do profissional e
do equipamento no ato de aquisição das coordenadas locais
(Florenzano, 2007; Moreira, 2005; Novo, 2008).

Figura 3.3 – Marcação e posicionamento do ponto de controle na imagem

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

Outro aspecto importante é que o profissional deve adquirir


uma quantidade consistente de pontos de controle para que o
resultado seja satisfatório. Quanto maior a quantidade de
pontos adquiridos em imagem, maior será a qualidade do
georreferenciamento implementado pelo sistema; é um
processo que consiste em extrema atenção e paciência do
analista para avaliar cuidadosamente toda a imagem,
coletando pontos em uma quantidade que permita ao sistema
fazer cálculos superabundantes, melhorando a qualidade dos
cálculos implementados para a geração do resultado (Figura
3.4).

Figura 3.4 – Distribuição dos pontos de controle na imagem


©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

É importante ressaltar que, além da quantidade, a


disposição dos pontos na imagem também é algo a ser
observado. A disposição apenas na região central da imagem
pode fazer com que as laterais dela não tenham pontos
suficientes para o georreferenciamento preciso dos pixels
daquela região. Da mesma forma, é importante evitar a
disposição dos pontos apenas nas regiões laterais da imagem,
pois o processo inverso também é verdadeiro: ao se distanciar
da lateral da imagem em direção ao centro, onde existem
poucos pontos ou nenhum, perde-se a precisão. O ideal é que
os pontos de controle estejam espalhados de forma
homogênea em toda área da imagem, claro que da melhor
maneira possível, considerando os aspectos da região
imageada.

Diferentemente dos pontos reconhecidos pelo sistema na


imagem e referenciados por “x” e “y” (Figura 3.5), a
aquisição das coordenadas do mesmo ponto em um mapa ou
no campo são apresentadas em um sistema de referência “u”,
“v”. Portanto, é possível realizar a transformação que resulta
em uma imagem corrigida, ou seja, o modelo matemático fará
o referenciamento dos pontos da imagem com os pontos
marcados no mapa ou adquiridos no campo e irá aplicar
matematicamente essa mesma correção para todos os pixels
da imagem, resultando em uma imagem corrigida.
Geralmente, são utilizados polinômios para fazer essa
transformação, como polinômios de segunda ordem ou
polinômios mais simples, de primeira ordem, conforme
indicados a seguir:

u = a0 + a1 · x + a2 · y

v = b0 + b1 · x + b2 · y

A aplicação desses polinômios ocorre por meio das


ferramentas dos sistemas de PDI disponíveis, porém, é
necessário que o analista saiba quando implementar cada
polinômio. A utilização de um polinômio de primeira ou de
segunda ordem vai depender da complexidade da imagem a
ser corrigida. Ao se utilizar polinômios de primeira ordem,
são necessários no mínimo seis pontos de controle espalhados
na imagem para que seja possível fazer o
georreferenciamento. A utilização de polinômios de segunda
ordem requer que o profissional adquira, no mínimo, 12
pontos de controle para que seja aplicada toda correção
(Centeno, 2003). Como dito anteriormente, é importante que
a quantidade de pontos de controle seja a maior possível; o
polinômio de primeira ordem poderá ser implementado se
houver seis pontos de controle espalhados, mas poderá ser
utilizado também se houver mais pontos de controle,
aumentando a quantidade de referências e melhorando assim
a qualidade da correção. Os valores que indicamos
representam apenas um mínimo, o ideal é que o profissional
preze por uma quantidade superabundante até mesmo para
eliminar pontos que não tenham qualidade ao longo do
processo.

Figura 3.5 – Coordenadas x e y nos pontos da imagem

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

Após aquisição dos pontos de controle e da escolha do


polinômio adequado para o georreferenciamento, a correção
geométrica pode ser implementada. O resultado dessa
correção é uma imagem reposicionada no espaço, tendo como
base os parâmetros definidos pelo usuário. É importante
ressaltar que essa etapa de pré-processamento deve ser feita
na imagem preservando o material original, ou seja, o
processo vai gerar uma nova imagem, e o analista não deve
substituir o material bruto, pois tal material pode servir para
outros tipos de análise, que poderão ter uma demanda de um
processo de correção geométrica diferenciado, como a
utilização de outro polinômio.

Registro da imagem
O registro da imagem pode ser aplicado quando o
profissional utiliza uma imagem georreferenciada e
carregada no sistema para combinar com a imagem
em que será feita a correção (Moreira, 2005). A
imagem a ser corrigida e a imagem ajustada devem
ser da mesma área e, ainda que as imagens sejam de
datas diferentes, é possível fazer a correção
geométrica se representarem a mesma área e
estiverem em uma mesma escala. Portanto, trata-se de
um procedimento que vai compatibilizar duas
imagens distintas que representam a mesma área,
possibilitando que o georreferenciamento já aplicado
na imagem que servirá de base possa ser calculado
para imagem a ser registrada, evitando assim o
processo de aquisição de pontos de controle.

O processo de registro de uma imagem consiste em


relacionar as coordenadas da imagem a ser ajustada,
representadas em linhas e colunas, com as
coordenadas da imagem de base, que podem ser
representadas por latitude e longitude. Dessa forma, é
possível fazer com que os pixels da imagem a ser
ajustada sejam reposicionados com base no sistema
de latitude e longitude pixel a pixel da imagem de
base (Figura 3.6).

Figura 3.6 – Processo de registro de uma imagem


©SPRING - DPI/INPE

Fonte: INPE, 2021e, p. 1.

O processo de transformação aplicado no registro de


imagens geralmente utiliza o modelo mais simples de
polinômio, sendo então de primeira ordem, pois considera-se
que os sistemas de uma imagem e outra estão próximos e não
existem tantas distorções assim, já que representam a mesma
área. Quando o sistema identifica os parâmetros necessários
para realização da transformação das imagens, ele terá como
base os pontos específicos da imagem a ser ajustada
identificados e marcados na imagem de referência pelo
analista, ou seja, pega-se um ponto de fácil identificação em
uma imagem e marca-se o mesmo ponto na imagem de base,
para que o sistema possa fazer a correlação entre as duas
imagens de maneira correta. A partir disso, uma
transformação vai gerar uma nova imagem que representa o
resultado do registro.

3.1.2 Correção atmosférica


No processo de aquisição das imagens, diferenças entre as
faixas de aquisição e interferências atmosféricas podem
influenciar as características espectrais captadas pelo sensor
do satélite. A atmosfera têm elementos que podem causar
esses tipos de interferência, principalmente porque é pela
própria atmosfera que a energia é propagada entre o objeto na
superfície e o sensor. Durante esse percurso de propagação da
luz, alguns aspectos podem ser alterados, distorcidos ou, até
mesmo, perdidos antes de chegar no sensor.

Fique atento!
As características da atmosfera são, portanto, elementos de
extrema importância a serem analisados na etapa de pré-
processamento da imagem de satélite, já que podem causar
ruídos inesperados na imagem e comprometer a análise,
mascarando o verdadeiro valor do pixel adquirido. Os
principais elementos responsáveis pelas interferências
atmosféricas no processo de aquisição das imagens são os
aerossóis e o vapor da água, pois são componentes que
podem causar o espalhamento e a absorção de energia e,
consequentemente, as falhas e/ou ruídos na imagem.

O maior impacto causado pela interferência atmosférica e


os erros provenientes na aquisição de informações oriundos
do processo de dispersão da energia são referentes à análise
comparativa de imagens de diferentes datas. Quando se faz
um estudo com essas características, a análise pode ser
prejudicada, tendo em vista que a atmosfera pode ter
condições diferenciadas em cada data, ainda que
geometricamente a imagem esteja posicionada da mesma
forma. Por esse motivo, é necessário aplicar uma correção
atmosférica na imagem, evitando que o dado seja mascarado
em razão dessa condição atmosférica específica.

Para efetuar a correção atmosférica, o analista deve


estimar, primeiramente, o fluxo do espalhamento atmosférico
para, em seguida, corrigir os valores dos pixels e normalizar
toda a imagem (Centeno, 2003). No entanto, estimar o fluxo
de espalhamento atmosférico é uma tarefa extremamente
complexa, já que esse valor é desconhecido; para isso,
trabalha-se com estimativa desse valor para implementar
cálculos que visam à correção estatisticamente mais adequada
para a imagem em questão. Existem alguns métodos para
efetuar a correção atmosférica da imagem – a seguir, veremos
os métodos do pixel mais escuro e o método da regressão.

Pixel mais escuro

O método do pixel mais escuro está relacionado à


identificação de uma região na imagem em que o valor do
pixel deveria ser nulo. São regiões de sombra ou em que o
material absorve totalmente a energia eletromagnética, não
emitindo nenhum valor de energia que possa ser captado pelo
sensor do satélite. Dessa forma, ao identificar essa região em
uma imagem, o analista já terá um parâmetro para trabalhar,
tendo como base a hipótese mostrada anteriormente de que o
valor deveria ser nulo e indo então em busca dos possíveis
erros existentes nessas regiões.

Se os valores nas regiões identificadas não forem


condizentes com zero, significa que houve espalhamento
atmosférico. O espalhamento atmosférico acaba sendo
responsável pela existência de valores de reflectância em
regiões em que a reflectância do pixel deveria ser nula. Com
isso, é possível estimar o valor correspondente ao
espalhamento atmosférico e utilizar esse valor como base
para a correção atmosférica de todos os pixels da imagem.

O analista, então, vai procurar o pixel com valor nulo, ou


seja, o pixel mais escuro, para ter como parâmetro a
estimativa que apresentamos no parágrafo anterior, devendo,
para isso, pesquisar o histograma da imagem de modo a
facilitar a identificação das regiões com o pixel mais escuro.

Regressão 1
O método de regressão utiliza duas imagens de bandas
diferentes para realizar a estimativa de regiões em que o valor
do pixel deveria ser nulo, a fim de que seja possível encontrar
a parcela correspondente do espalhamento atmosférico. Por
exemplo, utilizando uma imagem da região do visível em
uma imagem do infravermelho, podemos fazer essa
estimativa, pois os valores de referência de alguns elementos
na região do visível são completamente distintos na região do
infravermelho, podendo aparecer mais claros em uma
imagem e praticamente nulos em outra.

Dessa forma, havendo uma correlação entre as áreas das


bandas, é possível fazer uma análise de regressão linear, onde
é calculada, para as regiões delimitadas para análise, a reta de
regressão linear entre uma banda do visível e a banda do
infravermelho. Apenas uma dessas imagens deverá ser
corrigida, assumindo-se, por exemplo, que a correção será
implementada na imagem referente à região do visível, a
região do infravermelho deve apresentar valores já corrigidos
para que se possa estimar se o que é apresentado em uma
região está coerente (Centeno, 2003; Novo, 2008). O cálculo
de regressão linear é feito com base em gráficos que vão
delimitar se as informações de uma imagem e de outra estão
se cruzando no ponto em que deveriam; caso isso não
aconteça, a diferença entre o valor apresentado e o valor que
seria estimado representa o valor da correção a ser diminuído
dos pixels de toda a imagem.

3.2 Processamento digital


de imagens
O PDI consiste na aplicação de uma série de ferramentas e
tem como objetivo melhorar a qualidade da imagem e, até
mesmo, utilizar processos automatizados para auxiliar na
tomada de decisão e na interpretação. Existem diversas etapas
para a construção de uma metodologia de PDI, e o
profissional irá aplicar uma ou outra de acordo com o
resultado que espera obter. Neste tópico, vamos apresentar
algumas das principais etapas que envolvem o PDI.

Cada tipo de análise demanda uma metodologia de


processamento diferenciada em que são aplicadas diversas
formas de melhorias visando atender à necessidade do
analista.

Outro aspecto fundamental que deve ficar claro com


relação ao PDI está relacionado à aplicação de métodos
automatizados que apoiam a decisão do analista e sua
interpretação da imagem para geração do resultado.

Esses procedimentos não isentam o analista da


responsabilidade de aplicar o conhecimento que ele detém,
pois os processamentos podem conter inconsistências que
devem ser resolvidas pelo próprio analista. Por esse motivo,
muitas vezes, é necessário que o analista conheça a área que
será analisada e processada, apesar de já existirem alguns
procedimentos que dão suporte ao analista caso ele não
conheça a região. Portanto, é importante ressaltar que os
procedimentos implementados no PDI devem ser sempre
supervisionados quanto à qualidade pelo analista para manter
a coerência e a consistência do produto que será gerado.

3.2.1 Realce e filtros


O realce de uma imagem tem como finalidade melhorar sua
qualidade visual e facilitar a interpretação por parte do
analista. Uma das principais técnicas que possibilitam o
realce de uma imagem é a aplicação do contraste, que
consiste em alterar a distribuição dos pixels da imagem ao
longo do intervalo dos 256 tons de cinza, em uma imagem de
8 bits, representados no histograma (Figura 3.7). Portanto,
devemos avaliar a concentração dos pixels na imagem e
aplicar uma redistribuição desses pixels em todo histograma,
reposicionando alguns deles em áreas mais escuras para áreas
mais claras e possibilitando, assim, o realce das feições
representadas nas imagens.

Figura 3.7 – Histograma de uma imagem (A) e histograma com o contraste


aplicado (B)

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

A técnica de aplicação de contraste pode ser feita de modo


automático em alguns aplicativos ou a partir da manipulação
direta do histograma por parte do operador. Em ambas as
formas, os valores mínimo e máximo dos pixels da imagem
serão alterados com base na redistribuição dos pixels do
histograma, de modo a aplicar um clareamento de algumas
informações, retirando-as das regiões mais escuras e trazendo
para regiões mais claras do histograma (Figura 3.8). Esse
método, no entanto, não é isento de problemas, pois, quando
se faz esse tipo de alteração, existe perda de dados – que pode
ser insignificante se o contraste for manuseado com extremo
cuidado pelo analista, mas, se houver saturação do contraste
aplicado, poderá ocorrer uma perda considerável da
quantidade de pixels, comprometendo a qualidade da análise e
do resultado final.

Figura 3.8 – Exemplo do contraste aplicado na imagem original A,


proporcionando um clareamento que pode ser observado na imagem B

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.


O contraste, portanto, deve ser aplicado com extremo
cuidado para minimizar a perda de informação com processo
de saturação. É importante ressaltar que uma aplicação
acentuada pode ser aceita para facilitar a análise visual por
parte do analista, mas a imagem original deve ser preservada
sem a aplicação de contraste para que seja possível
implementar as análises automáticas com a imagem sem
perdas.

A aplicação de filtros em uma imagem é diferente do


procedimento mostrado anteriormente, já que o contraste
altera os valores dos pixels de toda imagem a partir da
redistribuição no histograma, ou seja, de maneira igual. Na
aplicação de filtros, os valores dos pixels são alterados em
razão dos valores dos pixels em seu entorno; por esse motivo,
a aplicação de filtros também é chamada de operações de
vizinhança. Delimita-se, portanto, a vizinhança que será
considerada para fazer esse tipo de operação, ou seja, na
região de abrangência que será aplicada pixel a pixel para que
seja estimado o novo valor. A região de entorno pixel a pixel
geralmente é assimétrica, podendo ser considerada uma
região 3×3 (três por três) pixels para definir a janela de
atuação. Na Tabela 3.1, podemos observar o exemplo de uma
janela de atuação em torno de um pixel (p0) com uma
vizinhança 3×3.

Tabela 3.1 – Vizinhança no entorno do pixel p0

p1 p2 p3

p8 p0 p4

p7 p6 p5

Fonte: Centeno, 2003, p. 133.


Essa região de abrangência é deslocada para todos os pixels
em toda imagem, fazendo o cálculo dos novos valores e
resultando em uma nova imagem com filtro aplicado. Os
filtros resultam imagens suavizadas ou realçadas, dependendo
do objetivo do analista em seu estudo. Os filtros mais
aplicados em SR são chamados filtros lineares, comumente
conhecidos como passa-baixa e passa-alta, referentes à baixa
frequência e à alta frequência das regiões da imagem em
análise.

O filtro passa-baixa tem como efeito a suavização da


imagem; é um filtro que tem como objetivo fazer a atenuação
das frequências radiométricas embutidas no valor dos pixels
analisados. O resultado obtido por esse filtro é uma imagem
que homogeneíza os pixels existentes em toda a imagem de
satélite analisada, a partir do curso central da janela definida
em análise, como o exemplo citado anteriormente uma janela
três por três, e repete esse mesmo processo para todos os
pixels existentes, tendo como resultado uma imagem
semelhante a uma visão desfocada ou uma névoa existente
(Figura 3.9).

Figura 3.9 – Imagem sem filtro (A) e imagem com filtro passa-baixa (B)
©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

O filtro passa-alta tem o objetivo inverso: é uma


ferramenta que ressalta as feições da imagem a partir de seus
aspectos radiométricos, eliminando as baixas frequências.
Nesse filtro, apenas as altas frequências são mantidas,
gerando uma imagem com grande nitidez e detalhes
realçados. O procedimento de aplicação desse filtro é
exatamente igual ao filtro anterior, a janela definida passará
por todos os pixels, eliminando as baixas frequências e
mantendo apenas as altas frequências (Figura 3.10).

Figura 3.10 – Imagem sem filtro (A) e imagem com filtro passa-alta (B)

©SPRING - DPI/INPE
Fonte: Elaborado a parti de INPE, 2021d.

Os filtros correspondem a uma etapa muito importante do


PDI e, por isso, os softwares têm ferramentas cada vez mais
sofisticadas para a aplicação desses recursos. As ferramentas
disponíveis nos aplicativos tendem a gerar produtos cada vez
mais precisos e com pouca perda de informação.

3.2.2Operações aritméticas e composição


colorida
Como uma matriz matemática permite que sejam efetuadas
operações aritméticas tradicionais (adição, subtração,
multiplicação e divisão), esses processos aplicados em
imagens de satélite podem evidenciar fenômenos que
naturalmente não seriam observados a olho nu. O processo de
adição e de multiplicação, por exemplo, tem como objetivo
realçar similaridades entre diferentes bandas. Ao realizar o
processo de adição ou multiplicação entre bandas distintas ou
imagens de diferentes sensores, é possível obter como
resultado o aumento do realce de algumas seções ou
fenômenos que o analista queira observar, como, por
exemplo, destacar a drenagem de uma região, um método
muito eficiente para os estudos hidrológicos, ou a realização
do procedimento de adição para destacar as unidades de
relevo, algo realizado por profissionais da área de
geomorfologia.

No caso da subtração e da divisão, essas operações têm


como finalidade destacar a diferença entre imagens de
diferentes bandas ou de sensores distintos, algo extremamente
útil quando o profissional quer detectar a mudança de um
fenômeno específico em uma região ao longo do tempo, por
exemplo. Esse processo elimina ou suaviza texturas da
imagem, podendo ser útil para identificar características
específicas de cobertura e uso da Terra e das áreas erodidas
no terreno analisado.
A composição colorida, por sua vez, tem como objetivo
facilitar a análise da imagem, tendo em vista que o olho
humano consegue identificar maior quantidade de cores do
que tons de cinza. A composição colorida, portanto, aplica
artificialmente filtros coloridos nas imagens, objetivando
realçar as diferenças espectrais ali representadas por
intermédio das cores e de suas misturas entre bandas. Para
fazer isso, o procedimento leva em consideração a forma
como o olho humano observa e identifica as diferentes cores
para que seja possível trabalhar de forma similar nas imagens
de satélites.

Fique atento!
As cores observadas nos computadores têm como base o
sistema RGB (Red, Green, Blue), do qual deriva todas as
outras cores que observamos. As imagens de satélites são
representadas em tons de cinza, e cada tom de cinza
representa um valor de reflectância espectral em determinado
comprimento de onda. Uma vez que a imagem esteja
representada em cores naturais e não mais em tons de cinza,
temos, mesmo que de maneira artificial, uma visão muito
similar àquela que veríamos a olho nu da região imageada
(Jensen; Epiphanio, 2011; Jensen; Lulla, 1987).

Por exemplo, das bandas do espectro eletromagnético, o


analista tem a região do visível representada pelo RGB,
respectivamente, vermelho, verde e azul. A aplicação de um
canal de cores como vermelho, verde ou azul a qualquer uma
das bandas que são representadas em tons de cinza gera uma
composição denominada composição colorida. Assim,
quando é utilizada uma imagem em tons de cinza da região do
visível do espectro eletromagnético referente à cor vermelha e
aplicado um filtro de cor vermelha, e o analista efetua o
mesmo procedimento para as imagens referentes à região do
espectro eletromagnético das cores verde e azul, ao sobrepor
essas imagens, ele terá uma composição colorida muito
parecida com a que seria vista a olho nu se sobrevoássemos a
área. Essa composição é denominada composição colorida
real ou verdadeira (Figura 3.11).

Figura 3.11 – Composição colorida cor verdadeira

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

No entanto, no SR, o mais importante é expandir a


capacidade de visão do olho humano, ressaltando
informações que não são comumente visíveis. O maior
exemplo disso é a imagem referente à região do espectro
eletromagnético do infravermelho, que não é naturalmente
visível a olho nu, mas que permite gerar uma imagem em tons
de cinza dessa região do espectro. Quando realizamos uma
composição colorida considerando não somente elementos da
região do visível, mas também imagens referentes às regiões
do espectro eletromagnético que naturalmente não
enxergamos, há a possibilidade de ressaltar fenômenos que
poderiam ficar escondidos ou que não seriam facilmente
percebidos pelo analista. Por exemplo, em uma composição
colorida em que o vermelho fosse substituido pela região do
infravermelho próximo, teríamos uma composição colorida
que ressaltaria características da superfície que não são
facilmente visíveis. Esse tipo de composição é chamado de
falsa-cor e, para análise de fenômenos diversos, é a
composição mais utilizada no SR (Figura 3.12).

Figura 3.12 – Composição falsa-cor

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

As imagens provenientes do processo de composição


colorida verdadeira ou falsa-cor auxiliam o analista na
representação de determinados fenômenos, na extração de
informações ou na criação de mapas e outros produtos que
darão suporte ao estudo. A composição colorida é uma parte
fundamental do PDI, sendo capaz de permitir a identificação
de elementos diversos, como materiais em suspensão na água,
no ar, características químicas da composição do solo, tipos
de vegetação entre outros aspectos.
3.3 Transformação de
imagens: rotação espectral
A transformação de imagens está relacionada à alteração dos
dados espectrais para facilitar o procedimento de classificação
de imagens de satélite. Os profissionais que aplicam a técnica
de transformação nas imagens de satélite têm por objetivo
extrair informações específicas e realçar características da
imagem que permitam melhorar o processo de análise. Neste
tópico, examinaremos o processo de rotação espectral, um
dos processos de transformação de imagem mais comuns em
SR.

3.3.1 Rotação espectral


A rotação espectral tem como objetivo a melhoria da
qualidade da imagem, realizando transformações lineares com
base nas informações espectrais de várias bandas do sensor. É
um procedimento que cria uma nova imagem, com maior
qualidade, mas que, para isso, faz uma busca pixel a pixel,
coletando informações espectrais em diferentes bandas e
acrescentando-as na nova imagem (Figura 3.13). É um
procedimento que pode ser realizado a partir dos
componentes principais das bandas que estão em análise,
sendo o procedimento mais utilizado no SR.

Figura 3.13 – Rotação espectral


©SPRING - DPI/INPE

A rotação espectral com base no componente principal


condensa informações espectrais dos alvos com base nas
diferenças entre bandas, reduzindo a dimensionalidade deles.
Dessa forma, criam-se números reduzidos de bandas
espectrais transformadas e sem perder informações, o que é
mais importante nesse tipo de processamento.

É um procedimento que aumenta as possibilidades de uso


com base nas ações implementadas pelo analista, pois as
imagens que mais apresentam correlação entre bandas
possibilitam um novo universo de análise. A rotação espectral
é um procedimento extremamente utilizado, entre outros
motivos, pela dimensionalidade reduzida das imagens,
levando em consideração os altos custos que envolvem a
manutenção de equipamentos robustos para processar e
armazenar uma grande quantidade de dados extremamente
pesados. Como se trabalha com um processo de rotação
espectral que diminui a dimensionalidade, permitindo
trabalhar com bandas correlacionadas, obtém-se também a
possibilidade de diminuir os locais de armazenamento e
aumentar efetividade do serviço com base no hardware.

Síntese
Neste capítulo, abordamos os principais procedimentos que
envolvem o pré-processamento das imagens de satélite, assim
como os procedimentos iniciais do PDI. Observamos que é
extremamente necessária a realização de um pré-
processamento para corrigir erros geométricos ou
atmosféricos oriundos do processo de aquisição das imagens.
Os erros geométricos estão relacionados àqueles referentes ao
processo de aquisição em áreas com topografia variada, por
exemplo, ao passo que os erros atmosféricos estão
relacionados àqueles que sofrem a interferência da atmosfera
no trânsito da radiação eletromagnética a partir do objeto até
o sensor.

As imagens são também uma matriz matemática, o que faz


com que seja possível realizar operações aritméticas como
soma, subtração, divisão e multiplicação. Ressaltamos, ainda,
a composição colorida, de fundamental importância no SR,
diferenciando a composição colorida verdadeira da falsa-cor e
evidenciando tais diferenças. Por fim, observamos as
vantagens de trabalhar com a rotação espacial no processo de
transformação de imagens de satélite, diminuindo a
dimensionalidade dos dados oriundos das imagens e também
abrindo um novo universo de análise.

Atividades de autoavaliação

1. A etapa de pré-processamento de uma imagem de satélite


realizada para atenuar alguns problemas oriundos do
processo de aquisição de imagens é uma etapa
fundamental antes do processamento. Sobre o tema,
assinale a alternativa que melhor explica a necessidade da
realização de uma correção geométrica na imagem
quando o objetivo é a produção de um mapa:
a) A correção geométrica nessa situação serve para
compatibilizar corretamente as informações do mapa-base
com a imagem de satélite.
b) A correção geométrica nessa situação serve para aplicar
distorções em uma imagem curva, já que a área de
aquisição é plana.
c) A correção geométrica nessa situação serve para evitar
distorções de posicionamento, já que o mapa trabalha com
precisão.
d) A correção geométrica nessa situação serve para atenuar os
efeitos atmosféricos que interferem na qualidade da
imagem de satélite.
e) A correção geométrica nessa situação ocorre em razão de
algum movimento das massas de ar alterado pelas águas do
oceano que causam interferência radiométrica e, por
consequência, geométrica no sinal captado pelo sensor.

2. A correção atmosférica de uma imagem de satélite tem


como objetivo atenuar efeitos radiométricos da imagem.
Entre os efeitos que podem ser causados pela interferência
da atmosfera, assinale a alternativa que apresenta um
problema comum a ser resolvido com esse tipo de
correção:
a) Deslocamento de objetos na imagem.

b) Dimensionalidade das imagens de satélite que pode ser


reduzida.
c) Atenuação dos elementos da rotação espectral.

d) Ruídos na imagem.

e) Composição distorcida das bandas.


3. Entre os diferentes tipos de análise que podem ser
realizados nas imagens de satélite, é possível identificar
que a imagem como tal possibilita distintas formas de
análise, incluindo operações aritméticas como soma,
subtração, divisão e multiplicação. A possibilidade de
realização dessas operações é possível porque:
a) a composição colorida da imagem trabalha com valores
radiométricos que podem ser extraídos e calculados.
b) a radiometria da imagem é oriunda de cálculos precisos,
cujos resultados são apresentados sob forma de modelos
matemáticos.
c) a geometria das imagens de satélite cria elementos
numerais inteiros que possibilitam a realização de
operações aritméticas.
d) a utilização de filtros possibilita esse tipo de operação,
tendo em vista que o resultado da passada do filtro é
sempre um numeral.
e) se trata de matrizes matemáticas, em que cada elemento da
matriz é um pixel com seu valor radiométrico.

4. A composição colorida das imagens de satélite é um


procedimento de extrema importância para que o analista
possa identificar os fenômenos na paisagem. Entre os
tipos de composição colorida existentes, há a composição
colorida de cor verdadeira ou real e a composição colorida
chamada de falsa-cor. Os dois tipos existentes têm
aplicações extremamente distintas, e apenas um deles
apresenta maior ganho em SR. Assinale a alternativa que
apresenta o tipo de composição que fornece ao analista o
maior ganho entre as possibilidades do SR e a respectiva
justificativa:
a) A composição colorida falsa-cor, porque nesse tipo de
composição o analista expande sua capacidade de
visualização e pode trabalhar com regiões do espectro
eletromagnético que não são visíveis a olho nu.
b) A composição colorida verdadeira, porque nesse tipo de
composição é possível criar uma representação muito
similar ao que pode ser observado sobrevoando a área,
trabalhando da melhor maneira com a percepção do
analista.
c) A composição falsa-cor, porque nesse tipo de composição
são utilizados impreterivelmente RGB, o que possibilita o
realce de elementos que só são perceptíveis na região do
infravermelho.
d) A composição colorida verdadeira, pois nessa composição
o infravermelho termal é mais evidente e possibilita novas
formas de análise.
e) A composição colorida falsa-cor, pois é apenas nessa
composição que é possível identificar os diferentes tons de
verde da vegetação rasteira.

5. A rotação espectral apresenta uma forma de


transformação na imagem que possibilita ao analista um
novo universo de análise, além da redução da
dimensionalidade. Assinale a alternativa que explica os
motivos pelos quais esses ganhos são possíveis por meio
do processo da rotação espectral:
a) A rotação espectral possibilita esses ganhos, pois realiza
uma transformação de passa-alta em todas as bandas a
imagem.
b) A rotação espectral possibilita esses ganhos, pois combina
diferentes informações espectrais coletadas em várias
bandas, criando imagens condensadas e sem perda de
informação.
c) A rotação espectral emprega o uso da passa-alta, que é um
filtro bilinear que possibilita a manutenção da alta
frequência dos pixels da imagem.
d) A rotação espectral emprega uma filtragem bilinear para
reduzir a dimensionalidade e, por esse motivo, possibilita
que sejam armazenadas grandes informações, utilizando
pouco espaço.
e) A rotação espectral permite que sejam efetuadas trocas de
cores em três bandas, implementando novos tipos de
composições coloridas.

Atividades de aprendizagem

Questões para reflexão

1. A maior parte das imagens de satélite que são divulgadas


em aplicativos, pela internet, nos celulares ou até mesmo
que aparecem na televisão, apresenta algum tipo de
processamento embutido. Selecione uma imagem de
satélite divulgada em um aplicativo, como, por exemplo,
Google ou em um programa de televisão (como durante a
previsão do tempo), e tente identificar o tipo de
processamento aplicado naquela imagem, explicando o
porquê da escolha desse processamento.

2. Nas aplicações científicas, o uso das imagens da região do


visível, exclusivamente, não é muito comum. Isso ocorre
porque as diferentes regiões do espectro eletromagnético
podem trazer informações extremamente relevantes para
diferentes estudos. Realize uma pesquisa e avalie em
quais casos as imagens da região do visível poderiam ser
aplicadas sem a utilização de outras bandas, com ganhos
científicos significativos.

Atividade aplicada: prática

1. Realize uma pesquisa entre os principais sensores dos


satélites existentes e aponte aquele em que poderia
fornecer maior ganho na aplicação de um processo de
rotação espectral para o estudo da vegetação, justificando
a escolha.

1 O cálculo de regressão geralmente não é explicado na literatura, pois é


programado (já que envolve valores de pixels entre bandas), não sendo
possível realizá-lo manualmente. É uma solução automatizada, mas o leitor
pode ter mais detalhes da forma com que o computador realiza essa análise
em Centeno (2003).
4
Interpretação
de imagens

João Victor Pacheco Gomes


A análise de uma imagem de satélite ocorre por meio da
interpretação da informação que é fornecida a partir da
interação entre a energia eletromagnética e o objeto. É uma
característica importante do processo de análise de imagens,
que se diferencia do processo de interpretação que é feito nas
fotografias aéreas, em que o método de comparação entre os
elementos que aparecem na fotografia e os objetos reais é
mais comum.

A análise dos resultados oriundos da interação espectral do


objeto, representado na imagem de satélite, possibilita o uso
de algumas ferramentas de interpretação de imagens que
ajudam a extrapolar a capacidade de interpretação do olho
humano. No entanto, o olhar e a experiência do analista são
fundamentais nesse processo, não sendo, ainda, totalmente
excluídos. Neste capítulo, vamos estudar algumas ferramentas
de análise e interpretação de imagens, e você terá a
oportunidade de conhecer as diversas alternativas que o
sensoriamento remoto (SR) proporciona para a identificação
de fenômenos no espaço.

4.1 Metodologias de análise


O SR tem como função principal obter informações da
superfície terrestre a partir de uma análise visual ou
semiautomática ou até mesmo automática. Essas formas de
extrair a informação fazem parte das metodologias de análise
de imagens, que são aplicadas de acordo com o objetivo do
estudo e da experiência do analista no processo (Florenzano,
2007). O princípio básico dessas metodologias consiste em
análise dos dados armazenados na imagem associados com as
informações do mundo real e, nesse caso, a experiência do
analista traz uma riqueza no processo de análise que não pode
ser obtida apenas de maneira automática; no entanto, os
procedimentos automáticos não podem ser descartados e têm
se tornado cada vez mais sofisticados (Centeno, 2003).
Toda metodologia de análise tem vantagens e desvantagens
e, como citado anteriormente, a vantagem da análise visual
está relacionada à experiência do analista e ao possível
conhecimento que ele tem da área. O conhecimento prévio da
área é fundamental para uma análise visual, mas, uma vez que
o analista não conheça ou tenha estudado o local previamente,
é possível estudar o local de outras maneiras, como a partir da
análise de um mapa. Contudo, o trabalho de campo é
imprescindível, independentemente de o analista conhecer ou
não a região a ser mapeada, pois servirá para validar a
interpretação que o analista realizou na imagem (Florenzano,
2007; Novo, 2008).

4.1.1 Imagem digital


Como vimos no capítulo anterior, a imagem digital deve ser
entendida como uma matriz matemática, em que os valores
dos pixels nela contidos representam o nível de reflectância
da radiação eletromagnética na área do terreno
correspondente ao tamanho do pixel em escala. Dessa forma,
podemos compreender que uma imagem com resolução
espacial de 30 metros tem um pixel que representa no terreno
uma área equivalente a 900 metros quadrados (Figura 4.1). A
reflectância do pixel irá representar a reflectância de todos os
objetos contidos nessa área no terreno (Centeno, 2003).
Portanto, cada pixel representa uma porção do terreno, e a
qualidade da interpretação da imagem, principalmente por
parte do analista, aumenta quanto melhor for a resolução
espacial da imagem, possibilitando assim mais detalhes na
análise.

Figura 4.1 – Área do pixel com uma resolução espacial de 30 m


Importante!
É importante ressaltar que uma imagem digital é uma
simplificação da realidade, apresentando bem menos
informação do que o mundo real que serviu como base
(Centeno, 2003). As relações entre os objetos na imagem não
correspondem às relações entre os objetos no mundo real,
pois, além da área, que é simplificada em pixels da imagem,
existe o modo de captura dessa imagem, que é influenciado
pelo ângulo de inclinação do satélite e pode criar distorções
de proximidade e até de similaridade (Florenzano, 2007;
Moreira, 2005).

Além disso, devem ser consideradas as alterações do


ambiente natural que influenciam a forma com que a imagem
é capturada. Por exemplo, se o satélite capta a imagem de
dado local em um dia específico na parte da manhã, ele terá
condições de luz e de atmosfera que vão lhe garantir
determinado aspecto da imagem. Por outro lado, se uma
imagem for capturada no mesmo dia e local, no início da
tarde ou até mesmo no fim da tarde, o ângulo de inclinação da
luz solar já é completamente diferente, assim como as
características específicas da atmosfera que vão contribuir
para uma reflexão, diferenciando os objetos da superfície para
o sensor. Dessa forma, vale salientar que a imagem digital
apresenta diversas características que influenciam seu aspecto
e sua interpretação, sendo necessário muito cuidado por parte
do analista no momento de exame das imagens para que seja
possível identificar essas diferenças e adaptar o método de
análise de acordo com a especificidade.

4.1.2 Análise visual


O método de análise visual da imagem tem como base o
analista, que interpreta os elementos e as chaves de
interpretação da imagem. Esses elementos e chaves de
interpretação, também conhecidos como variáveis, podem
ser: cor, textura, tamanho, forma, sombra, padrão e
localização (Centeno, 2003; Florenzano, 2007). Cada um
desses elementos apresenta características específicas que
formam a base de interpretação visual das imagens digitais de
SR. Apresentações que, de forma análoga com a superfície da
Terra, são mais facilmente identificadas pelo olho humano
são, por isso, chamadas de chaves de interpretação.

Neste ponto, é importante ressaltar a experiência do


analista, que deve conhecer um ambiente para que possa fazer
a analogia necessária para a interpretação de determinada
característica, como textura, tamanho, forma, padrão, entre
outras, levando em conta a experiência e os conhecimentos
prévios que ele detém. Todavia, ainda que o analista não
tenha um conhecimento prévio da área, ele pode recorrer a
cartas topográficas da região, estudos relativos à área, mapas
temáticos que evidenciam algum padrão específico observado
por ele e, também, o trabalho de campo.

O trabalho de campo sempre vai fazer parte do processo de


interpretação da imagem (Florenzano, 2007; Novo, 2008),
pois é nessa ocasião que o profissional irá conferir a verdade
terrestre, ou seja, fazer comparações entre a interpretação
feita em laboratório e a realidade. A seguir, veremos alguns
dos principais elementos característicos da interpretação
visual.
Cor (ou tonalidade)

A reflectância da energia eletromagnética refletida pelos


objetos na superfície terrestre é captada pelo sensor na forma
de um contador digital, que seria o mesmo que um pixel de
uma imagem. O pixel armazena um valor numérico que mede
a intensidade da energia refletida pela área correspondente;
esse valor é representado na imagem a partir do uso de cores
ou tonalidades (Centeno, 2003; Florenzano, 2007). No caso
das tonalidades, o sistema baseia-se em tons de cinza que
variam do branco ao preto. A variação dos tons entre o branco
e o preto ocorre de acordo com a intensidade da energia
refletida, ou seja, quanto mais energia o objeto refletir, mais o
tom do pixel tende a ir para o branco, o contrário também é
verdadeiro, pois, quanto mais energia eletromagnética o
objeto absorver, mais ele vai tender para o preto.

Em imagens de 8 bits, geralmente trabalha-se com 256 tons


de cinza na representação das variações dos níveis de
reflectância. Esses 256 tons são representados por valores
entre 0 e 255, em que o zero representa o preto total e o 255
representa o branco total. Entre eles há variações na
tonalidade de cinza, que são as chamadas tonalidades
intermediárias. Podemos considerar, portanto, que a variação
de tons representa o brilho de uma imagem.

Para o analista, a sensação de variação do brilho será dada


pela variação de tonalidades de cinza dispostas em toda a
imagem. Ressaltamos, no entanto, que essa variação de brilho
captada pelos olhos do analista não é a mesma variação
captada pelos computadores, pois estes trabalham com níveis
digitais e valores numéricos que representam a variação de
tonalidade; para o analista, contudo, essa medida não
apresenta total exatidão, sendo necessário que seja
contraposta com outras características da imagem no processo
de análise.
A cor é um elemento que auxilia na distinção dos objetos
na imagem a partir da análise visual do analista, isso ocorre
porque o olho humano consegue captar com maior facilidade
as diferenças de cores do que as tonalidades de cinza
(Centeno, 2003). A representação das cores em uma imagem
ocorre de acordo com o canal de cor correspondente e seu
nível de reflectância, como vimos no capítulo anterior. Uma
imagem digital da banda do vermelho da região do visível,
que apresente um elevado nível de reflectância, fará com que
essa cor se sobressalte em relação às outras, formando uma
composição colorida. Da mesma maneira, se um canal de cor
apresenta uma baixa reflectância, a curva correspondente não
terá tanta influência no resultado da imagem.

É importante destacar, ainda, que as cores podem ser


representadas não apenas em seu canal específico, mas
também de forma artificial, aplicando um canal de cor (RGB
– Red, Green, Blue) em uma imagem de tonalidades de cinza,
ou seja, que não representa canal de cor correspondente. Isso
é comum de ser realizado na composição de imagens falsa-
cor, como visto no capítulo anterior, pois os canais de cores
podem ser aplicados em imagens da região do espectro
eletromagnético que fogem da faixa do visível. A cor é um
correspondente da região especificamente do visível e
representa aquilo que o olho humano consegue captar.

Ao trabalhar com uma banda do o infravermelho, por


exemplo, o analista está lidando com o tipo de energia que
não configura uma região do espectro do visível, ou seja, não
é captado pelos olhos humanos e não apresenta cor específica.
Dessa forma, a aplicação de cor nesse tipo de imagem é uma
associação artificial para facilitar o processo de análise por
parte do analista (Figura 4.2).

Figura 4.2 – Composição colorida real (A) e composição falsa-cor (B)


©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

A cor, portanto, representa um elemento fundamental no


processo de interpretação de imagens; podendo ser aplicada
em cor verdadeira ou falsa-cor, ela permite que diferentes
variações na superfície imageada possam ser observadas e
captadas pelo olho humano. É importante ressaltar que uma
boa análise de imagem baseia-se na capacidade que o analista
tem de interpretar os elementos e distinguir suas diferenças,
principalmente de tonalidade ou de cor. No entanto, como a
tonalidade configura um aspecto mais difícil aos olhos
humanos, é preferível trabalhar com esquema de cores
verdadeiras ou falsa-cor, de modo a garantir o sucesso do
processo de análise. As cores são importantes também na
geração do produto na classificação da imagem.

Textura

A textura é um elemento de interpretação que se refere ao


aspecto liso ou rugoso dos objetos dispostos em uma imagem.
Essa variação de aspecto está relacionada ao valor do pixel.
Os pixels que têm valores uniformes tendem a representar um
aspecto liso, ao passo que o aspecto será rugoso se a diferença
entre os pixels que compõem a imagem for muito grande no
que diz respeito aos valores (Figura 4.3). Dessa forma,
podemos dizer que a textura se refere ao grau de
uniformidade dos pixels em uma cena. Consideramos, para
esse exemplo citado, uma imagem em tons de cinza, já que
uma imagem com cores apresenta outras especificidades que
veremos posteriormente.

Figura 4.3 – Textura lisa (A) e textura rugosa (B)


©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.


Para um analista, a textura pode identificar algumas
características importantes da área imageada, pois uma
variação na uniformidade dos valores dos pixels de uma
região pode evidenciar uma alteração nas características do
relevo. Por exemplo, uma textura lisa tende a corresponder à
área de relevo plano, e uma textura rugosa corresponde às
regiões com relevo não uniforme, acidentado e alterado pela
drenagem existente na localidade. É por meio da textura que é
possível identificar a mudança de padrões, como a áreas
urbanizadas, pouco urbanizadas ou até mesmo mudanças em
áreas de vegetação e relevo acidentado e áreas urbanas no
entorno.

Do ponto de vista técnico, a textura resulta de um processo


de interação entre objetos na superfície terrestre que têm um
tamanho menor que a área do pixel, sendo então confundidos
todos em agrupamentos de pixels, gerando alteração na
tonalidade representada e influenciando na reflectância pixel a
pixel em toda uma área, alterando, por fim, a característica
textural da imagem.

Outro aspecto importante da textura está relacionado à


análise do tipo de vegetação existente na região: é possível
identificar se é vegetação rasteira ou se é uma vegetação mais
densa, se é uma área de vegetação nativa ou se é uma área de
reflorestamento. É possível, inclusive, analisar, por meio da
textura da imagem, o tipo de cultura existente em uma região
de produção agrícola, baseada em características de
rugosidade que devem ser estabelecidas pelo analista
mediante analogias entre o tipo de cultura e o padrão
representado.

Conforme citado anteriormente, áreas de vegetação, como


campos ou áreas de cultura agrícola, tendem a apresentar uma
textura mais homogênea e, consequentemente, lisa, enquanto
em áreas urbanas, em razão da existência de muitos objetos
menores do que a área do pixel em toda região, a textura
tende a ser mais rugosa. São características que o analista
deve compreender para identificar corretamente a área no
processo de interpretação. Existe ainda a textura média, que
configura um ponto de equilíbrio entre a textura rugosa e a
textura lisa.

Tamanho

O tamanho da imagem pode ser calculado a partir das


quantidades de pixels que o objeto necessita para compor sua
representação. É um elemento de grande importância na
análise visual, pois possibilita ao analista estimar a
dimensionalidade de alguns alvos ou fenômenos, como
cidades ou áreas específicas, entre outros. Essa característica
ajuda também na distinção de alguns elementos que podem
ser interpretados a partir do tamanho, tendo como referência a
escala da imagem digital utilizada na análise (Centeno, 2003).

Para que um elemento possa ser reconhecido quanto ao seu


tamanho em uma imagem de satélite, é necessário que sua
dimensão seja maior que a do pixel da imagem e que,
consequentemente, necessite de alguns pixels para compor
sua dimensionalidade. Caso contrário, não será possível
compreender o tamanho de um elemento disposto na
superfície, pois ele irá compor a totalidade dos objetos
embutidos na área que compõem o pixel. Por esse motivo, se
um dos elementos principais a ser analisado for o tamanho, é
importante considerar a resolução espacial do satélite na
escolha da imagem.

Forma

Mais familiar à percepção humana na interpretação das


imagens de satélite é a forma, que é o elemento mais
associativo, em relação aos objetos do mundo real que há em
uma imagem (Florenzano, 2007; Moreira, 2005). A forma de
um elemento diz respeito à variação do contorno no espaço
bidimensional em toda imagem. Apesar de a forma ter uma
grande relevância por trabalhar com o processo associativo
mais facilmente, vale destacar que a imagem de satélite é
adquirida a partir de uma visão ortogonal do terreno,
diferentemente daquela que tradicionalmente o olho humano
vê por ter uma visão em perspectiva da área.

A diferença entre a visão ortogonal e a visão em


perspectiva pode trazer algumas dificuldades no processo
interpretativo por parte do analista, ainda que algumas
feições, como um campo de futebol, rios e estradas, tenham
características que sejam facilmente reconhecíveis do ponto
de vista ortogonal. Entretanto, outros elementos não
apresentam tanta facilidade no processo de reconhecimento.
Se observarmos um prédio em perspectiva, por exemplo, logo
constatamos que se trata de um prédio, em razão de sua forma
de estrutura em diferentes pavimentos. Quando o prédio é
observado a partir de uma visão ortogonal, todas essas
características de sua forma são perdidas, e ele passa a ser
representado apenas por um quadrado ou retângulo. Portanto,
o processo de interpretação por meio da forma conta com
algumas especificidades que devem ser consideradas de
acordo com o objeto a ser observado. A Figura 4.4 representa
uma pista de um aeroporto que pode ser facilmente
identificada na imagem de satélite pelas suas formas.

Figura 4.4 – Pista do aeroporto como exemplo de forma


©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

A forma pode ser classificada de duas maneiras quanto ao


modo em que pode ocorrer nas imagens, como formas
regulares e formas irregulares. As formas regulares tendem a
indicar elementos artificiais, ou seja, aqueles construídos pela
sociedade, como áreas de reflorestamento, aeroportos,
avenidas, entre outros. As formas irregulares representam
elementos provenientes da própria natureza, como lagos, rios,
relevo clima vegetação, entre outros.

Sombra

A sombra é um elemento que auxilia no processo de


interpretação da forma, citada anteriormente, pois alguns
elementos podem ter sua altitude percebida a partir da sombra
que projetam na imagem, como é o caso de edifícios, árvores
e, até mesmo, formas do relevo. A sombra, portanto, auxilia
no processo de interpretação da forma e também do tamanho,
ajudando o analista a estimar a dimensionalidade de um
fenômeno observado. Na Figura 4.5, é possível identificar
facilmente o Morro do Pão de Açúcar e sua altitude em
relação à região de entorno, em virtude do efeito da sombra.

Figura 4.5 – Exemplo do efeito da sombra na interpretação de uma imagem

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

A sombra, resultado das condições do imageamento, é


determinada pela posição do Sol no momento em que o
satélite está registrando os dados. Quando a luz solar incide
em uma região com relevo acidentado, é natural o
aparecimento, no local, de sombras, que, por sua vez, são
captadas pelos sensores e registradas na imagem que auxiliam
o analista a identificar uma variação altimétrica do relevo,
determinando, assim, as formas subsequentes. Em áreas
urbanas, ocorre o mesmo quando a incidência solar atinge
prédios e edificações, ocasionando sombras que vão ajudar o
interpretante a identificar formas e padrões, como reconhecer
edificações mais altas e mais baixas a partir de uma visão
ortogonal, interpretando indiretamente por meio dessas
sombras.

Importante!
A sombra é um elemento de extrema importância no SR e,
por esse motivo, as imagens de satélite não são adquiridas
quando o Sol emite seus raios solares mais ortogonais em
relação ao solo, por volta do meio-dia, quando quase não há
sombra dos objetos na superfície. Os satélites são
programados para registrar imagens de regiões apenas em
horários em que se tem determinado ângulo de inclinação do
Sol em relação à superfície, de modo que não haja muitas
sombras que possam causar a oclusão de grandes áreas, mas
também que haja uma quantidade de sombras que tornem
possível a identificação de formas a partir de uma visão
ortogonal do satélite.

Outra condição em que se criam sombras é na aquisição de


imagens de radar em razão do próprio sinal emitido. É um
tipo de imagem diferente daquelas às quais damos ênfase
neste livro, provenientes dos sensores passivos; as imagens de
radar são geradas a partir de sensores ativos e necessitam da
existência de sombras para que seja possível traçar as
estimativas de distanciamento e os cálculos altimétricos.

Padrão
O padrão pode ser definido como o arranjo espacial de
objetos representados na imagem ou a repetição de elementos
maiores do que a resolução espacial da imagem. O padrão
está associado, geralmente, a construções antrópicas, sendo
caracterizado por linhas sucessivas ou agrupamentos
sucessivos de pixels. Alguns exemplos de padrões espaciais
que podem ser encontrados em uma imagem são os
aglomerados urbanos e as rodovias.

Os aglomerados urbanos podem destacar, por meio de seu


padrão, indicadores socioeconômicos e até mesmo
caracterizar se a região passou por algum tipo de
planejamento urbano-territorial. A análise do tamanho
mínimo das unidades habitacionais e da forma de
aglomeração, levando-se em consideração espaçamento
mínimo entre as residências e a densidade de edificações
existentes em dada porção do espaço, pode configurar, por
exemplo, a classificação de uma região em que há
condomínios de alta renda, assim como regiões caracterizadas
como aglomerados subnormais 1 (Figura 4.6).

Figura 4.6 – Padrão de um aglomerado urbano de alta renda (A) e padrão de


um aglomerado urbano de baixa renda (B)
©SPRING - DPI/INPE
Fonte: Elaborado a partir de INPE, 2021d.

A análise de padrões não se limita a questões urbanísticas,


mas pode ser aplicada e tem grande implementação na área da
geografia física. A interpretação de padrões da rede
hidrográfica é importante para a caracterização de uma bacia
de drenagem, assim como os padrões de distribuição de
diferentes tipos de solo de dada região, entre outros aspectos.
Trata-se de uma informação valiosa e que depende não
apenas da capacidade visual do analista, mas também de
conhecimentos relacionados à geografia física e à geografia
humana.

Localização

A localização permite que o analista possa chegar a


determinadas conclusões a respeito daquilo que ele observa a
partir da análise da imagem. Basicamente, a localização diz
respeito à posição relativa dos objetos em relação aos outros
elementos dentro da imagem (Centeno, 2003; Florenzano,
2007), o que auxilia o analista a deduzir informações acerca
do objeto de análise. Além disso, a localização geográfica da
imagem, ou seja, o ambiente real que ela representa e onde
ela está geograficamente localizada, servirá como base de
informação para o analista não cometer erros grosseiros no
processo de interpretação. Outro aspecto importante são as
associações entre os elementos presentes na imagem e que
facilitam seu processo de classificação, porém demandam
conhecimento da região geográfica analisada.

O conhecimento prévio sobre o local representado na


imagem evita que erros sejam cometidos no processo
interpretativo como, por exemplo, associar determinado tipo
de vegetação em uma região em que esse elemento não é
comum e não ocorreria por conta das condições climáticas.
Dessa forma, por mais que um elemento tenha uma
característica visual que possa induzir ao erro, conhecer a
localização geográfica pode auxiliar o analista no processo
interpretativo, evitando, assim, que o erro seja cometido.

4.2 Índices e modelos de


análise
Nesta seção, trataremos de alguns procedimentos que visam
auxiliar o analista de SR no procedimento de interpretação de
fenômenos que ocorrem na superfície a partir das imagens
satélite – especificamente dos índices de vegetação, com
ênfase no índice de vegetação normalizado. Além disso,
trataremos sobre alguns aspectos referentes ao modelamento
tridimensional da imagem, baseado em modelo digital de
elevação, que auxilia o processo interpretativo ao incluir, no
campo de visualização, a variação altimétrica do terreno.
Você terá a oportunidade de compreender os principais
aspectos referentes a esses procedimentos que constituem
alguns dos mais usuais na prática do SR.

4.2.1 Índices de vegetação


Os índices de vegetação foram desenvolvidos com base na
análise da reflectância dos objetos em diversas faixas
espectrais e na quantificação dessa reflectância com base em
cálculos matemáticos para estimar o que de fato é vegetação
ou não em um ambiente. Sabe-se que todos os objetos na
superfície terrestre possuem uma assinatura espectral e,
assim, podem ser utilizados em uma análise criteriosa de sua
reflexão. Com base nisso foram desenvolvidos cálculos
matemáticos que utilizam diferentes bandas espectrais para
gerar o chamado índice de vegetação e identificar com maior
facilidade não apenas o que de fato é vegetação, mas também
a qualidade e os diferentes tipos de cultura, entre outros
aspectos (Liu, 2015).
Fique atento!

Os índices de vegetação existentes contabilizam mais de 40


tipos desenvolvidos nas últimas décadas. De modo geral, os
índices exibem a resposta espectral da superfície de
vegetação, definida como uma mistura de vegetação, efeitos
ambientais, brilho, cor e existência de água no solo, além de
considerar efeitos provenientes da variação espaço-temporal
dos gases atmosféricos.

Os índices de vegetação têm sido amplamente utilizados


nos estudos de SR. Entre as principais aplicações desses
índices, destacamos o monitoramento na discriminação de
uso do solo na superfície terrestre, baseado nos dados
reflectância das várias faixas espectrais da radiação
eletromagnética. Outra aplicação dos índices de vegetação é a
correção parcial dos efeitos das variações locais das
condições atmosféricas e das variações de ângulo de visada
de sensores e ângulos solares. Existem inúmeras aplicações
para esses indicadores, além das mais tradicionais, como o
monitoramento de alguns tipos de vegetação e cultura, a
identificação da recuperação de áreas degradadas, entre
outras.

Desde que começaram a ser desenvolvidos, os índices de


vegetação passaram por diferentes processos de
desenvolvimento e, atualmente, são menos suscetíveis à
variação atmosférica e aos brilhos da superfície do solo
(Centeno, 2003; Liu, 2015). Considerando a multiplicidade de
dados provenientes de satélites existentes, o uso dos índices
de vegetação de diferentes tipos para as diversas imagens
provenientes dos sensores conferem aos pesquisadores um
amplo campo de pesquisa para testar, avaliar e até mesmo
desenvolver novas metodologias e ou criar outros índices.
O Índice de Vegetação pela Diferença (Difference
Vegetation Index – DVI) é um dos mais utilizados, sendo
calculado pela diferença da reflectância entre a faixa do
infravermelho próximo e a faixa do vermelho. No entanto,
esse índice não está isento de erros, na medida em que a
interferência atmosférica compromete as interpretações dos
valores obtidos em diferentes condições atmosféricas
representadas na cena. Dessa forma, de modo a solucionar os
erros inerentes no DVI, foi desenvolvido o Índice de
Vegetação da Diferença Normalizada (Normalized Difference
Vegetation Index – NDVI), que tem obtido bons resultados e
tem sido mais utilizado nas análises de SR.

Índice de Vegetação da Diferença Normalizada


(NDVI)

O NDVI é calculado com base na diferença de reflectância


entre a faixa do infravermelho próximo (NIR) e a faixa do
vermelho. A normalização da diferença é dada pela soma das
faixas NIR e VIS (reflectância da faixa do visível), de modo
que a equação é representada da seguinte maneira:

NDVI = (NIR – RED)/(NIR + RED)

Em que:

» NDVI = Índice de Vegetação da Diferença Normalizada;


» NIR = reflectância da faixa do infravermelho próximo;
» RED = reflectância da faixa do vermelho;
» VIS = reflectância da faixa do visível.
Os resultados do NDVI são provenientes, principalmente,
pelo fato de esse índice combinar, em sua equação, duas
bandas do satélite. Essa combinação entre duas bandas
distintas promove uma atenuação dos efeitos atmosféricos na
imagem, assim como cobre parcialmente distorções
geométricas e, até mesmo, distorções radiométricas da
imagem. Dessa forma, o NDVI consegue destacar-se de
outros métodos que produzem diferentes índices de
vegetação. Podemos observar a vegetação, na Figura 4.7, em
destaque em tons mais claros na imagem A e com a aplicação
de cores na imagem B, ressaltada em amarelo.

Figura 4.7 – NDVI criado a partir das bandas NIR e VIS do Landsat 8 (A) e
aplicação de uma palheta de cores ao NDVI para ressaltar seus aspectos (B)
©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

A diferença, que também é uma vantagem, entre o NDVI e


o DVI, é que o NDVI elimina parcialmente os efeitos da
atmosfera com base em seu processo de normalização, que
elimina essas variações, inclusive aquelas provenientes do
ângulo de visada do sensor a bordo do satélite. Por esse
motivo, o NDVI tem tido grande aceitação no mercado e uma
ampla utilização, apresentando resultados consistentes e
confiáveis e ferramentas automáticas capazes de implementar,
sem o uso da linguagem de programação por parte do
analista, o índice das bandas espectrais do satélite analisado,
permitindo que sejam obtidas informações acerca do índice
de biomassa e das características da vegetação.

4.2.2 Modelagem tridimensional


A modelagem tridimensional (ou 3D, em três dimensões)
permite que seja obtida uma noção de profundidade na análise
da imagem, assim como altura, comprimento e largura
específicos de cada objeto. A modelagem tridimensional
aplica volume em uma imagem de satélite que,
tradicionalmente, é dada em duas dimensões, proporcionando
a visualização dos valores altimétricos em suas posições
relativas no espaço. Esse tipo de visualização pode ser feito
com base em estereoscopia, com a utilização de óculos
polarizados que permitem ao analista a noção de
profundidade, desde que ele tenha um par estereoscópico para
isso. No entanto, o tema deste tópico não trata de
estereoscopia, mas sim de uma noção de tridimensionalidade,
que é dada a partir dos modelos digitais de elevação (MDE)
em geoprocessamento.

Para construir esse tipo de modelo, MDE, é gerada, em um


software, uma grade regular ou irregular com base nos dados
de elevação oriundos de sensores ativos, os quais têm
embutidos em seu valor numérico uma cota altimétrica em
vez de um valor de reflectância. Esses dados permitem que a
partir da geração da grade seja possível obter uma perspectiva
tridimensional, podendo ser obtido, inclusive, o volume da
área representada. A textura, aplicada pelo analista, é a
definição das cores da superfície do modelo.

Uma das formas de visualizar o MDE é a partir dos níveis


de cinza da imagem que representam a variação altimétrica.
Essa representação é dada da seguinte maneira: quanto mais
branca a tonalidade, mais alto é o relevo; quanto mais preta a
tonalidade, mais baixo é o relevo (Figura 4.8 – A). Outra
forma de representação é por meio do relevo sombreado, em
que tons de cinza são utilizados para aplicar sombreamento na
imagem a fim de identificar com mais facilidade a drenagem
da região. Também é possível efetuar uma texturização com a
imagem de satélite, que pode ser uma imagem não processada
ou uma imagem que já passou por um processamento e que
permite que o usuário aplique a tridimensionalidade,
sobrepondo a imagem processada ao MDE (Figura 4.8 – B).

Figura 4.8 – Representação 3D em tons de cinza (A) e texturização com


imagem de satélite (B)

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.


Outra forma de gerar um modelo tridimensional é por meio
de um par de imagens estereoscópicas, em que cada uma
delas possibilita a visão de determinado ângulo de uma
mesma cena; assim, sobrepostas as imagens, dão uma noção
de profundidade. É possível, ainda, gerar um modelo
tridimensional a partir de pontos coletados no terreno em um
levantamento topográfico; esses pontos podem ser
processados em um software de Sistemas de Informações
Geográficas (SIG) e, em seguida, recebem a
tridimensionalidade. Sensores ativos, como laser (Lidar –
Light Detection and Ranging) também possibilitam a criação
de modelos tridimensionais precisos e detalhados de uma
cena e proporcionam aquisição de dados exatos e
extremamente detalhados.

4.3 Classificação de
imagens
O processo automático de análise é baseado em algoritmos
numéricos e apresenta a vantagem de poder ser aplicado em
todas as bandas espectrais da imagem quase que
simultaneamente. Esse processo utiliza também parte do
conhecimento e da experiência do analista para criar modelos
matemáticos que serão aplicados em toda a imagem. Esse tipo
de classificação de imagens é conhecido como análise
semiautomática da imagem, por utilizar a experiência do
analista, como citado anteriormente. Uma solução totalmente
automática não está distante da realidade, no entanto, ainda
não é totalmente confiável, pois os algoritmos podem conter
erros de interpretação ao serem aplicados sem a supervisão do
analista. Todavia, a ciência tem avançado nos estudos acerca
da inteligência artificial e vem criando mecanismos cada vez
mais sofisticados para chegar a um procedimento de análise e
interpretação da imagem totalmente automatizado.
O processo de análise visual ou automática de uma imagem
é realizado em um software de SIG, como o QGIS ou Spring,
para citar algumas aplicações gratuitas de fácil acesso ao
leitor. Esses softwares são facilmente adquiridos pela internet
e contam com diversos manuais e documentos técnicos que
orientam seu uso. No entanto, para qualquer procedimento
que envolve a análise e interpretação de imagens de SR, é
necessária atenção à teoria, abordada neste livro,
independentemente do software que esteja sendo utilizado.

4.3.1 Classificação supervisionada


A classificação supervisionada é um processo semiautomático
de classificação de imagens, pois utiliza o conhecimento do
analista no reconhecimento de objetos e fenômenos da
imagem analisada para que o software possa realizar o
procedimento de classificação em toda ela. Na classificação
supervisionada, o analista vai fornecer amostras de regiões da
própria imagem que ele identificou e classificou; essas
amostras servirão como áreas de treinamento para que o
software consiga compreender do que se trata cada classe.

Por exemplo, em uma análise de uma imagem, o


profissional deseja identificar até cinco classes, sendo elas:
vegetação; área urbana; hidrografia; manguezal; praia. Para
que o software consiga varrer toda a imagem e identificar os
pixels correspondentes a cada classe determinada pelo
analista, é necessário que seja fornecida a área de treinamento
de cada classe, assim o programa pode embasar-se nesses
dados e fazer uma análise comparativa, selecionando os pixels
que estiverem estatisticamente mais próximos da amostra
fornecida pelo analista. Portanto, para cada classe definida, o
analista irá delimitar um agrupamento de pixels
(segmentação) na própria imagem (Figura 4.9) e,
posteriormente, coletar amostras para as classes, associando
essas amostras a uma cor específica (Figura 4.10), a fim de
que, depois, sejam representadas na imagem classificada
(Figura 4.11).
Figura 4.9 – Delimitação de agrupamento de pixels (segmentação)

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

Figura 4.10 – Aquisição de áreas de treinamento

©SPRING - DPI/INPE
Fonte: Elaborado a partir de INPE, 2021d.

Figura 4.11 – Classificação da imagem digital

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

Importante!

A qualidade da classificação semiautomática será diretamente


proporcional à qualidade das áreas de treinamento fornecidas
pelo analista. A quantidade de amostras também é importante,
pois, quanto mais áreas de treinamento o software tiver para
cada classe, maior confiabilidade ele terá em suas análises
estatísticas, diminuindo eventuais erros provenientes do
processo de classificação.
É importante ressaltar que, apesar desse tipo de
classificação ter a participação direta do analista, ainda é uma
classificação com base em um processo automatizado, ou
seja, são algoritmos que trabalham com valores do contador
digital. Dessa forma, embora se trate de uma classificação
semiautomática, não é sensato supor que o sistema possa
efetuar análises de cunho subjetivo que são naturais da
capacidade humana. Por esse motivo, é necessário que o
analista forneça o máximo de amostras possíveis de modo
que os erros sejam pequenos ou quase nulos.

4.3.2 Classificação não supervisionada


Na classificação não supervisionada, as classes temáticas são
definidas posteriormente. Assim, primeiro é realizado o
processo de classificação e, em seguida, com base nesse
processo, o analista vai definir as classes temáticas de acordo
com o resultado que será apresentado. Nesse tipo de
classificação, também existem áreas de treinamento, como
ocorre na classificação supervisionada. O analista vai buscar
apenas alguns pixels referentes a áreas de interesse maior e
deixará que o software busque os outros pixels que compõem
as classes especificadas.

O analista vai utilizar o conhecimento prévio da área para


efetuar a interpretação das classes delimitadas. É um
procedimento em que se faz necessário o trabalho de campo
para que possa ser feita a correlação entre o conhecimento
geral e a classificação automática realizada. Não existe
controle do analista na criação das classes; trata-se de um
processo objetivo e automatizado, mas que pode conter erros
justamente por não trabalhar com a subjetividade inerente ao
processo de interpretação. O aspecto subjetivo proveniente do
conhecimento do analista e de sua sensibilidade é necessário
para o reconhecimento de certos padrões, formas ou outro
aspecto. Uma abordagem totalmente automatizada não
apresenta tal nível de subjetividade: pode ser inerente a erros,
ainda que de pequena ordem, ou pode ter resultados
satisfatórios, como podemos observar na Figura 4.12, que
apresenta o resultado de uma classificação não supervisionada
da mesma área exemplificada no tópico anterior.

Figura 4.12 – Resultado de uma classificação não supervisionada

©SPRING - DPI/INPE

Fonte: Elaborada a partir de INPE, 2021d.

No entanto, é importante ressaltar que os algoritmos têm


adquirido muita sofisticação nos últimos anos, possibilitando
maior nível de confiabilidade. Novas técnicas têm sido
desenvolvidas para que seja possível realizar a classificação
automatizada e não supervisionada com resultados mais
precisos e coerentes com a realidade.

Síntese
Neste capítulo, abordamos algumas das principais
metodologias de interpretação de imagens, ou seja, as
técnicas para interpretação e análise visual da imagem
baseada nas características visuais apresentadas. Vimos como
os índices de vegetação são criados, fornecendo informações
preciosas acerca da qualidade da vegetação e possibilitando,
inclusive, o monitoramento desse tipo de elemento.
Observamos informações básicas sobre o processo de
classificação de imagens de satélite que possibilita realizar
uma varredura automática ou semiautomática na imagem,
com objetivo de identificar feições e classificar imagens de
acordo com regras previamente ou posteriormente
estabelecidas.

Atividades de autoavaliação

1. Uma imagem digital tem múltiplas representações e


significados, no entanto, no que diz respeito à realidade, é
correto afirmar que é uma imagem digital é:
a) uma simplificação da realidade.

b) uma representação fidedigna da realidade.

c) uma simulação da realidade.

d) a visão do analista da realidade.

e) uma representação completa da realidade.

2. Imagem de 8 bits, geralmente representada em tons de


cinza, apresenta uma variação que obedece ao nível de
reflectância de cada objeto na superfície da Terra. Quanto
à representação do nível de reflectância em tons de cinza
da imagem, é correto afirmar que:
a) existem 257 tons de cinza na imagem, variando do zero ao
257.
b) existem oito tons de cinza na imagem, variando do zero ao
7.
c) existem 256 tons de cinza na imagem, variando do zero ao
255.
d) existem 557 tons de cinza na imagem, variando do zero ao
556.
e) existem 200 tons de cinza na imagem, variando do 1 ao
200.

3. Analise as afirmativas a seguir.


I. A diferença entre a visão ortogonal e a visão em
perspectiva pode trazer algumas dificuldades no processo
interpretativo por parte do analista, ainda que algumas
feições, como um campo de futebol, rios e estradas, tenham
características que sejam facilmente reconhecíveis do
ponto de vista ortogonal.

Porque:

II
. Quando um objeto é observado a partir de uma visão
ortogonal, todas as características de sua forma são
perdidas, e ele passa a ser representado apenas por um
quadrado ou retângulo. Portanto, o processo de
interpretação por meio da forma tem algumas
especificidades que devem ser consideradas de acordo com
o objeto a ser observado.

Agora, assinale a alternativa correta:


a) A afirmativa I está correta e a II está incorreta.

b) A afirmativa II está correta e a I está incorreta.

c) A afirmativa I está correta e a II também está correta e


complementa a primeira.
d) As afirmativas são excludentes.

e) As duas afirmativas estão incorretas.

4. O NDVI se diferencia do DVI em razão de:


a) utilizar apenas bandas NIR.

b) utilizar apenas bandas RED.

c) somar as bandas NIR e VIR em vez de subtraí-las.

d) subtrair as bandas NIR e VIR em vez de somá-las.

e) normalizar a diferença, acrescentando uma soma entre as


bandas NIR e RED.

5. A classificação supervisionada realiza, de forma


semiautomática, o reconhecimento e a classificação dos
pixels na imagem. É um procedimento eficaz e que tem
tido bons resultados, desde que haja:
a) uma quantidade considerável de áreas de treinamento
adquiridas de forma totalmente automática.
b) poucas áreas de treinamento para não interferir no
processamento do algoritmo.
c) uma qualidade elevada na estipulação das classes por parte
do analista para que o sistema possa identificar sozinho os
pixels pertencentes às classes.
d) áreas de treinamento em grande quantidade e de boa
qualidade adquiridas pelo analista com base em seu
conhecimento e em sua experiência.
e) áreas de exemplo que serão classificadas automaticamente
pelo sistema.

Atividades de aprendizagem

Questões para reflexão

1. Acesse o site do Instituto Nacional de Pesquisas Espaciais


(INPE) e realize uma pesquisa nos materiais didáticos ali
existentes acerca dos diferentes tipos de métodos de
classificação imagens que envolvem processos diferentes
daqueles tratados neste capítulo.
INPE – Instituto Nacional de Pesquisas Espaciais. Disponível em: <http://
www.inpe.br>. Acesso em: 5 jan. 2021.

2. Realize uma pesquisa acerca do uso da lógica fuzzy no


processo de classificação de imagens de satélite,
analisando as vantagens e as desvantagens obtidas na
aplicação desse método.

3. Realize uma pesquisa na internet e procure artigos


científicos que informem o que é o Geobia (Geographic
Object-Based Image Analysis) e seu uso no processo de
classificação de imagens.

Atividade aplicada: prática


1. Com os conhecimentos adquiridos até esta etapa, trace um
planejamento de metodologias de interpretação de
imagens com a finalidade de identificar áreas de
vegetação nativa em uma reserva ambiental.

1 Conforme o IBGE (2020): “Aglomerado Subnormal é uma forma de


ocupação irregular de terrenos de propriedade alheia – públicos ou
privados – para fins de habitação em áreas urbanas e, em geral,
caracterizados por um padrão urbanístico irregular, carência de serviços
públicos essenciais e localização em áreas com restrição à ocupação. No
Brasil, esses assentamentos irregulares são conhecidos por diversos nomes,
como favelas, invasões, grotas, baixadas, comunidades, vilas, ressacas,
loteamentos irregulares, mocambos e palafitas, entre outros.”
5
Aplicações de
imagens

João Victor Pacheco Gomes


O sensoriamento remoto (SR) proporciona dados que podem
ser utilizados em diferentes áreas do conhecimento com
diversas aplicações. A análise de uma imagem de satélite
proporciona ao profissional um rico material do qual podem
ser extraídos estudos de natureza preliminar e até os mais
complexos, desde que se apliquem as técnicas necessárias e
os objetivos do estudo estejam bem definidos. A
aplicabilidade vasta desse material contribuiu para a
popularização de sua tecnologia, atingindo segmentos tão
distintos como as diferentes áreas da ciência até o ilustrativo
entretenimento, como aplicações de exploração do ambiente,
tais como Google Earth.

As aplicações profissionais, contudo, são aquelas que mais


se beneficiam com as potencialidades das imagens de satélite,
e é importante que você, leitor, esteja a par das principais
formas de aplicação das imagens de satélite para que possa
orientar-se sobre como extrair o máximo de informação desse
material, assim como apoiar ideias para estudos futuros.

O objetivo deste capítulo é abordar algumas das principais


aplicações em que as imagens de satélite têm um papel
fundamental na estação de informação e análise de um
fenômeno de característica geográfica. Apresentaremos como
exemplos aplicações e imagens para estudos diversos, tais
como fenômenos ambientais, ambientes naturais, ambientes
antropizados 1 e aplicações no âmbito da educação.

Conforme destaca Centeno (2003), o SR amplia a


percepção do meio ambiente pelos seres humanos. Isso
porque seus vários sensores medem a energia em faixas
espectrais não alcançadas por nossos olhos, a exemplo da
energia infravermelha, das micro-ondas e do laser.

5.1 Fenômenos ambientais


O estudo de fenômenos ambientais é cada vez mais
necessário devido ao seu impacto no cotidiano dos seres
humanos. Fenômenos ambientais são aqueles relacionados a
eventos dinâmicos e que não têm ação direta do ser humano.
Dessa forma, podemos classificar a análise dos processos
erosivos em dada região e suas consequências ao longo do
tempo e dos fenômenos que envolvem os movimentos de
massa que podem causar desastres, não apenas em áreas
naturais, mas também em áreas urbanizadas, como estudo de
fenômenos ambientais. Nesse sentido, é importante ressaltar
que a ação antrópica pode ocorrer, mas não é uma ação direta,
já que o movimento de massa depende também de
características naturais para que aconteça, como profundidade
do solo, granulometria, porosidade, resistência, entre outros
fatores.

Outros exemplos de fenômenos ambientais que podem ser


estudados por imagens de satélite são aqueles relacionados a
vulcanismo, enchentes, alterações na atmosfera, entre outros.
Uma característica fundamental dos fenômenos ambientais
que podem ser analisados por meio de imagens satélite é que
eles devem, fundamentalmente, deixar marcas na paisagem
para que sejam observados nas imagens. Com relação a
fenômenos que serão analisados em um estudo de longo
prazo, por exemplo, também deve ser considerado o período
de imageamento dos satélites, caso se faça um estudo de
natureza pretérita até o presente, sendo necessário identificar
a periodicidade do fenômeno conhecido, ou seja, o período de
imageamento da superfície terrestre para que o estudo seja
possível. Dessa forma, não é qualquer estudo de fenômeno
ambiental que deixa marca na paisagem que pode ser
realizado por meio do SR; isso vai depender de características
convergentes entre a natureza do fenômeno e a tecnologia
disponível.

Um dos exemplos mais comuns de aplicação de SR para o


estudo de fenômenos ambientais, em que tanto a natureza do
fenômeno quanto a característica da tecnologia apresentam
características que impactam diretamente o dia a dia da
população, é a aplicação das imagens de satélite para a
previsão do tempo. O imageamento de satélite com objetivo
de prever as características do tempo tem uma característica
tão usual no nosso dia a dia que não nos damos conta, ainda
que estejamos estudando o assunto, que são informações
oriundas de sensores remotos, imagens que passaram por
processamentos com o objetivo de estudar a condição
atmosférica, e não a superfície terrestre.

5.1.1 Análise das condições do tempo


A previsão do tempo é um tipo de estudo relacionado à área
de meteorologia que trabalha com estimativas baseadas nos
padrões observados das condições atmosféricas representadas
nas imagens de satélite. Para tanto, é necessário que ocorra o
monitoramento contínuo da superfície terrestre, não sendo
possível, portanto, a utilização de satélites que tenham uma
resolução temporal de cinco ou dez dias ou, ainda, satélites
que apresentem resolução temporal de um dia. Para que
posssamos prever as condições do tempo ao longo do dia,
para o dia seguinte e para os dias subsequentes, é necessário
que a atualização seja a mais dinâmica possível. Dessa forma,
a resolução temporal é o principal fator a ser considerado na
aquisição das imagens; por esse motivo, satélites
meteorológicos imageadores são capazes de gerar imagens da
Terra a cada 30 minutos, como é o caso do satélite
meteorológico Goes.

As imagens do satélite em questão são analisadas pelos


profissionais que conseguem estimar, a partir da visualização
da movimentação das nuvens e das massas de ar detectadas
por meio de sensores que identificam a variação de
temperatura, as condições do tempo no momento. A partir de
um conjunto de imagens, entre duas a cinco imagens captadas
durante um período, é possível identificar a variação espacial
do fenômeno e seu direcionamento sobre a superfície
terrestre. Considerando características ambientais, como a
geomorfologia e a temperatura das massas e do oceano, é
possível estimar as alterações que o movimento dessas
massas pode causar na superfície ao longo de seu trajeto.

Ao analisar as Figuras 5.1 e 5.2, podemos identificar a


variação no posicionamento de nuvens sobre a superfície da
América do Sul. A resolução temporal é uma característica
importante das imagens de SR e tem como objetivo avaliar as
condições do tempo, ao passo que a resolução espacial é
negligenciada. Dessa forma, detalhes da superfície terrestre
não podem ser observados nesse tipo de imagem, sendo
apenas possível avaliar a movimentação dessas grandes
massas em uma área extremamente extensa, como a que está
sendo representada nas figuras mencionadas. As imagens de
satélite para fins climáticos e meteorológicos possibilitam que
questões referentes ao movimento das massas sejam
avaliadas, assim como dos oceanos, mas não é possível fazer
nenhum tipo de aproximação para observar fenômenos que
ocorrem na superfície ou identificar qualquer informação
nesse sentido. A escala da imagem, portanto, é abrangente, o
que também permite que os estudos para previsão do tempo
possam estimar com maior precisão o direcionamento das
massas de ar frio, ar quente e da concentração de nuvens
carregadas em determinadas regiões e que se movimentam
em um vasto território, sendo possível estimar e antecipar
determinados fenômenos.

Figura 5.1 – Imagem do satélite Goes de 03/12/2018


©SPRING - DPI/INPE

Fonte: INPE, 2021f.

Ao analisar a Figura 5.1, observamos que existe uma


intensa concentração de nuvens sobre o território brasileiro,
predominantemente na Região Norte, estendendo-se para as
regiões Sudeste, Nordeste e parte do Centro-Oeste. Na Região
Sul, concentra uma quantidade intensa de nuvens no litoral do
Paraná e de Santa Catarina. A análise do comportamento das
nuvens em uma sequência de imagens captada pelo satélite ao
longo do dia determina o direcionamento e o posicionamento
dinâmico dessas grandes massas dando subsídios aos
meteorologistas para estimar, por exemplo, as condições do
tempo atuais e futuras nas diversas regiões do país.

Figura 5.2 – Imagem do satélite Goes de 05/11/2018

©SPRING - DPI/INPE

Fonte: INPE, 2021f.

A Figura 5.2 já evidencia outro padrão registrado em uma


data distinta da imagem anterior. Nesse dia específico, é
possível observar que existe uma intensa concentração de
nuvens no Sudeste, sobretudo no Rio de Janeiro e no Espírito
Santo. Em Minas Gerais, a maior parte do território está
coberta, mas não sua totalidade. Nas outras regiões, é possível
observar que existem poucos focos nuvens que podem causar
precipitações pontuais, mas, de modo geral, no momento
observado na imagem, ou seja, no momento em que a
imagem foi adquirida, com exceção da Região Sudeste,
grande parte do território brasileiro recebia incidência solar.

5.2 Ambientes naturais


Os ambientes naturais são aqueles constituídos, quase que em
sua totalidade, por elementos provenientes da natureza, mas
que podem conter a presença e a interferência da sociedade.
Em muitos casos, os estudos referentes aos ambientes
naturais dizem respeito ao resultado das ações antrópicas
indiretas implementadas no ambiente natural. Em outros
casos, o estudo dos ambientes naturais visa extrair
informações e características acerca das condições dos
elementos naturais dispostos na paisagem. De modo geral,
podemos afirmar que o estudo de ambientes naturais envolve
o estudo de solo, vegetação, geologia, recursos hídricos, entre
outros. Neste tópico, vamos citar algumas ações que podem
ser implementadas em estudos ambientais. Ao final, vamos
conferir um exemplo específico acerca das características do
solo com base em dados de SR.

O estudo da vegetação por meio de imagens digitais tem


como objetivo avaliar as características de reflectância
espectrais da vegetação, a fim de diferenciá-las quanto à
maturidade, à qualidade e à densidade. Os estudos nessa área
adquirem um caráter fisiológico ao avaliar desde os
pigmentos de uma folha até seu nível de nutrientes. É
possível identificar todas essas características a partir da
análise da assinatura espectral da vegetação e de uma análise
comparativa de um comportamento a longo prazo das
condições espectrais da vegetação da região analisada.

É possível estimar também, a partir dessa metodologia, a


quantidade de água existente na vegetação com base no grau
de absorção de energia eletromagnética nas folhas. Sabemos
que a água absorve grande parte da energia eletromagnética e,
por isso, quanto maior a quantidade de água na característica
da vegetação, maior a capacidade de absorver e reter a
energia eletromagnética em vez de refletir para o sensor. É
uma condição interessante e extremamente útil, pois pode
caracterizar uma situação de risco para vegetação no caso de
o nível de reflectância ser extremamente alto e não apresentar
indícios de presença de água, manifestando o ressecamento,
que, posteriormente, pode causar a morte de toda a vegetação
existente.

Aplicações em geologia também têm como base o estudo


da energia eletromagnética refletida, no entanto, o objetivo é
identificar a composição química e os minerais que compõem
os diferentes tipos de rochas da superfície. Afinal, isso é
possível de ser feito quando se utilizam imagens
multiespectrais, em que podemos utilizar um grande número
de bandas espectrais para realização desse tipo de análise e
comparar as assinaturas espectrais da rocha nas diferentes
bandas que evidenciam o comportamento espectral de
diferentes elementos químicos e minerais. É possível,
portanto, identificar diferentes tipos de rochas e sua
composição a partir de imagens de satélite, aplicando a
metodologia de análise e interpretação de imagens de acordo
com a teoria existente no âmbito da geologia sobre a litologia
desses minerais.

Da mesma forma, podemos identificar evidências da


existência de minerais de interesse econômico, assim como
identificar desastres geológicos, falhas e estruturas
geomorfológicas que evidenciam o aspecto do terreno. O uso
do SR em geologia é extremamente vasto, facilitando a
análise de grandes áreas de maneira simultânea. Mapas
geológicos que evidenciam os diferentes tipos de rochas da
região com configurações geológicas e geomorfológicas
existentes em determinada porção do espaço têm sido
gerados, nos últimos tempos, com o auxílio de dados
oriundos de SR a partir das metodologias de análise e
interpretação de imagens.
Como nos exemplos anteriores, o estudo de recursos
hídricos também têm-se beneficiado com a aplicação de
imagens de satélite para estudos mais abrangentes. O uso de
modelos digitais cada vez mais precisos, apresentando uma
tridimensionalidade que possibilita avaliar diferentes aspectos
do terreno, proporciona aos estudos de recursos hídricos
material extremamente rico para análise. O estudo de bacias
hidrográficas tem utilizado esse material para geração de
modelos digitais de elevação hidrologicamente consistentes,
ou seja, modelos que permitem que o traçado da hidrografia
seja feito com extrema precisão, baseado em dados
tridimensionais com escala maior do que aquela que
geralmente é fornecida pelos institutos oficiais, como a
Agência Nacional de Águas (ANA, 2021), que gera a
hidrografia relacionada ao Brasil sem apresentar um
detalhamento específico para cada área.

Além disso, é possível realizar o monitoramento da


qualidade da água a partir do cruzamento de diferentes bandas
de imagem do satélite, as quais podem evidenciar sedimentos
em suspensão ou, até mesmo, o nível de turbidez e a presença
de elementos químicos danosos à saúde misturados na água.
A água pura e limpa absorve totalmente a energia
eletromagnética, no entanto, elementos em suspensão ou
misturados na água, que podem ser danosos à saúde, reagem
com espectro eletromagnético e são evidenciados em
diferentes bandas do satélite. Esse tipo de estudo deve ser
realizado com base em materiais que fornecem apoio ao
analista acerca do que está sendo procurado, ou seja, dos tipos
de elementos que são danosos à saúde e que podem estar
presentes na água em determinadas condições. É um dos
motivos pelos quais se costuma dizer que um estudo de SR
deve ser feito por uma equipe multidisciplinar, composta por
profissionais que entendam de assuntos diversos que se
complementam, a fim de que o estudo seja mais rico e preciso
possível.

5.2.1 Estudo do solo


Os principais fatores para interpretação e análise dos tipos de
solo (pedologia) por imagens de satélite estão relacionados à
identificação das cores. Trabalha-se, portanto, com regiões do
espectro na faixa do visível para suprir a necessidade do
profissional de identificar cores específicas que evidenciam,
já na faixa do visível, características específicas do solo. No
entanto, as imagens multiespectrais que apresentam diferentes
bandas também são extremamente utilizadas para a
identificação de propriedades químicas do solo, como a
existência de coloides, acidez, entre outros elementos.

O estudo das características espectrais do solo, assim como


o estudo de elementos da geologia, tem grande importância e
usabilidade no âmbito da pedologia. O uso de SR não
substitui a prática de laboratório necessária para a
identificação dos diferentes tipos de solo, mas auxilia o
procedimento de análise, evidenciando algumas
características que podem gerar hipóteses e estimativas acerca
do tipo de solo existente em uma região, assim como aspectos
importantes sobre propriedades químicas, umidade, densidade
e presença de diferentes elementos no solo.

Os aspectos importantes existentes nas imagens de satélite,


e que dão suporte ao estudo e à interpretação dos diferentes
tipos de solo, estão relacionados à presença de ar e de água no
solo. A presença de ar e de água são elementos fundamentais
para a ocorrência de intemperismo químico, responsável pelo
desenvolvimento do solo. Contudo, o excesso de ar ou de
água pode interromper o processo de intemperismo,
impedindo que o solo se desenvolva, mas acaba criando
condições diferenciadas no ambiente no qual alguns
organismos são mais adaptados e que interferem nas
condições de uso por parte do homem.

A Figura 5.3 apresenta um exemplo do que podemos obter,


em um primeiro momento, com a imagem de satélite para
análise do solo. A partir de uma imagem do satélite Landsat 8,
obteve-se a seguinte composição colorida falsa-cor com base
nas bandas do visível e do infravermelho do espectro
eletromagnético. O resultado é uma imagem que ressalta
alguns aspectos do ambiente, como a presença de áreas
urbanizadas, indicadas em rosado, a rede hidrográfica,
representada pelos canais em cores pretas, por absorver toda a
energia. Além disso é possível observar se o solo é composto
por diferentes tons de verde, evidenciados não apenas pela
vegetação existente, mas também pela própria composição
que confere esse tipo de tonalidade ao solo, ainda que
exposto. A variação de tons de verde possibilita chegarmos a
algumas conclusões. O conhecimento da área permite
identificar na imagem que, quanto mais escuro o tom de verde
ali existente, maior é a presença de umidade no solo,
evidenciada pela região em verde-musgo, que configura uma
área de manguezal. As áreas em tom de verde mais claro
apresentam um solo mais seco e degradado; não por acaso
essas áreas, em sua maioria, estão próximas de focos de
urbanização.

Figura 5.3 – Comportamento espectral do solo

©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.


Esse exemplo apenas evidencia a fase inicial de um
possível estudo acerca da qualidade do solo de uma região.
Aplicando-se técnicas de interpretação de imagens, é possível
chegar a conclusões ainda mais complexas e específicas. É
provável que o analista tenha de trabalhar com diferentes
bandas e várias composições coloridas para que possa traçar o
verdadeiro perfil do tipo de solo e de sua qualidade em
determinada região, mas esse estudo é perfeitamente viável,
factível e extremamente usual graças à diversidade de bandas
espectrais existentes nos diferentes sensores a bordo dos
satélites.

5.3 Ambientes antropizados


Os ambientes antropizados são aqueles que têm interferência
direta da ação antrópica, ou seja, são alterados, construídos e
mantidos pela ação do homem. Diferentes exemplos podem
ser utilizados para ilustrar um ambiente antropizado, desde
parques industriais, grandes fábricas, fazendas, plantações,
entre outros. No entanto, o mais utilizado, e que tem gerado
maior interesse nos últimos tempos, é o solo urbano. O
interesse atual pelo solo urbano vem na esteira do
desenvolvimento de sensores cada vez mais precisos e
capazes de identificar maiores detalhes dos objetos na
superfície terrestre. A melhoria na resolução espacial dos
sensores orbitais possibilitou que o estudo de áreas
urbanizadas apresentassem detalhes e com muitas aplicações.

O solo urbano é estudado em diferentes níveis, desde sua


propriedade espectral para diferenciar os vários tipos de
edificação e os diversos níveis de densidade urbana, até sua
propriedade espacial, que avalia a dimensionalidade do
fenômeno urbano. Estimativas acerca do tamanho das
moradias já podem ser realizadas, e prefeituras já tem a
possibilidade de realizar o cálculo do IPTU (Imposto sobre a
Propriedade Predial e Territorial Urbana) de residências com
base no reconhecimento e no tamanho da área de cada
edificação, assim como identificar o tipo de edificação com
base em fatores diversos compostos por imagens e dados
altimétricos.

A Figura 5.4 mostra um exemplo da aplicação de uma


imagem falsa-cor para identificação de áreas com focos de
urbanização. É a composição falsa-cor realizada em um
conjunto de imagens do satélite Landsat 8, em que se aplicou
o canal de cor vermelha em uma região do espectro
infravermelho que é composta pela banda 5 do satélite em
questão. O resultado evidencia toda a vegetação em vermelho
e aplica uma coloração azul e branca em todo ambiente
organizado, ou seja, em todo elemento que não é composto
por água ou vegetação. É um método interessante de se
analisar a presença de focos urbanos, principalmente em áreas
densamente florestadas, pois, em regiões do espectro do
visível, pode não ser muito clara para um analista a presença
de um foco de urbanização em uma região
predominantemente em tons de verde por conta da vegetação.
Uma composição colorida falsa-cor, como a apresentada na
Figura 5.4, possibilita ao analista uma facilidade no processo
de análise e interpretação de elementos que fogem ao padrão.

Como pode ser observado na Figura 5.4, as áreas em


vermelho, que deveriam ser predominantemente de
vegetação, apresentam focos de urbanização evidenciados por
objetos de cor azulada que, pela configuração, em alguns
pontos da imagem apresentam focos urbanos com estrutura
desordenada, o que pode evidenciar o aparecimento de um
aglomerado subnormal. A análise desse tipo de padrão faz
parte do reconhecimento do uso do solo urbano, o que
evidencia a necessidade de implementação de políticas
públicas e de um planejamento urbano e territorial na região
da cidade.

Figura 5.4 – Análise da paisagem urbana


©SPRING - DPI/INPE

Fonte: Elaborado a partir de INPE, 2021d.

O crescimento vertiginoso das cidades e o aparecimento


das megacidades nas últimas décadas evidencia a necessidade
constante no desenvolvimento de técnicas e metodologias que
propiciem uma melhor análise do uso do solo urbano. Não
apenas nesse sentido, mas todo e qualquer ambiente
antropizado demanda um interesse peculiar do uso do
sensoriamento remoto, tendo em vista que o monitoramento
das atividades do homem é extremamente importante como
base para tentar diminuir erros e potenciais desastres.

5.4 Educação
O ambiente educacional tem passado por diversas
modificações nos últimos anos, e o perfil dos alunos tem sido
modificado principalmente pelo incremento do uso da
tecnologia na sociedade. A escola não deve abster-se do
desenvolvimento tecnológico, mas sim integrá-lo para tornar
as aulas mais interessantes e tornar o aluno um participante
do processo didático-pedagógico, gerando maior interesse
pelo conteúdo. O SR insere-se nesse contexto como
ferramenta de extremo interesse por parte dos professores e
dos alunos, uma vez que compõe aplicações do dia a dia e faz
parte de um imaginário lúdico ao qual o acesso é
diferenciado. Cabe ao professor trazer esse material à aula e
fazer com que o aluno perceba que se trata de um
conhecimento acessível, a partir do qual é possível
compreender diversos conceitos e conteúdo de disciplinas
diversas do cotidiano do discente.

Importante!
O professor pode, portanto, desenvolver materiais
diferenciados com base na experiência do aluno, colocando-
os como parte do processo produtivo, na medida em que
desenvolve com ele a análise da imagem. Trabalhando assim,
ao mesmo tempo, conceitos relativos à disciplina que podem
abranger desde a geografia humana em seus aspectos
econômicos, urbanos, populacionais, até a geografia física,
em seus aspectos geomorfológicos, geológicos, hidrológicos,
entre outros.

O estudo da cartografia também pode ser facilitado com o


uso de imagens de satélite que auxiliam no processo de
desconstrução de alguns conceitos errôneos que os alunos
podem ter, principalmente com relação à noção espacial.
Além disso, é possível construir com o aluno, a partir de
imagens de satélite, mapas específicos da região e mostrar a
escola, o bairro, o município, entre outros temas que o
professor julgar necessários e que facilitem o processo de
interpretação por parte do aluno. Um grande problema
existente nos materiais didáticos está relacionado à
impossibilidade de aplicação do conhecimento por parte do
aluno em razão de a temática não fazer parte de seu cotidiano.
O domínio do SR pode ser uma ferramenta rica para o
professor aproximar o conhecimento que está sendo aplicado
em sala de aula para a realidade do aluno em atividades
práticas e lúdicas que vão facilitar o processo cognitivo.

Além disso, o SR proporciona a realização de atividades


multidisciplinares, aquelas que são contempladas por
disciplinas diversas, pois se trata de uma tecnologia que serve
não apenas à disciplina de Geografia, mas também ao estudo
da história, evidenciando a variação e a mudança das
características e das formas do espaço através do tempo. A
disciplina de História beneficia-se com o acervo histórico das
imagens de satélite e os dados oriundos do
geoprocessamento, que podem ser incluídos, trazendo ao
aluno conceitos e características da região na qual ele está
inserido, facilitando, assim, o processo de abstração e de
identificação da região.

Da mesma forma, a disciplina de Biologia pode trabalhar


questões referentes à vegetação de diferentes tipos de biomas
e cruzar essas informações com características da região que
vão evidenciar os habitat naturais de algumas espécies. A
disciplina de Biologia dispõe no SR uma ferramenta rica e
poderosa com a qual pode cruzar informações diversas do
ambiente que vão impactar as diferentes formas de vida do
planeta e seu desenvolvimento.

A matemática está inserida no contexto do SR, uma vez


que as operações aritméticas podem ser efetuadas em
diferentes modos de imagem de satélite. Cabe ressaltar que
uma imagem é uma matriz matemática, e, por esse motivo,
operações entre matrizes são implementadas nos cálculos
entre as bandas da imagem. O professor de Matemática pode
utilizar esse artifício para atrair a curiosidade do aluno e
mostrar-lhe uma aplicação prática dos conteúdos ensinados
em sala.

A teoria do SR e a forma de aquisição das imagens também


são campos de aplicação do ensino de Física. O professor
pode trabalhar a questão do eletromagnetismo com os alunos
e até questões de óptica. A forma de aquisição das imagens e
a posição dos sensores e sua localização em região orbital
propiciam um ambiente rico para diferentes possibilidades de
aplicação dos conceitos da física para os alunos.

O estudo de Química, por sua vez, é beneficiado, como


destacamos nos tópicos anteriores, com o uso das bandas
multiespectrais que podem fornecer ao professor subsídios
para a identificação de diferentes elementos químicos
presentes no planeta. Trata-se de uma possibilidade de o
professor sair do campo teórico e mostrar para o aluno como
o conhecimento pode ser aplicado. As propriedades físicas do
solo e das rochas compõem uma estrutura química de análise
que podem ser trabalhadas pelo professor de Química em
conjunto com outras disciplinas, construindo materiais
diferenciados para os alunos.

Além dos exemplos citados, noções de sociologia,


português e até mesmo de arte podem ser trabalhadas durante
todo o processo de interpretação e análise das imagens, bem
como no processo de classificação. Assim, uma única
ferramenta pode proporcionar um trabalho em conjunto de
todas as disciplinas por parte dos professores a partir de um
trabalho multidisciplinar, demonstrando como ocorre a
convergência dos conhecimentos na prática.

Por ser um conhecimento relativamente novo, o SR ainda


não é amplamente contemplado nas salas de aula, mas já
existem iniciativas, inclusive do Instituto Nacional de
Pesquisas Espaciais (INPE), para a capacitação de professores
no uso desse conjunto de técnicas para aplicação em sala de
aula.

Síntese
Neste capítulo, analisamos algumas das principais aplicações
de SR no âmbito dos estudos de fenômenos ambientais e dos
estudos meteorológicos para previsão do tempo. Também
discutimos como as imagens podem fornecer subsídios para
análise de ambientes naturais, demonstrando, como exemplo,
o estudo das características do solo a partir de uma
composição colorida falsa-cor, que evidenciou algumas
características importantes da paisagem. Além disso,
verificamos questões referentes ao uso ambientes
antropizados que tiveram como foco as áreas urbanas e sua
distribuição espacial. Por fim, vimos como as imagens
digitais podem ser aplicadas no âmbito da educação, sendo
utilizadas em projetos multidisciplinares como auxílio em
diferentes disciplinas.

Atividades de autoavaliação

1. Analise as afirmativas a seguir:


I. Uma característica fundamental dos fenômenos ambientais
que podem ser analisados por meio de imagens satélite é
que eles devem fundamentalmente deixar marcas na
paisagem.

Porque:

II
. É necessário que emitam o nível de reflectância ideal para
que o sensor do satélite capte as discrepâncias.
a) A afirmativa I está correta e a II está incorreta.

b) A afirmativa II está correta e a I está incorreta.

c) A afirmativa I está correta e a II também está correta e


complementa a primeira.
d) As afirmativas são excludentes.
e) As duas afirmativas estão incorretas.

2. A principal característica a ser considerada nas imagens


de satélite para fins meteorológicos deve ser:
a) a resolução espacial.

b) a resolução radiométrica.

c) a resolução espectral.

d) a resolução temporal.

e) a quantidade de pixels.

3. O estudo da vegetação por meio de imagens digitais tem


como objetivo tanto avaliar as características de
reflectância espectral da vegetação quanto as diferenciar
no que se refere à maturidade, à qualidade e à densidade.
Os estudos nessa área adquirem um caráter fisiológico ao
avaliarem desde os pigmentos de uma folha até o nível de
nutrientes dela. É possível identificar todas essas
características a partir da análise:
a) do ordenamento dos pixels.

b) da forma.

c) da assinatura espectral.

d) da altimetria.

e) da atmosfera.

4. O solo urbano é estudado em diferentes níveis, desde sua


propriedade espectral, para identificar os vários tipos de
edificação e os diversos níveis de densidade urbana, até
sua propriedade espacial, que avalia a dimensionalidade
do fenômeno urbano. Quanto ao solo urbano, assinale a
afirmativa correta:
a) O fenômeno urbano não desperta tanto interesse em
estudos científicos quanto os fenômenos naturais, já que
estes últimos demandam atenção pela sua preservação.
b) O solo urbano não apresenta nenhum tipo de impacto
gerado pela ação antrópica. Seu desenvolvimento natural
ocorre com base no acompanhamento do crescimento
populacional e da complexidade social.
c) Os satélites foram criados exclusivamente para adquirir
informações do solo urbano e, com o tempo, evidenciou-se
a aplicabilidade em outras áreas.
d) O crescimento vertiginoso das cidades e o aparecimento
das megacidades nas últimas décadas evidencia a
necessidade constante do desenvolvimento de técnicas e
metodologias que possibilitem uma melhor análise do uso
do solo urbano.
e) O SR não é capaz de utilizar técnicas avançadas de
interpretação de imagens para a análise do solo urbano em
razão do tamanho dos pixels.

5. Assinale a alternativa que apresenta corretamente uma das


maiores vantagens no uso de imagens de satélite no
âmbito da educação:
a) A aplicação da técnica para a reestruturação do ambiente
acadêmico.
b) A aplicação em atividade de casa.

c) O uso em estudos em âmbito global.

d) A criação de atividades individuais.


e) O uso multidisciplinar da técnica.

Atividades de aprendizagem

Questões para reflexão

1. Acesse o site da Embrapa (Empresa Brasileira de


Pesquisa Agropecuária) e pesquise como é realizado o
estudo das características do solo e sua classificação com
base nas imagens de satélite.
EMBRAPA – Empresa Brasileira de Pesquisa Agropecuária. Disponível
em: <https://www.embrapa.br>. Acesso em: 5 jan. 2021.

2. Pesquise os padrões utilizados no monitoramento da


qualidade da água pela empresa distribuidora de seu
município. Aponte quais deles podem ser identificados
por meio do SR.

3. Acesse os sites das prefeituras da cidade do Rio de


Janeiro e da cidade de São Paulo e avalie como essas duas
grandes capitais estão utilizando o SR em sua
administração.

Atividades aplicadas: prática

1. Crie uma atividade interdisciplinar para ensinar


geomorfologia para alunos do ensino médio de uma
escola tendo como base produtos de SR.

2. Elabore um plano de aula com o tema geografia urbana


em que o recurso didático obrigatório seja uma imagem
de satélite Landsat-8. Considere uma aula de 50 minutos
em uma turma do 2º ano do ensino médio.

1 Ambientes que sofreram ação antrópica.


6
Práticas em
sensoriament
o remoto

Monyra Guttervill Cubas


Podemos encontrar no mercado uma grande variedade de
softwares e ferramentas de SIG (Sistemas de Informações
Geográficas) e PDI (Processamento Digital de Imagens).
Estão disponíveis tanto na versão gratuita quanto na versão
comercial, também nos formatos desktop, web ou mobile.
Para escolher a ferramenta que mais se adeque ao seu
trabalho, é necessário que o analista avalie os recursos
financeiros e tecnológicos disponíveis, seu conhecimento
sobre linguagens de programação e quão aprofundado é seu
conhecimento sobre sensoriamento remoto (SR),
processamento de imagens, SIG, entre outros elementos.

6.1 Softwares de
geoprocessamento e
processamento digital de
imagens
Os softwares comerciais de maior destaque da área são Envi
(2021), Erdas Imagine (2021) e Idrisi (TerrSet, 2021). Os três
são aplicações para PDI por excelência. Já o ArcGIS (2021) é
o software de SIG mais utilizado mundialmente; embora não
seja uma aplicação propriamente para PDI, dispõe de muitos
recursos para análise e processamento de imagens.

Os softwares gratuitos mais conhecidos e utilizados na área


de SR são: QGIS (2021), Grass (2021) e Spring (INPE,
2021d), esse último é um projeto da DPI (Divisão de
Processamento de Imagens) do INPE (Instituto Nacional de
Pesquisas Espaciais).

A aplicação QGIS, anteriormente conhecida como


Quantum GIS, é um software de SIG gratuito, de código-
fonte aberto, multiplataforma. Foi desenvolvido em 2002,
sendo continuamente atualizado e corrigido por voluntários.
Com ele é possível visualizar e sobrepor camadas matriciais e
vetoriais como: Grass, dados on-line: WMS, WMTS, WCS,
WFS e WFS-T 1 ; e diferentes formatos de dados matriciais
como: GeoTIFF, ERDAS IMG, ArcInfo ASCII GRID, JPEG,
PNG 2 , tabelas etc. Também permite adicionar plugins
internos e externos e criar adicionais para aumentar as
funcionalidades do software. É possível, ainda, utilizar as
ferramentas Grass e Saga (2021) de processamento e análise
sob a forma de plugin.

O QGIS pode ser acessado no seguinte endereço


eletrônico:
QGIS. Disponível em: <https://www.qgis.org/pt_BR/site>. Acesso em: 5 jan.
2021.

6.2 Como baixar uma


imagem Landsat
As imagens do satélite Landsat são fornecidas em formato
GeoTIFF, um formato específico das imagens TIFF (tagged
image file format), que contém informação do
posicionamento da imagem.

O analista de SR pode acessar o banco de imagens do


INPE. É necessário criar um login e realizar cadastro no
catálogo para ter acesso aos dados. Primeiramente, é preciso
selecionar o satélite de qual deseja obter as imagens.
INPE – Instituto de Pesquisas Espaciais. Divisão de Geração de Imagens.
Catálogo. Disponível em: <http://www.dgi.inpe.br/catalogo>. Acesso em: 5
jan. 2021.

Neste exemplo, escolhemos o satélite Landsat-8 no site do


INPE. Há várias opções de busca, como qualidade da
imagem, cobertura de nuvens e data do imageamento.

Figura 6.1 – Escolha do satélite no banco de imagens do INPE


INPE

Fonte: INPE, 2021b.

Para seleção do local que deseja pesquisar por imagem, há


três opções: (1) órbita e ponto; (2) municípios; (3) região. O
analista pode escolher a opção que desejar e fazer a busca
pelo local de interesse.

O próximo passo após a escolha do local é abrir a aba


“resultados” como na Figura 6.2. Assim que escolhida a cena
desejada, devemos clicar no ícone do carrinho ao lado da
imagem, a fim de enviar o pedido ao sistema. Em seguida, na
barra horizontal superior da página, clicamos no menu
“Carrinho” para dar continuidade ao processo.

Figura 6.2 – Resultados do banco de imagens do INPE


INPE

Fonte: INPE, 2021b.

Assim que fechar o pedido, o usuário receberá os arquivos


enviados via FTP (file transfer protocol) e receberá pelo e-
mail cadastrado os links para acessá-los e baixá-los. Clicando
no link recebido por e-mail, será aberta uma nova aba no
navegador da internet, e o usuário deverá salvar os arquivos
compactados no computador. Como esses arquivos
encontram-se na extensão .zip, é necessário descompactá-los
antes de utilizá-los.

As imagens Landsat-8 apresentam as seguintes


características ou parâmetros:

» GeoTIFF – formato de saída 3

» Cubic Convolution (CC) – método de reamostragem


» 30 metros (sensores TM, ETM+, OLI) e 60 metros
(sensor MSS) – tamanho do pixel (bandas reflectivas)
» Projeção Universal Transversa de Mercator (UTM) –
projeção Polar Stereographic para cenas cuja latitude
seja maior ou igual a 63 graus
» World Geodetic System (WGS) 84 – datum 4
» Norte no topo – orientação da imagem

6.3 Como explorar uma


imagem Landsat-8 no QGIS
Como falamos anteriormente, vamos trabalhar aqui neste
capítulo com o software livre, aberto e gratuito QGIS,
utilizado atualmente nas universidades públicas em pesquisa,
docência e extensão e por profissionais e empresas que
desejam trabalhar com uma aplicação gratuita e de qualidade.
Indicaremos alguns exercícios de exemplos para que você
realize e conheça, na prática, um pouco mais sobre o trabalho
do analista de imagens em SR. A elaboração dos exemplos foi
feita na versão “3.4 Madeira”. Para iniciar o exercício, você
deve estar de posse de uma cena Landsat-8 em suas diversas
bandas. Caso não tenha nenhuma em seu computador, pode
baixar de maneira gratuita, como mencionado no exemplo
anterior.

Vamos utilizar as imagens Landsat-8 adquiridas no


exercício anterior e, primeiramente, vamos criar uma
composição colorida com elas. Essa é apenas uma de diversas
maneiras de se criar uma composição colorida utilizando o
software QGIS. Abra o QGIS no desktop e adicione as bandas
1 a 9 da imagem Landsat a um novo projeto acessando a
seguinte sequência no menu: “Camada – Adicionar Camada –
Raster”. Assim que se abrirem as nove bandas disponíveis em
formato GeoTIFF, elas irão aparecer no painel “Camadas”,
como mostra a Figura 6.3.

As nove bandas estarão disponíveis separadamente. O


intuito desse exercício é criar composições com elas. Uma
maneira de criar uma composição é acessando o menu:
“Raster – Miscelânea – Construir Raster Virtual”.

Figura 6.3 – Construindo raster virtual no QGIS


Ao abrir a janela “Construir Raster Virtual”, você deve
clicar em camadas de entrada e então selecionar as nove
bandas. Voltando à janela “Construir Raster Virtual”, apenas
clique em “Executar”. O software irá adicionar a camada
“Virtual” no painel “Camadas”, como mostra a Figura 6.4.

Figura 6.4 – Novo arquivo raster no QGIS


O que queremos agora é criar composições coloridas com
as bandas do satélite Landsat-8. Veja na Tabela 6.1 algumas
combinações de bandas RGB (Red, Green, Blue) comuns para
o Landsat-8. O Landsat-8 tem bandas adicionais, por isso as
combinações usadas para criar composições RGB diferem do
Landsat-7 e do Landsat-5.

Tabela 6.1 – Exemplos de combinações de bandas RGB (Landsat-8)

USO/ÊNFASE BANDAS L-8

Cor natural 432

Falsa-cor (urbano) 764

Infravermelho (vegetação) 543

Agricultura 652

Penetração atmosférica 765


USO/ÊNFASE BANDAS L-8

Saúde vegetal 562

Terra/Água 564

Natural com atmosfera 753


removida

Infravermelho curto 754

Análise de vegetação 654

Fonte: Butler, 2013, tradução nossa.

Com a camada virtual criada, clique sobre ela (com o botão


direito do mouse) que está localizada no painel “Camadas” e
novamente clique em “Propriedades”. Abrirá uma janela,
como a da Figura 6.5, com o nome de “Propriedades da
Camada”. O próximo passo é clicar em “Simbologia”, no
menu do lado esquerdo da janela. É nessa janela que você irá
inserir a sequência das bandas para formar imagem falsa-cor,
cor natural ou infravermelha.

Figura 6.5 – Propriedades da camada no QGIS


Como resultado do nosso exercício, temos as cenas das
Figuras 6.6, 6.7 e 6.8:

Figura 6.6 – Cor natural/verdadeira em bandas 4/3/2 no RGB

Figura 6.7 – Falsa-cor infravermelho (vegetação) em bandas 5/4/3


Figura 6.8 – Falsa-cor para análise de vegetação em bandas 6/5/4

6.4 Complemento para


classificação
semiautomática para QGIS
Para trabalharmos no próximo exercício, precisamos baixar
um plugin chamado Semi-Automatic Classification (SCP).
Esse é um complemento desenvolvido para o QGIS que
permite a classificação pixel a pixel semiautomática ou
supervisionada de imagens de SR, como com imagens do
Landsat-8, que usaremos no próximo exercício.
Encontre vídeos, tutoriais e documentos oficiais na página
oficial do plugin:
FROM GIS to Remote Sensing. <https://fromgistors.blogspot.com/p/semi-auto
matic-classification-plugin.html>. Acesso em: 5 jan. 2021.

Para termos acesso a esse plugin e a tantos outros


disponíveis no QGIS, devemos clicar no menu:
“Complementos – Gerenciar e Instalar Complementos”. Ao
abrir a janela de “Complementos”, pesquise por: ‘‘Semi-
Automatic Classification’’, e clique em “Instalar
Complemento”, como mostra a Figura 6.9:

Figura 6.9 – Complemento “Semi-Automatic Classification” no QGIS

Na Figura 6.10, podemos observar em destaque a nova


janela “SCP Dock” e a nova barra de ferramentas “SCP
Working Bar”, instaladas após termos efetuado o processo
anterior. Com a instalação desse módulo, também são
acrescentados um novo menu, dentro do QGIS, e a nova barra
de ferramentas “SCP Edit Toolbar”.

Figura 6.10 – Barra de ferramentas “Semi-Automatic Classification” do QGIS


6.5 Classificação de
imagens Landsat-8
Vamos dar continuidade aos nossos exercícios, desta vez
utilizando o Semi-Automatic Classification Plugin (SCP). No
próximo exercício, iremos trabalhar com classificação de
imagens, como foi abordado nos capítulos anteriores.

Primeiramente, vamos realizar o pré-processamento das


imagens que escolhemos. Você deve clicar na primeira opção
da barra de ferramentas, “SCP Working Toolbar”, que abrirá a
janela do “SCP”. O passo seguinte é clicar na aba
“Preprocessing” e, nesse caso, como estamos trabalhando
com imagens Landsat-8, não devemos esquecer de
permanecer na aba de nome “Landsat”. Selecione um
diretório e, assim que abrir a janela, indique onde gravou as
imagens Landsat que baixou no exercício anterior, ou outras
que tenha em seu computador. O comando “Open a file” deve
ser ativado e, assim que abrir a janela, você deve indicar a
localização do arquivo “.txt” que sempre acompanha as
imagens Landsat. Na Figura 6.11, encontram-se os comandos
mencionados, além das opções que foram escolhidas para pré-
processar essas imagens.
Figura 6.11 – Acessando a aba “Preprocessing” no QGIS

Assim que seguir todos os passos citados, clique em


“Run”’ e aguarde a criação de novas imagens pré-
processadas, que serão salvas na pasta por você indicada. Pré-
processar as imagens utilizando o plugin aqui mencionado
permite, entre outros itens, a correção atmosférica das
imagens e o ajuste para a refletância da superfície.

As imagens pré-processadas, além de estarem salvas em


seu dispositivo, também serão adicionadas na tela do QGIS e
no painel “Camadas”.

O próximo passo é a classificação semiautomática, que


faremos utilizando o SCP Plugin. O primeiro passo é clicar
em “Training Input”, como mostra a Figura 6.12. A primeira
etapa da classificação consiste em criar os polígonos das áreas
de interesse, que serão áreas amostrais, conhecidas como
Regions of Interest (ROIs), das classes que desejamos
classificar na imagem.

Para criar polígonos que serão as amostras das áreas de


interesse, clique em “Create a new training input”, como
mostra também a Figura 6.12.
Figura 6.12 – Iniciar criação de amostras de treinamento no QGIS

Será aberta a janela na qual você deverá adicionar as


classes de treinamento, ou seja, as amostras de cada classe.
Para criar essas amostras, clique no comando que está em
destaque na Figura 6.13, localizado na barra de ferramentas
“SCP Working Toolbar”. Em nosso exemplo, criamos três
classes: (1) urbanização; (2) vegetação; (3) água. Cada vez
que criamos uma classe, desenhamos o polígono e
adicionamos o nome da classe em MC Info e sua ID em MC
ID. Também é possível criar classes com suas subclasses, que
seriam, por exemplo, vegetação rasteira, vegetação em
estágio inicial e vegetação em estado avançado. Outros
exemplos de subclasses seriam: área urbanizada; industrial e
área urbanizada; residencial. Para criar as subclasses,
devemos escolher as opções C ID e C Info.

Figura 6.13 – Criando amostras de treinamento no QGIS

Assim que todas as ROIs estiverem criadas, mude para a


aba “Classification” para inserir as opções de classificação.
Você precisa indicar ao software se utilizou MC ID
(masterclass) ou C ID (class). Nesse exercício, utilizamos
apenas os MC ID, pois trata-se apenas de uma introdução à
temática com três classes. O próximo passo é clicar em “Run”
e acompanhar a barra de processamento.

Figura 6.14 – Finalizando a classificação no QGIS


Ao finalizar, será finalmente criada a classificação
semiautomática a partir das regiões de interesse previamente
escolhidas.

Figura 6.15 – Resultado da classificação no QGIS

Fizemos aqui um exercício prático muito simples, para o


leitor que está tendo o primeiro contato com a temática.
Exercícios mais aprofundados deverão ser tratados em obra
dedicada ao processamento digital de imagens.
6.6 Plugin
“Quickmapservices”
O plugin “QuickMapServices” é um complemento
desenvolvido para o QGIS que permite carregar camadas
raster (ou matriciais) produzidas por vários provedores de
imagens de satélite. É uma ótima maneira de obter dados para
diversos projetos.

O acesso a esse plugin deve ser feito pelo seguinte


caminho: clique no menu “Complementos – Gerenciar e
Instalar Complementos”, ao abrir a janela de
“Complementos”, pesquise por “QuickMapServices” e clique
em “Instalar Complemento”, como mostra a Figura 6.16.

Figura 6.16 – Complemento “QuickMapServices” no QGIS

Para que todos os recursos disponíveis desse complemento


estejam habilitados, acesse a opção “Settings”, clique na aba
“More services” e, então, no botão “Get contributed pack”.
Ao clicar em “Web – QuickMapServices”, vários
provedores de mapas poderão ser acessados, como Google,
NASA, Open Street Maps, USGS, Waze, entre outros.

Figura 6.17 – Menu “QuickMapServices” no QGIS

Para adicionar uma camada, primeiramente você precisa


adicionar um dado geográfico de sua área de interesse, que
pode ser uma camada vetorial do tipo shapefile 5 . Só então
será possível baixar inúmeras camadas das mais diversas
fontes para seu projeto.
6.7 Como baixar uma
imagem Sentinel-2
Os dados do satélite europeu de observação da terra Sentinel-
2A, lançado em junho de 2015, estão disponíveis para
download de maneira gratuita (ESA, 2021). Uma das
maneiras de acessar as imagens do satélite Sentinel-2 é por
meio do site Earth Explorer do United States Geological
Survey (USGS, 2021).

O primeiro passo é fazer um cadastro no site, clicando em


“Register”, no canto superior direito da página principal. Com
o registro feito, já é possível iniciar a pesquisa das imagens
para posteriormente baixá-las. A pesquisa do local de
interesse é feita na aba “Search Criteria”. Você pode pesquisar
livremente; na opção “Geocoder”, que permite, por exemplo,
inserir coordenadas ou endereço para pesquisa; e na aba
“KML/Shapefile Upload” é dada a opção de carregar um
arquivo vetorial da área de interesse.

Figura 6.18 – Página inicial Earth Explorer no QGIS


Na aba “Data Sets” deve ser escolhido o satélite. Clique na
opção “Sentinel” e, então, marque “Sentinel-2”. O próximo
passo é clicar em “Results”. Aparecerão os resultados para
sua busca. A escolha das imagens disponíveis para o local de
interesse pode ser feita pela data do imageamento, mas é
preciso prestar atenção na cobertura de nuvens. A seguir,
clique no ícone de download para baixar as imagens. É
possível baixar todas as bandas separadas na extensão
JPEG2000, ou então, uma composição falsa-cor em GeoTIFF.
Como as imagens encontram-se na extensão .zip, é necessário
descompactá-las antes de utilizá-las.

Figura 6.19 – Download da imagem escolhida

6.8 Como criar uma


composição colorida com
imagens Sentinel-2
Vamos criar nosso próximo exercício de maneira diferente
daquele que gerou as Figuras 6.6, 6.7 e 6.8, mas nossa
intenção é novamente criar uma composição colorida a partir
da escolha de várias bandas. No software QGIS, é possível
chegar a um mesmo resultado de diferentes maneiras, e
vamos conferir isso neste exercício. Criaremos uma
composição colorida com imagens Sentinel-2, já que
aprendemos como adquiri-las na Seção 6.7.

Como baixamos arquivos por meio do Earth Explorer na


extensão jp2000, devemos convertê-los primeiramente para o
formato TIFF. O primeiro passo do nosso exercício é acessar
o menu, “Raster – Converter – Converter (converter o
formato)”, como mostra a Figura 6.20.

Figura 6.20 – Convertendo os arquivos no QGIS

Selecione os arquivos que foram baixados no formato


JPEG2000 em “camada de entrada” e escolha os nomes dos
arquivos a serem convertidos na guia “convertido”. Depois,
clique em “executar’’.

Agora, com as imagens salvas no formato adequado para se


criar a composição colorida, podemos dar continuidade ao
processo. Clique no menu: “Raster – Miscelânia – Mesclar”.
A Figura 6.21 mostra passo a passo.

Figura 6.21 – Menu “Raster – Miscelânea – Mesclar” no QGIS

No processo de criação da composição colorida, adicione


os arquivos de entrada e crie o nome do arquivo de saída em
“Mesclado”. A Figura 6.22 mostra onde clicar para adicionar
as camadas e indicar o arquivo de saída. A opção “Coloque
cada arquivo de entrada em uma banda separada’’ também
deve ser indicada.

Figura 6.22 – Mesclar no QGIS


No momento de escolher os arquivos já salvos na extensão
TIFF, é necessário informar a ordem das bandas. No nosso
exemplo, escolhemos a ordem “4 – 3 – 2”, indicando “R: 4,
G: 3 e B: 2” (Red, Green, Blue), com o intuito de criar uma
composição colorida cor verdadeira.

Figura 6.23 – Ordem de seleção das bandas no QGIS


Vale ressaltar que o satélite Sentinel-2 tem quatro bandas
com resolução espacial de 10 metros, sendo elas as bandas 2
(azul), 3 (verde), 4 (vermelho) e 8 (infravermelho próximo).
Escolhemos essa ordem porque nossa intenção aqui foi a de
criar uma composição “cor verdadeira”. Poderíamos ter
criado composição “falsa-cor”, por exemplo, ao escolher “R:
8 G: 4 B: 3” ou “R:4 G:8 B:3”.

O exercício resultou na composição colorida RGB 4-3-2


mostrada na Figura 6.24.

Figura 6.24 – Imagem Sentinel-2 (composição colorida)


6.9 Cálculo do Índice de
Vegetação da Diferença
Normalizada (NDVI)
O próximo exercício será realizar o cálculo de NDVI. Aqui,
no nosso passo a passo, vamos continuar usando as imagens
do satélite Landsat-8. Para isso, necessitamos ter duas bandas:
infravermelho próximo e vermelho visível da imagem que
escolhemos. No caso do satélite Landsat-8, elas
correspondem às bandas B5 e B4, respectivamente, como
pode ser visto na Tabela 6.2. Lembramos que, para utilizar
bandas de outros satélites ou, até mesmo, de versões
anteriores da série Landsat, é necessário consultar quais
bandas se referem às necessárias para o cálculo do NDVI,
vermelho e infravermelho próximo, pois não serão
necessariamente as mesmas utilizadas aqui no exemplo:
bandas 4 e 5.

Tabela 6.2 – Especificações do sensor OLI (Operational Land Imager) do


satélite Landsat-8
Senso Band Resol Resol Resol Área Resol
r as uçao ução ução Imag ução
Espec Espec Espac Temp eada Radio
trais tral ial oral métri
ca

OLI (B1) 0.433 30 m 16 185 12


(Oper COS – dias km bits
ationa TAL 0.453
l µm
Land
Imag
er)
Senso Band Resol Resol Resol Área Resol
r as uçao ução ução Imag ução
Espec Espec Espac Temp eada Radio
trais tral ial oral métri
ca

(B2) 0.450
AZU –
L 0.515
µm

(B3) 0.525
VER –
DE 0.600
µm

(B4) 0.630
VER –
MEL 0.680
HO µm

(B5) 0.845
INFR –
AVE 0.885
RME µm
LHO
PRÓ
XIM
O

(B6) 1.560
INFR –
AVE 1.660
RME µm
LHO
MÉD
IO
Senso Band Resol Resol Resol Área Resol
r as uçao ução ução Imag ução
Espec Espec Espac Temp eada Radio
trais tral ial oral métri
ca

(B7) 1.100
INFR –
AVE 2.300
RME µm
LHO
MÉD
IO

(B8) 0.500 15m


PAN 0–
CRO 0.680
MÁT µm
ICO

(B9) 1.360 30 m
Cirru –
s 1.390
µm

s.d. = sem dados/informações

Fonte: Embrapa, 2021b.

Vamos utilizar novamente o software QGIS para esse


exercício. Adicione as bandas 4 e 5 da imagem que você
escolheu. Elas irão aparecer no painel “Camadas”, como pode
ser visto na Figura 6.25. Logo depois, clique no menu
“Raster” – Calculadora Raster”.
Figura 6.25 – Iniciando o cálculo NDVI no QGIS

Na janela que irá abrir, é preciso digitar a fórmula


apresentada na “Calculadora Raster”: NDVI = (NIR–Red) /
(NIR + Red). No lugar de “NIR”, é necessário inserir a banda
5, clicando duas vezes sobre ela. Já no lugar de “Red”, é
necessário inserir a banda 4, ao clicar duas vezes sobre ela.
Deve ser formulada uma expressão similar à apresentada na
Figura 6.26. O software indicará que a expressão estará
correta ao apresentar “Expressão válida”.

Figura 6.26 – Calculadora raster QGIS


A seguir, indique a camada de saída para nomear a camada
e salvá-la, seja em seu computador, seja em um dispositivo,
seja na nuvem.

Figura 6.27 – Cálculo NDVI


Assim que a nova camada for gerada, clique com o botão
direito do mouse sobre ela (no menu “Camadas”, como
mostra a Figura 6.28) e clique em “Propriedades”.

Figura 6.28 – Propriedades da camada NDVI


Ao acessar a simbologia da camada recém-criada, é
possível mudar a maneira como os valores estão
representados. Escolher uma paleta de cores adequada e com
intervalo de classes apropriado tornará melhor a
representação e análise do NDVI.

Figura 6.29 – Simbologia da camada NDVI


A Figura 6.30 é o resultado do produto criado neste
exercício. A representação em uma banda simples em tons de
cinza não facilita nossa visualização, por isso testamos várias
opções de gradientes de cores, interpolações dos valores,
entre outras opções.

Figura 6.30 – Resultado do cálculo NDVI


Síntese
Os exercícios aqui demonstrados tiveram o intuito de inserir o
leitor no ambiente dos softwares de SIG, com o uso de
imagens gratuitas e de software também gratuito. O objetivo
foi mostrar exercícios básicos de aquisição de imagens,
criação de composição colorida e classificação de imagens.

Há inúmeras opções de trabalho, tanto no QGIS quanto em


outros softwares específicos para PDI de SR. É possível
encontrar uma infinidade de tutoriais na internet que ensinam
e incentivam o usuário aprender e dar os primeiros passos no
mundo das imagens orbitais. A melhor maneira de aprender é
colocando a “mão na massa”!

Atividades de autoavaliação

1. Uma imagem colorida é resultante da combinação das três


componentes primárias da luz, as bandas: vermelha (R),
verde (G) e azul (B). Para criar uma composição colorida
cor verdadeira com imagens do satélite Landat-8/sensor
OLI, as bandas devem ser combinadas em qual ordem?
a) 4,3,2.

b) 7,6,5.

c) 7,6,4.

d) 5,4,3.

e) 6,5,4.

2. A classificação de uma imagem possibilita fragmentá-la


em grupos (ou clusters) que apresentem características
espectrais semelhantes, a partir do reconhecimento dos
padrões de resposta espectral dos diferentes elementos
analisados (Lira et al., 2016). Qual recurso deve ser
utilizado para criar um exercício sobre classificação de
uma imagem Landsat-8?
a) Complemento “QuickMapServices”.

b) Construir raster virtual do menu “Raster”.

c) Complemento “Semi-Automatic Classification”.

d) Calculadora raster do menu “Raster”.


e) Converter do menu “Raster”.

3. O NDVI é calculado com base na diferença de


reflectância entre duas faixas, sendo elas:
a) Infravermelho próximo e verde.

b) Infravermelho médio e vermelho visível.

c) Infravermelho próximo e pancromático.

d) Infravermelho próximo e vermelho visível.

e) Vermelho visível e pancromático.

4. O satélite Sentinel-2 tem quatro bandas com resolução


espacial de 10 metros: as bandas 2 (azul), 3 (verde), 4
(vermelho) e 8 (infravermelho próximo). Para calcular o
NDVI de uma imagem Sentinel-2, é necessário utilizar
quais bandas?
a) Bandas 3 e 4.

b) Bandas 2 e 3.

c) Bandas 4 e 8.

d) Bandas 3 e 8.

e) Bandas 2 e 8.

5. As imagens do satélite Landsat-8, baixadas por meio do


catálogo de imagens do INPE (2021b), são fornecidas em
qual formato?
a) GeoTIFF.

b) TIFF.
c) JPEG2000.

d) PNG.

e) GRID.

Atividades de aprendizagem

Questões para reflexão

1. Neste capítulo, exemplificamos como é possível calcular


o NDVI utilizando o software QGIS. Pesquise quais
outros índices espectrais são utilizados em SR além do
NDVI. Juntamente à descrição de cada índice, aponte seu
principal uso e sua aplicação.

2. Pesquise por artigos publicados nas últimas versões do


Simpósio Brasileiro de Sensoriamento Remoto e que
tratam de temas que trabalhamos neste Capítulo 6, como
cálculo NDVI, composição colorida e classificação
supervisionada.
SBSR – Simpósio Brasileiro de Sensoriamento Remoto. Biblioteca
Digital. Disponível em: <http://urlib.net/rep/83LX3pFwXQZ5Jpy/CxGU
3>. Acesso em: 5 jan. 2021.

Atividade aplicada: prática

1. Faça o download de imagens orbitais por meio dos


catálogos de imagens disponíveis na internet. Escolha um
dos exercícios propostos neste capítulo e aplique o passo a
passo para as cenas que escolheu.
1 WMS – Serviço de Mapas Web (Cliente WMS/WMTS); WMTS –
Serviço de Mosaicos de Mapa Web (Cliente WMS/WMTS); WFS –
Serviços de Elementos Web (WFS e WFS-T Cliente); WFS-T – Serviços
de Elementos Web Transacionais (WFS e WFS-T Cliente); WCS –
Serviços de Cobertura Web (WCS Cliente); WPS – Web Processing
Service.

2 Formatos de imagens e Raster suportados pela biblioteca GDAL instalada


(Geospatial Data Abstraction Library), como GeoTIFF, ERDAS IMG,
ArcInfo ASCII GRID, JPEG, PNG, entre outros.

3 As imagens do satélite Landsat são fornecidas em formato GeoTIFF, um


formato específico das imagens TIFF que contém informação do
posicionamento da imagem.

4 O datum planimétrico consiste em “uma superfície de referência elipsoidal


posicionada com respeito a uma certa região” (D’Alge, 1999, p. 3).

5 Formato de armazenamento de dados de vetor para armazenar posição,


forma e atributos de feições geográficas.
Considerações finais
O uso do sensoriamento remoto tem tido uma demanda cada
vez maior no mercado, em diferentes segmentos. O
profissional da área deve utilizar os conhecimentos
adquiridos nesta obra com propriedade e responsabilidade,
analisando cada caso, interpretando a real necessidade de
aplicação dessa ciência em hipóteses específicas.

O simples uso da imagem de satélite não vai contribuir


em nada a qualquer tipo de estudo realizado se não trouxer
as análises de processamento feitos corretamente, ainda que
o objetivo tenha caráter apenas ilustrativo. É necessário que
seja observada, também, a característica do fenômeno a ser
analisado, tendo em vista que deve tratar-se,
impreterivelmente, de um fenômeno espacial, de modo que
possa ser observado e analisado a partir de dados de
sensores remotos orbitais, embarcados em aeronaves, em
equipamentos no solo ou a bordo de RPAs (aeronaves
remotamente pilotadas).

O domínio dos conceitos que foram abordados neste livro


é fundamental para o sucesso de qualquer estudo que tenha
como base dados oriundos do sensoriamento remoto, de
modo que o resultado apresente integridade, precisão de
informações e coerência quanto ao que se destina. Por esse
motivo, o analista de sensoriamento remoto nunca deve
negligenciar a base conceitual, tendo-a como parâmetro para
os projetos que implementa em sua vida profissional.

Devemos sempre ter em mente que o sensoriamento


remoto é uma área multidisciplinar, em que cada estudo vai
depender não apenas um profissional, mas também de uma
equipe constituída de vários profissionais de formações
distintas, porém coerentes com o projeto em questão. Isso é
necessário para que o estudo seja bem fundamentado e
obtenha precisão nas análises. O profissional que atua com
sensoriamento remoto deve ser capaz de se articular em
diferentes segmentos com diferentes profissionais, não
sendo possível realizar estudos de alta complexidade sem
transitar por diferentes áreas. Dessa forma, é necessário que
esse profissional detenha um conhecimento abrangente e,
por isso, esteja sempre estudando.

Além disso, devemos destacar o desenvolvimento


constante de novas tecnologias e outros métodos de
aplicação que não foram abordados neste livro, uma vez que
se trata de técnicas mais avançadas e que fogem ao objetivo
principal de uma obra conceitual. O advento de RPAs traz
um novo campo de aplicação das técnicas de sensoriamento
remoto – mas é importante ressaltar que essa tecnologia
ainda não está solidamente fundamentada na comunidade
científica, sendo necessário o desenvolvimento de mais
estudos.

Por esse motivo, uso de RPAs ainda gera dúvidas quanto à


possibilidade de dados confiáveis, principalmente no que diz
respeito à correção geométrica dos dados obtidos e às
condições da plataforma. Quanto aos dados obtidos por
plataformas orbitais, eles já contam com metodologia
própria, além de plataformas com estruturas controladas e
variações conhecidas que podem ser corrigidas
geometricamente, conforme vimos ao longo deste livro.
Dessa forma, o arcabouço conceitual é essencial para
qualquer profissional da área, pois vai permitir a
identificação do melhor produto para cada situação
específica e como tratar cada produto e gerar informações
valiosas.
Os conteúdos tratados neste livro abordaram aspectos
conceituais do sensoriamento remoto, uma área que surgiu
como uma ferramenta e hoje adquire status de ciência,
conforme os conceitos apresentados a partir de Jensen
(2009). As características do sensoriamento remoto são
baseadas em tecnologias informacionais que estão em
evolução e atualização contínuas em curto espaço de tempo.
Isso demanda do profissional mais tempo e disciplina para
manter-se atualizado acerca das evoluções constantes que
acontecem no meio, como satélites que são lançados,
produtos fornecidos e suas potencialidades de uso.

O objetivo deste livro foi permitir a você, leitor, o acesso


aos conceitos básicos e aos procedimentos fundamentais
para que realize suas primeiras análises com o
sensoriamento remoto. É oportuno dizer, no entanto, que
nenhuma obra de sensoriamento remoto será capaz de
contemplar todo o conteúdo, tendo em vista a velocidade de
desenvolvimento da área. Todavia, com os conhecimentos
aqui apresentados, o leitor terá a possibilidade de explorar
mais a fundo os conteúdos, testar novas técnicas e até
mesmo desenvolver procedimentos de análise que possam
contribuir cientificamente para o desenvolvimento de
estudos nesse campo do conhecimento.
Lista de abreviaturas e
siglas
CAST – Academia Chinesa de Tecnologia Espacial

RPAs – Aeronaves remotamente pilotadas

AEB – Agência Espacial Brasileira

ASPRS – American Society for Photogrammetry and


Remote Sensing

DVI – Difference Vegetation Index

DN – Digital Number

GNSS – Global Navigation Satellite System

Hz – Hertz

PAN – Imagem pancromática

NDVI – Índice de vegetação da diferença normalizada

INPE – Instituto Nacional de Pesquisas Espaciais

Lidar – Light Detection and Ranging

MDE – Modelos Digitais de Elevação

NOAA – National Oceanic and Atmosphere Administration

OACI – Organização da Aviação Civil Internaciconal


pixel – Picture Element

PDI – Processamento Digital de Imagem

REM – Radiação Eletromagnética

Radar – Radio Detection and Ranging

RGB – Red, Green, Blue

VIS – Reflectância da faixa do visível

RAR – Real Aperture Radar

NIR – Reflectância da faixa do infravermelho próximo

SSR-1 – Satélite Amazônia 1

SCD-1 – Satélite de Coleta de Dados 1

CBERS – Satélite sino-brasileiro de recursos terrestres

MS – Sensores multiespectrais

SR – Sensoriamento remoto

SIG – Sistemas de Informações Geográficas

SLAR – Side Looking Airbone Radar

SBSR – Simpósio Brasileiro de Sensoriamento Remoto

SAR – Synthetic Aperture Radar

VANTs – Veículos aéreos não tripulados

UV – Ultravioleta

ex-URSS – União das Repúblicas Socialistas Soviéticas


UAV – Unmanned Aerial Vehicle
Referências
ANA – Agência Nacional de Águas. Disponível em: <http
s://www.ana.gov.br>. Acesso em: 5 jan. 2021.

ARCGIS. Disponível em: <https://www.arcgis.com/index.ht


ml>. Acesso em: 5 jan. 2021.

BORGES, G. F.; RAJÃO, R. G. L. Projeto Radam:


(Re)Descobrindo o Projeto de Sensoriamento Remoto
Aplicado ao Mapeamento da Amazônia. Revista FSA,
Teresina, v. 13, n. 6, p. 3-17, nov./dez. 2016. Disponível
em: <http://www.lagesa.org/wp-content/uploads/docum
ents/Borges%20Rajao%202016%20RADAM.pdf>.
Acesso em: 5 jan. 2021.

BOWKER, D. E. et al. Spectral Reflectances of Natural


Targets for Use in Remote Sensing Studies. NASA
Reference Publication, Hampton, n. 1.139, 1985.

BRASIL. Ministério da Ciência, Tecnologia, Inovações e


Comunicações. SCD-1 completa 20 anos: primeiro
satélite brasileiro comprova o êxito da engenharia
espacial no país. São José dos Campos, 7 fev. 2013.
Disponível em: <http://www.inpe.br/noticias/noticia.ph
p?Cod_Noticia=3198>. Acesso em: 5 jan. 2021.

BRASIL. Ministério da Educação. Coordenação de


Aperfeiçoamento de Pessoal de Nível Superior –
Capes. Portal de periódicos. Disponível em: <https://
www.periodicos.capes.gov.br>. Acesso em: 5 jan. 2021.
BUTLER, K. Band Combinations for Landsat 8. Imagery
and remote Sensing, 24 Jul. 2013. Disponível em: <htt
ps://www.esri.com/arcgis-blog/products/product/imager
y/band-combinations-for-landsat-8/?rmedium=redirect
&rsource=blogs.esri.com/esri/arcgis/2013/07/24/band-c
ombinations-for-landsat-8>. Acesso em: 5 jan. 2021.

CANADA. Natural Resources Canada. Remote Sensing


Tutorials. Disponível em: <https://www.nrcan.gc.ca/m
aps-tools-publications/satellite-imagery-air-photos/tutor
ial-fundamentals-remote-sesing/9309>. Acesso em: 5
jan. 2021.

CARDINALI, D. P. Manual de neurofisiologia. Madrid:


Diaz de Santos, 1992.

CENTENO, J. A. S. Sensoriamento remoto e


processamento de imagens digitais. Curitiba:
Universidade Federal do Paraná; Departamento de
Geomática, 2003.

COLWELL, R. N. History and Place of Photographic


Interpretation. In: PHILIPSON, W.R. (Ed.). Manual of
Photographic Interpretation. 2. ed. Bethesda,
Maryland: American Society for Photogrammetry and
Remote Sensing, 1997. p. 3-47.

D’ALGE, J. C. L. Coordenadas geodésicas e sistemas de


informação geográfica. INPE, 1999. Disponível em: <
http://www.dpi.inpe.br/~julio/arquivos/GisBrasil99.PD
F>. Acesso em: 5 jan. 2021.

EMBRAPA – Empresa Brasileira de Pesquisa Agropecuária.


Disponível em: <https://www.embrapa.br>. Acesso em:
5 jan. 2021a.

EMBRAPA – Empresa Brasileira de Pesquisa Agropecuária.


Landsat: Land Remote Sensing Satellite. Disponível
em: <https://www.embrapa.br/satelites-de-monitoramen
to/missoes/Landsat>. Acesso em: 5 jan. 2021b.

ENVI. Disponível em: <http://www.envi.com.br>. Acesso


em: 5 jan. 2021.

EPIPHANIO, J. C. N. Satélites de sensoriamento remoto.


São José dos Campos: INPE, 2000. Material didático.

ERDAS IMAGINE. Disponível em: <https://www.hexagong


eospatial.com/products/power-portfolio/erdasimagine>.
Acesso em: 5 jan. 2021.

ESA – The European Space Agency. Sentinel Online.


Disponível em: <https://sentinel.esa.int/web/sentinel/ho
me>. Acesso em: 5 jan. 2021.

FLORENZANO, T. G. Iniciação em sensoriamento


remoto. São Paulo: Oficina de Textos, 2007.

FLORENZANO, T. G. Imagens de satélite para estudos


ambientais. São Paulo. Oficina de Textos, 2002.

FORMAGGIO, A. R.; SANCHES, I. D. Sensoriamento


remoto em agricultura. São Paulo: Oficina de Textos,
2017.

FURTADO, A. L. S.; RODRIGUES, C. A. G.; TÔSTO, S.


G. Satélites e produtos. Disponível em: <https://www.i
nfoteca.cnptia.embrapa.br/infoteca/bitstream/doc/98801
8/1/Cap.1.pdf>. Acesso em: 5 jan. 2021.

FUSSELL, J. D.; RUNDQUIST, J. A. H. On Defining


Remote Sensing. Photogrammetric Engineering and
Remote Sensing, v. 52, n. 9, p. 1.507-1.511, Sept.
1986.
GOOGLE. Google Acadêmico. Disponível em: <https://sch
olar.google.com.br/?hl=pt>. Acesso em: 5 jan. 2021.

GRASS. Disponível em: <https://grass.osgeo.org>. Acesso


em: 5 jan. 2021.

IBGE – Instituto Brasileiro de Geografia e Estatística.


Aglomerados subnormais. Disponível em: <https://w
ww.ibge.gov.br/geociencias/organizacao-do-territorio/ti
pologias-do-territorio/15788-aglomerados-subnormais.
html?=&t=o-que-e>. Acesso em: 5 jan. 2021.

INPE – Instituto Nacional de Pesquisas Espaciais.


Disponível em: <http://www.inpe.br>. Acesso em: 5
jan. 2021a.

INPE – Instituto de Pesquisas Espaciais. Divisão de Geração


de Imagens. Catálogo. Disponível em: <http://www.dg
i.inpe.br/catalogo>. Acesso em: 5 jan. 2021b.

INPE – Instituto Nacional de Pesquisas Espaciais. Centro de


Previsão de Tempo e Estudos Climáticos. Glossário.
Disponível em: <https://www.cptec.inpe.br/glossario.sh
tml>. Acesso em: 5 jan. 2021c.

INPE – Instituto Nacional de Pesquisas Espaciais. Divisão


de Processamento de Imagens. Spring. Disponível em:
<http://www.dpi.inpe.br/spring>. Acesso em: 5 jan.
2021d.

INPE – Instituto Nacional de Pesquisas Espaciais. Divisão


de Processamento de Imagens. Spring: aula 3.
Disponível em: <http://www.dpi.inpe.br/spring/teoria/a
ula3.pdf>. Acesso em: 5 jan. 2021e.

INPE – Instituto Nacional de Pesquisas Espaciais. Divisão


de Satélites e Sistemas Ambientais. Banco de Dados
de Imagens. Disponível em: <http://satelite.cptec.inpe.
br/acervo/goes16.formulario.logic>. Acesso em: 5 jan.
2021f.

JENSEN, J. R.; LULLA, K. Introductory Digital Image


Processing: a Remote Sensing Perspective. Journal
Geocarto International, v. 2, p. 65, 1987.

JENSEN, J. Sensoriamento remoto do ambiente: uma


perspectiva em recursos terrestres. São José dos
Campos: Parêntese, 2009.

JENSEN, J.; EPIPHANIO, J. C. N. Sensoriamento remoto


do ambiente: uma perspectiva em recursos terrestres.
2. ed. São José dos Campos: Parêntese Editora, 2011.

LILLESAND, T. M.; KIEFER, R. W. Remote Sensing and


Image Interpretation. New York: John Wiley & Sons,
1979.

LILLESAND, T. M.; KIEFER, R. W. Remote Sensing and


Image Interpretation. 3. ed. New York: John Wiley &
Sons, 1994.

LIRA, C. et al. Sistemas de informação geográfica: análise


de dados de satélite. Lisboa: DGRM, 2016. Disponível
em: <https://www.sophia-mar.pt/uploads/GUIA_5_SIG
_Analise_de_dados_satelite.pdf>. Acesso em: 5 jan.
2021.

LIU, W. T. H. Aplicações de sensoriamento remoto. 2. ed.


São Paulo: Oficina de Textos, 2015.

MELO, D. H. C. T. B. Uso de dados Ikonos II na análise


urbana: testes operacionais na zona leste de São Paulo.
146 f. Dissertação (Mestrado em Sensoriamento
remoto) – Instituto Nacional de Pesquisas Espaciais
(INPE), São José dos Campos, 2002.
MENESES, P. R.; ALMEIDA, T. (Org.). Introdução ao
processamento de imagens de sensoriamento
remoto. Brasília: CNPq, 2012. v. 1.

MORAES, E. C. Fundamentos do sensoriamento remoto. In:


MORAES, E. C. (Org.) Curso de uso de
sensoriamento remoto no estudo do meio ambiente.
São José dos Campos: INPE, 2002.

MOREIRA, M. A. Fundamentos do sensoriamento


remoto e metodologias de aplicação. Viçosa: Ed. da
UFV, 2005.

NOVO, E. M. L. Introdução ao sensoriamento remoto.


São José dos Campos, 2001. Material didático.

NOVO, E. M. L. Sensoriamento remoto: princípios e


aplicações. 4. ed. São Paulo. E. Blücher, 2010.

NOVO, E. M. L. Sensoriamento remoto: princípios e


aplicações. São Paulo: E. Blücher, 2008.

PHILIPSON, W. R. (Ed.). Manual of Photographic


Interpretation. 2. ed. Bethesda, Maryland: American
Society for Photogrammetry and Remote Sensing,
1997.

QGIS. Disponível em: <https://qgis.org/pt_BR/site>. Acesso


em: 5 jan. 2021.

SAGA. Disponível em: <http://www.saga-gis.org>. Acesso


em: 5 jan. 2021.

SBSR – Simpósio Brasileiro de Sensoriamento Remoto.


Biblioteca Digital. Disponível em: <http://urlib.net/re
p/83LX3pFwXQZ5Jpy/CxGU3>. Acesso em: 5 jan.
2021.
SCIELO – Scientific Electronic Library Online. Disponível
em: <https://scielo.org>. Acesso em: 5 jan. 2021.

SCHOWENGERDT, R. A. Remote Sensing: Models and


Methods for Image Processing. 3. ed. New York:
Academic Press, 2007.

TAVEIRA, B. D. A.; CUBAS, M. G.; FOGACA, T. K.


Conservação dos recursos naturais e
sustentabilidade: um enfoque geográfico. Curitiba:
InterSaberes, 2017.

TERRSET. Disponível em: <http://www.terrset.com.br/inde


x.php/idrisi>. Acesso em: 5 jan. 2021.

TÔSTO, S. G. et al. (Org.). Geotecnologias e


geoinformação: o produtor pergunta, a Embrapa
responde. Brasília: Embrapa, 2014.

USGS – United States Geological Survey. Earth Explorer.


Disponível em: <https://earthexplorer.usgs.gov>.
Acesso em: 5 jan. 2021.
Bibliografia
comentada
CENTENO, J. A. S. Sensoriamento remoto e processamento de imagens
digitais. Curitiba: Universidade Federal do Paraná; Departamento de
Geomática, 2003.

Para aprofundar-se nos assuntos tratados, recomendamos esse livro que


apresenta excelente conteúdo, além de ser de leitura agradável.

FLORENZANO, T. G. Imagens de satélite para estudos ambientais. São


Paulo: Oficina de Textos, 2002.

Essa indicação de leitura é voltada para quem descobriu recentemente o


sensoriamento remoto e encontra-se nas primeiras leituras sobre o tema. O livro
trata dos principais assuntos com uma linguagem acessível, muitas ilustrações e
imagens, o que torna a obra de leitura básica para os interessados.

JENSEN, J. Sensoriamento remoto do ambiente: uma perspectiva em


recursos terrestres. São José dos Campos: Parêntese, 2009.

Essa obra é muito abrangente, atual e com conteúdo riquíssimo. São quase
600 páginas escritas por John R. Jensen e traduzidas para o português por
pesquisadores do INPE. Os 15 capítulos abordam temas desde os princípios da
radiação eletromagnética e a história da fotogrametria, passando pela
fotogrametria, pelo sensoriamento remoto por infravermelho termal, pelo
sensoriamento remoto por micro-ondas e lidar, até o sensoriamento remoto da
água, da vegetação, da paisagem urbana, dos solos, dos minerais e da
geomorfogologia.

LILLESAND, T. M.; KIEFER, R. W. Remote Sensing and Image


Interpretation. 7. ed. New York: John Wiley & Sons, 2015.

Essa é uma das publicações mais completas, com mais de 700 páginas de
conteúdo riquíssimo, além de ser reconhecida por estudiosos do tema.

MENESES, P. R.; ALMEIDA, T. (Orgs.). Introdução ao processamento de


imagens de sensoriamento remoto. Brasília: CNPq, 2012. v. 1.

A indicação é para quem quer entender ainda mais sobre sensoriamento


remoto e desbravar o processamento digital de imagens. Trata-se de uma obra
completíssima, que traz desde os princípios do sensoriamento remoto e dos
sensores até a aritmética de bancas, a classificação, a filtragem, entre outros
temas.

NOVO, E. M. L. Sensoriamento remoto: princípios e aplicações. 4. ed. São


Paulo: E. Blücher, 2010.

Esse livro é dividido em oito capítulos fundamentais para o entendimento


dessa ciência. São destaques os capítulos “Comportamento espectral de alvos”
e “Métodos de extração da informação”. Com uma linguagem de fácil acesso,
mas conteúdo de altíssima qualidade, essa obra certamente é fundamental para
aqueles que desejam aprofundar-se na temática.

TULLIO, L. (Org.) Aplicações e princípios do sensoriamento remoto


[recurso eletrônico]. Ponta Grossa: Atena, 2018. Disponível em: <https://ww
w.atenaeditora.com.br/post-ebook/1964>. Acesso em: 12 jan. 2021.

TULLIO, L. (Org.) Aplicações e princípios do sensoriamento remoto 2


[recurso eletrônico]. Ponta Grossa: Atena, 2018. Disponível em: <https://ww
w.atenaeditora.com.br/post-ebook/1963>. Acesso em: 12 jan. 2021.

TULLIO, L. (Org.) Aplicações e princípios do sensoriamento remoto 3


[recurso eletrônico]. Ponta Grossa: Atena, 2019. Disponível em: <https://ww
w.atenaeditora.com.br/post-ebook/2624>. Acesso em: 12 jan. 2021.

Três e-books voltados exclusivamente à publicação de artigos sobre


sensoriamento remoto e suas aplicações.
Respostas
Capítulo 1

Atividades de autoavaliação

1. a
2. a
3. d
4. b
5. e

Capítulo 2

Atividades de autoavaliação

1. a
2. c
3. b
4. d
5. e

Capítulo 3

Atividades de autoavaliação

1. c
2. d
3. e
4. a
5. b
Capítulo 4

Atividades de autoavaliação

1. a
2. c
3. c
4. e
5. d

Capítulo 5

Atividades de autoavaliação

1. a
2. d
3. c
4. d
5. e

Capítulo 6

Atividades de autoavaliação

1. a
2. a
3. d
4. c
5. a
Sobre os autores
João Victor Pacheco Gomes é licenciado e bacharel em
Geografia pela Universidade do Estado do Rio de Janeiro
(UERJ) e pela Universidade Federal Fluminense (UFF),
respectivamente. É mestre em Engenharia Cartográfica pelo
Instituto Militar de Engenharia (IME) e doutor em Ciências
Geodésicas pela Universidade Federal do Paraná (UFPR).
Atualmente é professor do curso de Engenharia Cartográfica
da Universidade do Estado do Rio de Janeiro (UERJ).

Monyra Guttervill Cubas é mestre, licenciada e bacharel


em Geografia pela Universidade Federal do Paraná (UFPR).
É especialista em Geomática pela Universidade do
Contestado. Entre suas áreas de atuação estão geografia,
cartografia e geoprocessamento. É coautora das obras
Conservação dos recursos naturais e sustentabilidade – um
enfoque geográfico e Geoprocessamento: fundamentos e
técnicas, ambas publicadas pela Editora InterSaberes.
Sumário
Capa
Dialógica
Apresentação
1. Introdução ao sensoriamento remoto
Introdução ao sensoriamento remoto
1.1 Definição de sensoriamento remoto
1.2 Processo de aquisição da informação
1.3 Programa espacial brasileiro
2. Plataformas e sistemas sensores
Plataformas e sistemas sensores
2.1 Satélites artificiais
2.2 Imagem digital em sensoriamento remoto
2.3 RPAs (aeronaves remotamente pilotadas)
2.4 Lidar
2.5 Radar
3. Noções de processamento digital de imagens
Noções de processamento digital de imagens
3.1 Pré-processamento
3.2 Processamento digital de imagens
3.3 Transformação de imagens: rotação espectral
4. Interpretação de imagens
Interpretação de imagens
4.1 Metodologias de análise
4.2 Índices e modelos de análise
4.3 Classificação de imagens
5. Aplicações de imagens
Aplicações de imagens
5.1 Fenômenos ambientais
5.2 Ambientes naturais
5.3 Ambientes antropizados
5.4 Educação
6. Práticas em sensoriamento remoto
Práticas em sensoriamento remoto
6.1 Softwares de geoprocessamento e processamento
digital de imagens
6.2 Como baixar uma imagem Landsat
6.3 Como explorar uma imagem Landsat-8 no QGIS
6.4 Complemento para classificação semiautomática para
QGIS
6.5 Classificação de imagens Landsat-8
6.6 Plugin “Quickmapservices”
6.7 Como baixar uma imagem Sentinel-2
6.8 Como criar uma composição colorida com imagens
Sentinel-2
6.9 Cálculo do Índice de Vegetação da Diferença
Normalizada (NDVI)
Considerações finais
Lista de abreviaturas e siglas
Referências
Bibliografia comentada
Respostas
Sobre os autores
Ficha catalográfica

Você também pode gostar