DronEng - Material de Apoio - Topografia Com Drones (Ambiente Urbano)

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 37

1

Sumário

Fotogrametria ............................................................................................................................... 2
Definição ................................................................................................................................... 2
Histórico .................................................................................................................................... 5
Fotogrametria digital – conceitos técnicos ............................................................................. 13
• Pixel ............................................................................................................................. 13
• GSD .............................................................................................................................. 13
• Sistema de coordenadas de uma imagem ................................................................. 14
• Sistema de coordenadas do terreno .......................................................................... 15
• Câmeras digitais de pequeno formato....................................................................... 16
• Tipos de câmera de pequeno formato....................................................................... 16
Projeto de Mapeamento Aéreo .................................................................................................. 21
Escolha do GSD ....................................................................................................................... 21
• GSD pequeno .............................................................................................................. 21
• GSD grande ................................................................................................................. 22
Cálculo da altura do voo ......................................................................................................... 23
• Tamanho do pixel ....................................................................................................... 23
• Distância focal ............................................................................................................. 24
• Cálculo da altura de voo ............................................................................................. 26
Sobreposições ......................................................................................................................... 27
Pontos de apoio ...................................................................................................................... 32

Introdução à Fotogrametria e Projeto Aerofotogramétrico

Curso Online – Topografia com Drones em Ambiente Urbano


Fotogrametria

Definição

Fotogrametria é a arte, ciência e tecnologia de obtenção de informações


confiáveis sobre os objetos físicos e o meio ambiente através de processos de
gravação, medição e interpretação de imagens fotográficas e padrões da
energia eletromagnética radiante e outros fenômenos
(https://web.archive.org/web/20150503211923/http://www.asprs.org/Abo
ut-Us/What-is-ASPRS.html).

Também pode ser entendido como a “ciência e tecnologia de obter informações


confiáveis através de processos de registro, interpretação e mensuração de imagens”
(ANDRADE, 1998, pg 1.) e como a “arte, ciência e tecnologia de se obter informações
confiáveis de objetos físicos e do meio ambiente através de fotografias, por medidas e
interpretação de imagens e objetos” (WOLF, 1983, pg 1).

Consoante Rocha (2000), a fotogrametria pode ser dividida em duas áreas:

• Fotogrametria métrica: envolve medidas precisas e computacionais para


determinar a forma e as dimensões dos objetos, sendo aplicada na elaboração
de mapas planimétricos e topográficos.
• Fotogrametria interpretativa: ocupa-se do reconhecimento e identificação dos
objetos.

Em colaboração com outras ciências, como a geodésia e a cartografia, várias aplicações


utilizam a fotogrametria, destacando-se a elaboração de mapeamentos, tais como:

• rede de drenagem;

• cobertura vegetal;

• culturas vegetais;

• rede viária;

• feições geológicas;

• tipos de solo;

• uso e ocupação do solo.

2
Especificamente, a fotogrametria terrestre consiste nas atividades de captação de
dados gráficos por meio da fotogrametria utilizando como sensor uma câmera métrica
terrestre.

Fonte: http://es.slideshare.net/equiros/introduccin-a-la fotogrametra-terrestre

Por sua vez, a aerofotogrametria é uma técnica que objetiva elaborar mapas mediante
fotografias aéreas capturadas por câmeras aerotransportadas, com eixo ótimo
posicionado na vertical ou diagonal.

Fonte: http://2.bp.blogspot.com/-
543QHHmNAZs/UdKykjwIKiI/AAAAAAAAXHY/ODNYBywYFfM/s1600/fotogrametr%25C3%25AD
a+triangulaci%25C3%25B3n.jpg

3
Na topografia, ciência mais conhecida das geociências, é necessário ocupar o ponto
sobre o qual se deseja coletar informações, ou seja, para determinar as coordenadas de
um objeto, é preciso se deslocar até o objeto em questão. Repare, na imagem a seguir,
um homem operando a estação total (medidor eletrônico de distância) e outro
ocupando o ponto de interesse com o prisma.

Fonte: http://img.edilportale.com/product-thumbs/b_prodotti-63806-
relbe218face0a6411c9a86a2ef1b09949e.jpg

Já na fotogrametria, não é necessário ocupar o objeto de interesse (terreno), uma vez


que a mensuração ocorre de forma remota por sensores embarcados em aeronaves. Em
outras palavras, a área é fotografada pela aeronave; após o levantamento, centenas ou
milhares de fotos são capturadas, dependendo do tamanho da área de interesse. Após
um pós-processamento, essas imagens são ortorretificadas (conceito que será abordado
futuramente) e mosaicadas, tornando-se uma única imagem georreferenciada (com
coordenadas conhecidas) cobrindo toda a área de interesse.

4
Fonte: O autor

Histórico

Assim como toda ciência, a fotogrametria sofreu diversas transformações devido ao


avanço tecnológico, principalmente pelo avanço dos restituidores, responsáveis por
transformar imagens em mapas. Acompanhe suas principais fases:

• (1849-1900) Surgimento da ciência na França

o Primeira geração.
o Fase iniciada com a invenção de Louis Daguerre.

5
o Primeiros resultados com fotogrametria a bordo de balões e com
câmeras terrestres.
o Primeiros livros-texto sobre fotogrametria.

A figura à esquerda é uma representação da primeira imagem aérea capturada a 80 m,


em Paris, em 1858, a qual não está mais disponível. À direita, está uma imagem aérea
de Boston (Estados Unidos), em 1860, a 600 m de altura, registro mais antigo disponível.

Fonte: https://regmedia.co.uk/2013/02/27/nadar_boston_big.jpg

• (1900-1960) Fotogrametria analógica

o Segunda geração.
o Uso de câmeras aéreas em aviões.
o Retificadores analógicos e restituidores estereofotogramétricos.
o Teoria e fundamentos matemáticos.

Nesta fase, o grande avanço foi o transporte de câmeras em aeronave. As imagens a


seguir contam um pouco da história desta fase.

6
Câmera métrica RMK-Top em uma aeronave
Fonte: http://www.esteio.com.br/?pagina=servicos/oferecidos/cobertura_fot.php

Animação da câmera métrica Zeiss LMK 2015, exemplificando o processo de captura


de imagem por câmera métrica analógica
Fonte: http://www.nts-info.com/inventory/images/Ref.354%20LMK%201000.jpg

7
Os filmes (negativo) eram revelados, gerando imagens (positivo) no formato 23 x 23
cm (tamanho do quadro da câmera).

Imagem revelada – 23 x 23 cm
Fonte: https://userscontent2.emaze.com/images/66590e86-d999-42dc-ba75-0cce43f62471/d570c8ef-
da12-4487-a58a-9335ad2c05c4.jpg

Depois de revelados, os pares de imagens eram inseridos em um restituidor analógico,


que, por meio da visão estereoscópica (3D), recuperava as feições de interesse, as quais
eram desenhadas em fotolitos ou digitalmente (CAD, por exemplo), gerando, então, os
mapas. Veja o processo na sequência:

Restituidor analógico Wild


Fonte: http://mundogeo.com/wp-content/uploads/2000/portugues/infogeo/04/pag48c.jpg

8
Estereoplanígrafo C5
Fonte: https://pt.scribd.com/doc/82956083/RESTITUIDORES

• (1951-1990) Fotogrametria analítica

o Terceira geração.

o Restituidor analítico e restituição numérica assistida por computador.

o Uki Helava, inventor do restituidor analítico (1957).

o Aerotriangulação por modelos independentes e feixes perspectivos.

O processo de restituição consistia em tomar cada fotografia como um modelo


matemático, dando mais precisão ao sistema de coordenadas usado nas fotografias, ou
seja, convertia-se uma imagem em algoritmos, que podiam ser interpretados por um
processador. Apesar de sua origem coincidir com a invenção da calculadora eletrônica,
na década 1940, por Konrad Zuse, o primeiro restituidor analítico foi inventado somente
em 1956, pelo finlandês Uki Helava.

9
Restituidor analítico de Helava
Fonte: https://pt.scribd.com/doc/82956083/RESTITUIDORES

Restituidor analítico Matra Transter (década de 1980)


Fonte: https://pt.scribd.com/doc/82956083/RESTITUIDORES

10
Restituidor analítico universal Leica SD3000
Fonte: https://pt.scribd.com/doc/82956083/RESTITUIDORES

Restituidor analítico simplificado portátil


Fonte: https://pt.scribd.com/doc/82956083/RESTITUIDORES

11
• (1990-hoje) Fotogrametria digital

o Quarta geração.

o Fotogrametria Digital e Visão de Máquina;

o Todo o processo é numérico, desde a coleta até a saída dos dados;

o Avanço na ciência da computação e no hardware disponível;

o Câmaras digitais e scanners

A fotogrametria digital surgiu com a invenção das câmeras digitais e do processo de


escaneamento de imagens. Nesta fase, todos os processos são digitais e as informações,
armazenadas em pixels, sendo o processo de restituição realizado totalmente por meio
de computadores, por placas gráficas e óculos ativos. Esta fase é considerada uma das
mais importantes, por simplificar o processo e diminuir os custos.

Estação fotogramétrica digital da década de 1990


Fonte: https://pt.scribd.com/doc/82956083/RESTITUIDORES

Restituidor digital da década de 2000 até os dias atuais


Fonte: Droneng

12
Fotogrametria digital – conceitos técnicos

• Pixel

Pixel vem do termo em inglês “picture element” e representa a menor unidade de uma
imagem digital, que define sua resolução. Nos pixels, são armazenados valores que
formam a imagem, ou seja, cada um contém um valor ponderado de toda a energia
refletida correspondente à sua área no terreno, de acordo com o Ground Sample
Distance (GSD) utilizado. Quanto menor for o GSD, maior será a resolução da imagem,
ou seja, melhor será a definição dos objetos.

Para identificar os pixels de uma imagem, aplique zoom até que eles se tornem
aparentes (quadrados). Veja um exemplo na imagem a seguir:

Fonte: Droneng

• GSD

É a representação do pixel da imagem em unidades do terreno (geralmente, em


centímetros). Em linhas gerais, representa o nível de detalhamento do mapeamento;
dessa forma, quanto menor for o GSD, maior será o nível de detalhamento (definição
dos objetos).

Veja, na sequência, a definição de uma mesma imagem com GSDs diferentes:

13
Fonte: http://www.esteio.com.br/downloads/2008/EscalaDigital.pdf

Repare que, conforme o tamanho do GSD aumenta, se perde o detalhamento


(definição) dos objetos contidos na imagem. Utilizando um GSD de 10 cm, por exemplo,
qualquer objeto menor que isso não será representado na imagem.

Saiba mais: http://blog.droneng.com.br/gsd/

• Sistema de coordenadas de uma imagem

Assim como no terreno há um sistema de coordenadas (geográficas ou UTM), as


imagens também o possuem. O processo de um projeto de mapeamento aéreo consiste
em correlacionar esses dois sistemas.

O sistema de coordenadas de uma imagem é bidimensional (X,Y), organizado de forma


matricial. Sua origem é no canto superior esquerdo da imagem, sendo os eixos X e Y
representados por colunas e linhas, respectivamente. O pixel localizado no canto
superior esquerdo possui as coordenadas (1,-1).

A partir da origem do sistema, é possível identificar qualquer pixel na imagem a partir


das suas coordenadas. Veja o exemplo a seguir, no qual a seta aponta para o pixel (2,-
5), coluna 2 e linha -5, sendo o valor da linha negativo por se encontrar na parte inferior
do eixo Y.

14
Pixel (1,-1)
3,9 µm na imagem e no terreno?
Coluna

Pixel (2,-5)

Linha

Assim, quando se diz que uma imagem é georreferenciada, significa que cada pixel
possui uma coordenada no terreno, que pode ser geográfica ou UTM.

• Sistema de coordenadas do terreno

O sistema de coordenadas do terreno é o sistema geodésico de referência, que nada


mais é do que o modelo matemático que descreve a forma da terra, permitindo que a
posição (X,Y,Z) de qualquer objeto no planeta seja referenciado. Um de seus
componentes é o datum, ou seja, um ponto de origem do sistema para a referência das
coordenadas, o qual tanto pode ser topocêntrico, sendo sua origem local, quanto
geocêntrico, com origem global (centro da terra).

O sistema adotado internacionalmente é o World Geodetic System de 1984 (WGS 84);


por sua vez, no Brasil, a partir de 2015 o Sistema Geodésico Brasileiro (SGB) definiu o
Sistema de Referência Geocêntrico para as Américas (SIRGAS 2000) como sistema oficial
adotado no país. Ademais, o Instituto Brasileiro de Geografia e Estatística (IBGE) é o
órgão responsável por definir o sistema geodésico de referência, além de transportar as
coordenadas de um sistema para o outro.

A partir do datum escolhido, cada objeto tem sua posição definida no planeta mediante
um sistema de coordenadas geográficas (latitude, longitude e altitude) ou coordenadas
projetadas como UTM (Norte, Leste, altitude).

− Saiba mais
o Sistema geodésico de referência:

https://www.labgis.uerj.br/noticias/opiniao-datum-sad-69-morreu-viva-ao-
sirgas-2000

15
o SIRGAS 2000:

http://www.ibge.gov.br/home/geociencias/geodesia/sirgas/principal.htm

o UTM:

http://www.carto.eng.uerj.br/cgi/index.cgi?x=utm.htm;keys=
https://www.lapig.iesa.ufg.br/lapig/cursos_online/gvsig/a_projeo_utm.ht
ml

• Câmeras digitais de pequeno formato

Na fotogrametria tripulada, as câmeras utilizadas são métricas. Sua principal diferença


das câmeras convencionais está no rigor na construção e definição dos parâmetros
geométricos que as regem, permitindo a determinação de valores mais corretos durante
sua calibração, além da diminuição das distorções inerentes ao processo da fotografia.

Teoricamente, imagens obtidas a partir de câmeras fotogramétricas permitem cálculos


e mensurações mais precisos que aquelas originadas de câmeras convencionais. No
entanto, atualmente técnicas de calibração de câmeras não métricas vêm apresentando
resultados com precisão equivalente em planimetria e, em alguns casos, superior em
altimetria para a criação de modelos digitais de elevação (FERREIRA, 2014).¹

− Saiba mais
o Avaliação de câmera de pequeno formato transportada por veículo aéreo
não tripulado – VANT, para uso em aerolevantamentos:
http://repositorio.unb.br/bitstream/10482/17305/1/2014_AlexandreM
orenoRichwinFerreira.pdf

• Tipos de câmera de pequeno formato

No mercado de mapeamento aéreo com drones, é comum encontrar diversos modelos


de câmeras, porém as mais populares podem ser divididas em dois grupos: compactas
e mirrorless. Em relação ao sensor, ele pode ser de dois tipos: Advanced Photo System
type-C (APS-C) e full frame.

16
− Câmeras compactas

A principal característica das câmeras compactas é seu tamanho reduzido. Geralmente,


são bem fáceis de operar com a ajuda dos modos de cena, que ajustam a configuração
automaticamente; por esse motivo, elas também são chamadas point-n-shoot (apontar
e clicar).

Este modelo é o mais popular no mercado, uma vez que seu peso é menor,
possibilitando ser embarcado em diversos tipos de frame (estruturas), bem como é mais
barato. Os pontos negativos são a impossibilidade de troca de lentes, a abertura máxima
limitada e maiores distorções geométricas, devido ao seu conjunto de lentes.

Canon S110, modelo mais popular no mercado de drones


Fonte: https://images-na.ssl-images-amazon.com/images/I/41NexNoAvIL.jpg

− Câmeras mirrorless

Diferentemente das câmeras Digital Single Lens Reflex (DSLR), as mirrorless não têm
espelhos para redirecionar a imagem para o visor óptico. A luz entra e atinge
diretamente o sensor, sem passar pelo espelho. Isso significa que o sensor fica 100%
exposto, de modo que não é possível ver a cena que se quer fotografar pelo visor óptico,
somente pelo visor Liquid Crystal Display (LCD) ou, nas câmeras mais avançadas, pelo
visor Electronic Viewfinder (EVF).

17
As vantagens deste tipo de câmera são seu tamanho e peso reduzidos, permitindo o
embarque em diversos tipos de Veículos Aéreos Não Tripulados (VANTs). Ainda,
apresentam menor distorção e maior qualidade geométrica, devido à possibilidade de
utilização de lentes de foco fixo, além de haver menos ruídos, pela ausência do flipping
dos espelhos, como os das câmeras DSLR.

Câmera mirrorless Sony a6000 com lente de foco fixo de 16 mm


Fonte: http://www.photozone.de/images/8Reviews/lenses/sony_16_28_nex7/kit.jpg

• Sensores APS-C e full frame

A imagem a seguir apresenta uma câmera com sensor full frame de 36 x 24 mm e outra
com sensor APS-C de 22 x 15 mm.

18
Fonte: http://www.canoncollege.com.br/dicas/o-que-sao-sensores-apsc-e-full-frame-58

O sensor APS-C possui tamanho reduzido, resultando em diminuição no ângulo de visão.


Conhecido como cropado, registra uma parte menor da imagem que é gerada pela lente.
O fator de corte de 1,6x faz com que uma lente de 16 mm, por exemplo, seja equivalente
a uma de 25,6 mm (16 x 1,6 = 25,6). A vantagem do fator de corte é que, ao fazer fotos
de longa distância, a capacidade da teleobjetiva é maior. Veja, na sequência, a diferença
entre uma imagem capturada com full frame e mirrorless.

Fonte: http://www.canoncollege.com.br/dicas/o-que-sao-sensores-apsc-e-full-frame-58

No mapeamento aéreo com drones, uma câmera full frame captura uma imagem maior
(maior quantidade de pixels), ou seja, retrata uma porção maior do terreno, garantindo

19
produtividade maior, porém o modelo é mais pesado que o de APS-C, inviabilizando sua
utilização em alguns tipos de drone.

Muitas pessoas têm dúvidas sobre qual é a influência da quantidade de megapixel na


qualidade da imagem: quanto maior for a quantidade de megapixels de uma câmera,
maior será a imagem retratada por ela (maior quantidade de pixels na imagem); isso não
tem relação direta com a qualidade, que está atrelada à qualidade do sensor e da lente
utilizada.

− Saiba mais
o Diferença entre sensores APS-C e full frame:
http://www.canoncollege.com.br/dicas/o-que-sao-sensores-apsc-e-full-
frame-58
o Funcionamento básico de uma câmera digital:
https://www.youtube.com/watch?v=GSiRYqRi4rw

20
Projeto de Mapeamento Aéreo

Escolha do GSD

A primeira fase do projeto consiste em conversar com o cliente, entender suas


necessidades e, com base nelas, escolher o tamanho de GSD necessário para atendê-las.
Tal escolha está relacionada a alguns fatores, apresentados na sequência.

• GSD pequeno

− Pontos positivos
o Melhora a precisão posicional: o processamento das imagens ocorre
pixel a pixel (no terceiro módulo, aprofundaremos esse tema), ou seja,
primeiramente, o erro ocorre na imagem; como esta é georreferenciada,
o erro é propagado para o terreno. Portanto, ao finalizar o
processamento, tem-se uma precisão em pixel. Por exemplo, se o
resultado final da aerotriangulação é de 1 pixel e o tamanho do pixel é de
5 cm no terreno, o erro posicional no terreno é de 5 cm; por sua vez, se
o GSD for de 2,5 cm, o erro posicional será de 2,5 cm. Assim, se o objetivo
do trabalho é alcançar o máximo de precisão posicional, deve-se utilizar
o menor GSD possível que o equipamento permita.
o Aumenta o nível de detalhamento (resolução espacial): como já
discutido, o tamanho do GSD define a resolução da imagem. Na
cartografia, isso se chama resolução espacial. Quanto menor for o GSD
escolhido, mais nítida será a imagem (maior será o detalhamento).
− Pontos negativos
o Diminui a produtividade: quando se utiliza um GSD pequeno, diminuem
a área de cobertura e, consequentemente, a produtividade.
o Aumenta o tempo de processamento: diminuindo o GSD, aumenta-se a
quantidade de fotos para cobrir uma mesma área, como também o
detalhamento da imagem. Devido a esses fatores, os softwares de
processamento demandam mais tempo para processar as imagens e
gerar os produtos finais.

21
• GSD grande

− Pontos positivos
o Aumento da produtividade: com um GSD maior, é possível mapear uma
quantidade maior de área com a mesma autonomia do equipamento.
o Diminui o tempo de processamento: como são geradas menos imagens
e o nível de detalhamento é menor, o processamento das imagens e a
geração dos produtos finais são mais rápidos.
− Pontos negativos
o Diminui a precisão posicional: analogamente ao exposto no tópico
anterior, aumentar o tamanho do GSD diminui a precisão posicional do
mapeamento aéreo.
o Diminui o nível de detalhamento: da mesma forma, um GSD maior
diminui o nível de detalhamento do mapeamento.

Diante do exposto, para decidir sobre qual tamanho de GSD utilizar, é preciso fazer uma
análise do detalhamento, precisão, tempo de entrega e valor do projeto, sendo que cada
escolha necessariamente exige uma renúncia. Por exemplo, se para um cliente o mais
importante é o tempo de entrega, não sendo o detalhamento tão importante, pode-se
utilizar um GSD maior. No entanto, se é imprescindível que o projeto seja altamente
acurado, deve-se escolher um GSD menor, o que resulta em mais tempo em campo e de
processamento e, consequentemente, um custo maior.

Dica: na prática, utiliza-se uma fórmula que delimita o intervalo que a acurácia de um
determinado mapeamento aéreo pode alcançar, lembrando que essa fórmula aplica-se
a projetos que utilizam pontos de apoio, devendo o controle de qualidade ser executado
em todas as fases do projeto.

X e Y (planimetria): 1 a 1,5 x GSD escolhido

Z (altimetria): 2 a 3 x GSD escolhido

Por exemplo, escolhendo um GSD de 5 cm, a acurácia posicional do projeto será:

X e Y (planimetria): 5 a 7,5 cm e Z (altimetria): 10 a 15 cm.

Essa fórmula ajuda na reunião inicial com o cliente, dando uma ideia de qual será o
resultado final, além de funcionar como um norte para os resultados finais a ser obtidos.
Ela foi validada em um case técnico que a empresa Droneng Drones e Engenharia
realizou comparando a topografia com a fotogrametria com drones.

22
− Saiba mais
o Case técnico – topografia x fotogrametria com drones:
http://conteudo.droneng.com.br/e-book-drones-e-topografia

Cálculo da altura do voo

Após a escolha do GSD, de acordo com o sistema de mapeamento, deve-se definir qual
altura de voo sobrevoar. Para esse cálculo, são necessárias três variáveis: tamanho do
pixel da câmera utilizada, tamanho do GSD escolhido e tamanho da lente utilizada
(distância focal).

• Tamanho do pixel
Nem sempre o tamanho do pixel da câmera é informado pelos fabricantes, mas ele pode
ser calculado com as informações técnicas do equipamento, como o tamanho do sensor
e da imagem gerada por ele.

Por exemplo, a câmera mirrorless Sony a6000, de 24,3 megapixels, possui um sensor de
23,5 x 15,6 mm, que gera uma imagem de 6.000 x 4.000 pixels.

Câmera Sony a6000

Fonte: http://tubby.scene7.com/is/image/tubby/NEX71855BK?$prod_discontinued$?$socialsharing$

23
A relação é muito simples, em um espaço de 23,5 x 15,6 mm, cabem 6.000 x 4.000 pixels.
Correlacionando os lados, tem-se:

23,5 𝑚𝑚
𝑇𝑎𝑚𝑎𝑛ℎ𝑜 𝑑𝑜 𝑝𝑖𝑥𝑒𝑙 = ~ 0,0039 𝑚𝑚 𝑜𝑢 3,9𝜇
6000

15,6 𝑚𝑚
𝑇𝑎𝑚𝑎𝑛ℎ𝑜 𝑑𝑜 𝑝𝑖𝑥𝑒𝑙 = ~ 0,0039 𝑚𝑚 𝑜𝑢 3,9𝜇
4000

Conclui-se que esse pixel é quadrado, com tamanho de 0,0039 mm ou 3,9 µm. No
mercado, é mais comum a utilização da unidade µ (mícron), que representa 10-6 m.
Importa lembrar que cada modelo de câmera tem um tamanho de pixel diferente.

• Distância focal
A distância focal, geralmente representada em milímetros (mm), é uma descrição básica
da lente fotográfica. Não é a medida do real comprimento da lente, mas um cálculo da
distância óptica do ponto onde os raios de luz convergem para formar uma imagem
nítida de um objeto no sensor digital no plano focal da câmera.

Ela revela o ângulo de visão (quanto da cena será capturado) e a ampliação (quão
grandes os elementos individuais serão). Quanto maior a distância focal, mais estreito o
ângulo de visão e maior a ampliação. Quanto menor a distância focal, maior o ângulo de
visão e menor a ampliação.

24
Variações de distância focal em uma mesma cena

Fonte: http://www.nikon.com.br/learn-and-explore/article/g3cu6o2o/introdu%C3%A7%C3%A3o-
entendendo-a-dist%C3%A2ncia-focal.html#!

No mercado de mapeamento aéreo com drones, é comum encontrar câmeras


compactas que possuem distância focal variável e câmeras mirrorless ou DSLR com
distância focal fixa. É muito importante que a distância focal seja fixa ou, no caso das
compactas, que sejam fixadas, pois alterar a distância focal em um mesmo voo modifica
a escala do mapeamento, prejudicando a qualidade dos produtos gerados. Além disso,
uma lente de foco fixo permite melhor precisão no cálculo das distorções nas imagens
ocasionadas pelo desvio dos feixes de luz ao passar pelo conjunto de lentes. Os produtos
gerados com lente de foco fixo ou distância focal fixa apresentam melhor qualidade
geométrica (correta representação dos objetos, sem distorções).

25
• Cálculo da altura de voo

Fonte: http://www.esteio.com.br/downloads/2008/EscalaDigital.pdf (com adaptações do autor).

A figura anterior representa dois pixels na linha CCD, ou seja, no sensor da câmera; esses
mesmos dois pixels estão representados no terreno (GSD). Além disso, há a distância
focal (tamanho da lente) e a altura de voo a ser determinada, elementos destacados em
vermelho na imagem.

Para realizar o cálculo da altura de voo, é necessário conhecer o tamanho do pixel e o


tamanho da lente da câmera que será utilizada, como também definir o tamanho do
GSD (resolução espacial do voo). Neste exemplo, será utilizada a câmera Sony a6000,
com lente de foco fixo de 16 mm.

De acordo com a figura, a disposição do pixel na imagem e do GSD no terreno forma dois
triângulos, representados em ciano. Na trigonometria, quando dois triângulos
satisfazem duas condições simultaneamente – os lados são correspondentes e possuem
medidas proporcionais e os ângulos correspondentes são iguais (congruentes) –, é
possível correlacionar seus vértices. Sendo assim, o tamanho do pixel na imagem está
para o GSD no terreno, assim como o tamanho da distância focal está para a altura de
voo. Transcrevendo essa expressão, tem-se:

𝑃𝑖𝑥𝑒𝑙 𝐷𝑖𝑠𝑡. 𝐹𝑜𝑐𝑎𝑙 (𝐷𝑖𝑠𝑡. 𝐹𝑜𝑐𝑎𝑙 . 𝐺𝑆𝐷)


= ⇒ 𝐴𝑙𝑡𝑢𝑟𝑎 𝑑𝑒 𝑣𝑜𝑜 =
𝐺𝑆𝐷 𝐴𝑙𝑡. 𝑑𝑒 𝑣𝑜𝑜 𝑃𝑖𝑥𝑒𝑙

26
Exemplo: um engenheiro cartógrafo conversando com seu cliente definiu que, de
acordo com suas necessidades, será necessário um GSD de 2,5 cm. O engenheiro possui
um BATMAP com uma câmera Sony a6000 de 24,3 megapixels e uma lente de foco fixo
de 16 mm. Qual deve ser a altura de voo para garantir esse GSD?

Tamanho do pixel: 3,9 µm = 0,0000039 m

Distância focal: 16 mm = 0,016 m

GSD: 2,5 cm = 0,025 m

Altura de voo (H): ? (m)

(0,016𝑚 . 0,025𝑚)
𝑯= ≃ 102 𝑚
0,0000039 𝑚

Portanto, para garantir um GSD de 2,5 cm, o engenheiro deve sobrevoar a 102 m com
seu equipamento.

Dica: transforme as unidades em metros antes de realizar os cálculos. Quando o valor


da altura encontrado não for um valor exato, sempre arredonde para menos, pois assim
você ganhará resolução e não prejudicará o trabalho; caso contrário, perderá resolução
(o GSD será maior), não conseguindo atender ao objetivo proposto do trabalho.

Sobreposições

A sobreposição é um conceito muito importante no mapeamento aéreo, pois, a partir


dela, é possível realizar a mosaicagem das imagens e, consequentemente, os produtos
finais. Além disso, garante a obtenção da altura/altitude do terreno.

Os humanos têm a percepção de profundidade dos objetos, devido à visão


estereoscópica, que é resultante da posição dos olhos, ou seja, olha-se para um mesmo
ponto de dois ângulos distintos (convergência ocular). Veja um exemplo na figura a
seguir:

27
Convergência ocular

Fonte: http://www.ub.edu/pa1/node/78

No mapeamento aéreo, as imagens não são tomadas lado a lado, mas são sobrepostas
entre si. Essas regiões sobrepostas são denominadas modelo estereoscópico. Veja no
exemplo a seguir:

Imagens sobrepostas

Nesse exemplo, há duas imagens sobrepostas. Na região de sobreposição destacada em


azul, há um objeto que aparece em ambas as imagens; separando-as, nota-se que na
imagem 1 o objeto está na região superior, próximo à borda, enquanto na imagem 2
está próximo ao centro. Em outras palavras, na região sobreposta, o mesmo objeto é
“observado” por dois ângulos distintos (similar ao fenômeno da convergência ocular).
Assim, nessa região, é possível utilizar a estereoscopia para determinar a altura dos
objetos – como o modelo é georreferenciado, é possível quantificar essa altura.

28
A sobreposição pode ocorrer de duas formas:

• Sobreposição longitudinal: é a sobreposição entre imagens de uma mesma faixa


de voo

• Sobreposição lateral: é a sobreposição entre faixas de voo.

Na fotogrametria tripulada, a sobreposição mínima necessária é 60% longitudinal e 30%


lateral. Na não tripulada (com drones), essas sobreposições devem ser maiores, devido
à influência do vento na aeronave, fazendo com que ocorra uma grande variação
angular. Normalmente, empregam-se 80% de sobreposição longitudinal e 50% lateral.

Dica: quando o terreno é bastante acidentado, como em regiões montanhosas, por


exemplo, é necessário aumentar a sobreposição lateral para garantir as sobreposições.
Geralmente, nesses projetos, usa-se 80/80 ou 70/70 (sobreposições longitudinal e
lateral).

29
Imagens e faixas sobrepostas em um mapeamento aéreo tripulado
Fonte: https://www.researchgate.net/publication/268329721_FOTOGRAMETRIA_AEREA

Modelo estereoscópico (3D) gerado por sobreposição das imagens

30
Manipulação da nuvem de pontos

Edição da nuvem de pontos

31
Pontos de apoio

São pontos fotoidentificáveis, ou seja, são objetos, alvos, detalhes no terreno que irão
aparecer nas imagens aéreas. São utilizados para fazer a relação entre o sistema de
coordenadas da imagem e o sistema de coordenadas do terreno, consistindo
basicamente em pontos de referência no solo utilizados no pós-processamento das
imagens, aumentando, assim, a precisão dos produtos finais.

Na fotogrametria tripulada (com aviões), os pontos de controle tinham uma enorme


importância no pós-processamento dos dados, pois os softwares disponíveis não eram
capazes de processar as imagens sem uma referência em solo. Atualmente, com o
avanço da visão computacional, os algoritmos dos softwares mudaram e os pontos de
controle já não são mais um pré-requisito para o pós-processamento dos dados. Assim,
seu uso é opcional. Mas quando usá-los?

• Quando utilizar

Para realizar o pós-processamento dos dados coletados em campo, é necessário


introduzir no software as imagens capturadas e as coordenadas de cada imagem,
gravadas pelo receptor de sistema de posicionamento global (GPS) embarcado no drone.
Esses dados são obrigatórios, sendo opcionais as informações do sistema inercial,
responsável por gravar a posição da aeronave no instante de tomada de cada foto.
Somente com essas duas informações (imagens e coordenadas), o software é capaz de
georreferenciar as imagens em relação ao solo.

Você deve estar se perguntando: mas por que eu preciso de pontos de controle em solo?
A resposta é simples! Para aumentar a acurácia do seu mapeamento aéreo.

A maioria dos drones possui em seu sistema embarcado um GPS de navegação,


responsável por executar a missão programada em escritório e gravar a posição em que
cada imagem foi tomada, porém a precisão de um GPS de navegação é em torno de 5 a
10 m; em outras palavras, um ponto coletado por esse GPS, quando verificado no
terreno, pode estar em um raio de 5 a 10 m. Dessa forma, o aparelho possui um erro de
5 a 10 m em relação ao terreno.

32
É preciso concordar que um mapeamento aéreo com acurácia de 5 a 10 m não é
recomendado para nenhum projeto de engenharia, até porque com esse nível de
acurácia pode-se utilizar o Google Earth. Nesse momento, entra a função dos pontos de
apoio. Nesse novo cenário tecnológico em que a fotogrametria está inserida, a utilização
dos pontos de apoio aumenta a acurácia do mapeamento.

• Tipos de ponto de apoio

− Alvos naturais: neste cenário, bem comum em projetos de mapeamento aéreo


de áreas urbanas, há um grande nível de detalhes em solo, visíveis também na
imagem, que podem ser usados. Por exemplo, é possível utilizar o canto de uma
faixa de pedestres, o canto de uma esquina, intersecções visíveis. Com isso, o
projeto ganha uma velocidade maior em sua execução, uma vez que se pode
iniciar a coleta dos pontos de apoio com grande antecedência ao voo ou após a
sua execução, não sendo esses alvos naturais removidos do solo.

Alvo natural: canto de uma faixa de pedestres em uma cidade

33
− Alvos artificiais: em áreas rurais, os terrenos geralmente são homogêneos, não
apresentando detalhes que possam ser utilizados como alvos. Neste caso, são
empregados alvos artificiais, os quais são implantados no terreno e aparecem
nas imagens aéreas. Esse tipo de levantamento é chamado voo pré-sinalizado.
Geralmente, os alvos são espalhados pelo terreno e, logo em seguida, é feito o
voo; já a coleta dos pontos de apoio é executada após o voo, nada impedindo
que seja realizada antes, mas é importante garantir que os pontos estarão no
mesmo local na hora do aerolevantamento.

Alvo artificial: alvo confeccionado de azulejo

Ponto em campo (dois azulejos) e na imagem


Fonte: Droneng Drones e Engenharia

34
Tipos de alvo
Fonte: Droneng Drones e Engenharia

• Como utilizar

Sabe-se que a função do ponto de controle é “ligar” a imagem ao terreno, sendo


utilizado para aumentar a acurácia do aerolevantamento. Para empregar os pontos de
controle em um projeto, é necessário ir até os alvos em solo e coletar suas coordenadas
com um receptor de GPS geodésico (GPS de alta precisão). Esses receptores são capazes
de coletar as coordenadas de um determinado ponto com uma precisão milimétrica, ou
seja, o erro em relação ao terreno é na casa de milímetros, ao contrário do GPS de
navegação, que é na casa de metros.

Com as coordenadas dos alvos coletadas, no software de pós-processamento,


encontram-se os alvos nas imagens e são introduzidas as coordenadas precisas dos alvos
no campo. O software utiliza essas coordenadas como referência em sua
aerotriangulação, ou seja, transporta-as para o restante dos pixels da imagem,
realizando o georreferenciamento. Dessa forma, cada pixel da imagem tem sua
coordenada estabelecida.

De maneira simples, ao fazer um mapeamento aéreo sem pontos de controle, a acurácia


está ligada diretamente à precisão do receptor de GPS de navegação embarcado no
drone. Quando se utilizam os pontos de apoio, atribui-se uma nova referência ao
processamento, aumentando a acurácia, que passa a ser na casa de centímetros.

35
− Pontos de verificação (check points)

Os pontos de verificação apresentam as mesmas características dos pontos de controle,


estando a diferença na sua utilização: enquanto este são usados no processamento do
bloco fotogramétrico, os check points são empregados apenas para verificação do
produto final.

O processo ocorre da seguinte maneira: após a coleta dos pontos de verificação em solo
e o estabelecimento das coordenadas de terreno desses pontos, no fim do
processamento, o software compara as coordenadas obtidas na imagem com as
coordenadas do terreno. Basicamente, ele compara a confiabilidade das medições
realizadas na imagem em relação ao terreno, sendo o check point a diferença entre as
coordenadas.

Vale ressaltar que os pontos de verificação não podem ser utilizados no processamento
do bloco fotogramétrico, pois, caso isso ocorra, eles irão participar do processo
estatístico de ajustamento, influenciando diretamente suas coordenadas e precisão e,
com isso, mascarando os resultados finais. Portanto, eles são mensurados na imagem e,
no momento do processamento (aerotriangulação), não são selecionados.

36

Você também pode gostar