Traitement Du Drone AMZIL SAKHR
Traitement Du Drone AMZIL SAKHR
Traitement Du Drone AMZIL SAKHR
___________________
MEMOIRE
par
Sakhr AMZIL
___________________
_________________
JURY
Je tiens tout d’abord à remercier mes maîtres de stage, Alexandre LAMBLIN et Camille
PRADIER pour leur investissement, leurs conseils et leur encadrement durant ce travail de
fin d’études.
Je tiens également à remercier Éric MALENFER, président du groupe Gexpertise, ainsi que
toute l’équipe du pôle GéoTop avec qui j’ai eu un réel plaisir de travailler et d’échanger
durant ces six mois de stage.
Je tiens aussi à remercier mes enseignants et mes amis de l’ESGT pour ces trois heureuses
années d’enseignements et de collaboration.
2
Liste des abréviations
4
II.5.3.4 Le bruit ...................................................................................................................... 44
II.5.4 Comparaison des ortho-images ........................................................................................... 47
II.5.4.1 Toiture ....................................................................................................................... 47
II.5.4.2 Façades ...................................................................................................................... 50
II.6 CONCLUSION ............................................................................................................................ 51
II.7 RELEVE TOPOGRAPHIQUE ......................................................................................................... 52
III INTERNALISATION DES METHODES DE LEVE PHOTOGRAMMETRIQUE ET MISE EN PLACE DE LA
NOUVELLE CHAINE DE PRODUCTION PHOTOGRAMMETRIQUE PAR DRONE ............................................. 54
III.1 INTERNALISATION DES METHODES DE LEVE PHOTOGRAMMETRIQUE ........................................ 54
III.1.1 Aspect économique ........................................................................................................ 54
III.1.2 Aspect administratif ....................................................................................................... 54
III.1.2.1 Formation .................................................................................................................. 54
III.1.2.2 Déclarations et autorisations ..................................................................................... 55
III.1.2.3 Demande d’autorisation de vol pour l’affaire : « la maison de maître » ................... 56
III.1.3 Choix du drone ............................................................................................................... 56
III.1.4 Test du drone.................................................................................................................. 57
III.2 MISE EN PLACE DE LA NOUVELLE CHAINE DE PRODUCTION PHOTOGRAMMETRIQUE PAR DRONE
58
III.2.1 Acquisition des images .................................................................................................. 58
III.2.1.1 Le drone et le logiciel de programmation de vol ....................................................... 58
III.2.1.2 Méthodologie de vol .................................................................................................. 59
III.2.2 Nouvelle chaîne de traitement photogrammétrique ....................................................... 59
Conclusion ........................................................................................................................... 60
Bibliographie ....................................................................................................................... 61
Table des annexes ................................................................................................................ 64
Annexe 1 Schéma du positionnement cinématique (Clerisse, 2016) .................................. 65
Annexe 2 Les différents scénarios de vol ............................................................................ 66
Annexe 3 Les catégories de la réglementation européenne ................................................. 67
Annexe 4 Les paramètres choisis pour le traitement photogrammétrique .......................... 68
Annexe 5 Quelques coupes réalisées sur Cloudworx .......................................................... 69
Annexe 6 Script FME pour le bruit ..................................................................................... 70
Annexe 7 Synthèse des démarches relatives aux activités particulières pour les aéronefs
télépilotés ............................................................................................................................. 71
Annexe 8 Tutoriel RealityCapture ....................................................................................... 75
Liste des figures ................................................................................................................... 83
Liste des tableaux ................................................................................................................ 84
5
Introduction
Contexte de l’étude
L’acquisition des données 3D par photogrammétrie se développe de plus en plus depuis
l’émergence de l’utilisation des drones et des caméras numériques. Elle est donc devenue un
véritable concurrent à la lasergrammétrie et s’est avérée, dans plusieurs cas, plus pratique
que cette dernière. De ce fait, de nombreux logiciels de traitement photogrammétrique sont
apparus, mais n’offrent pas tous les mêmes fonctionnalités.
Le pôle GéoTop du département immobilier réalise des plans de toitures et de façades à partir
d’orthophotos et des plans topographiques à partir des nuages de points obtenus par
photogrammétrie. Auparavant, le pôle avait recours à la lasergrammétrie en réalisant des
levés avec le scanner laser terrestre de la marque FARO ou Leica. Mais cette méthode a fait
ressortir plusieurs problèmes. Le temps d’acquisition, pour des projets de grande ampleur
pouvait durer des semaines. De plus, le prix d’un scanner laser est généralement supérieur à
celui d’un drone. Il y a aussi le risque d’oublier des détails lors du levé à cause des obstacles,
ce qui se traduit par des masques dans le nuage de points. Finalement, il est difficile de
réaliser un levé scanner dans des zones à risques ou non accessibles comme les toitures ou
les falaises.
Le traitement photogrammétrique se fait aujourd’hui sur le logiciel Metashape d’Agisoft.
Plusieurs problèmes ont été recensés lors du traitement, notamment la représentation des
angles sur les toitures et les façades des bâtiments. Ce problème d’angle est constaté dans
les zones où l’altitude change brusquement comme sur les bordures et les escaliers, ce qui
6
conduit à des erreurs lors du dessin des plans de façade. De plus, le logiciel utilisé
actuellement est assez lourd et coûteux en temps machine, et il y a un recours systématique
à des intervenants extérieurs pour effectuer les prises de vue.
Problématique
Ce mémoire a pour objectif d’optimiser la chaîne de production photogrammétrique de
l’entreprise en matière d’acquisition et de logiciel de traitement en s’intéressant aux
problèmes souvent rencontrés dans cette chaîne. Il sera aussi question d’étudier la possible
internalisation des relevés photogrammétriques au sein du cabinet.
Ce travail de fin d’études est structuré en trois parties. La première partie présentera un état
de l’art des différents logiciels de traitement photogrammétrique disponibles sur le marché,
suivi par les travaux relatifs à l’acquisition 3D par photogrammétrie et sur la réglementation
pour les levés par drone. La deuxième partie se concentrera sur le choix du logiciel le plus
adapté pour réaliser les prestations proposées par l’entreprise, qui se fera en analysant les
paramètres internes et externes estimés par les logiciels testés, ainsi que les orthophotos et
les nuages de points obtenus sur CloudCompare, CloudWorx (sur Autocad) et
GlobalMapper. Enfin, dans la troisième partie, nous étudierons les étapes et les coûts à
prévoir pour l’internalisation des relevés photogrammétriques par drone au sein d’un cabinet
de géomètre expert. Nous analyserons aussi la nouvelle chaîne de production
photogrammétrique proposée, ainsi que ses avantages en comparaison avec l’ancienne
chaîne de production.
7
I Etat de l’art
I.1 Les logiciels existants
De nombreux logiciels commerciaux sont souvent définis comme étant des « boîtes noire »
car les vrais algorithmes de fonctionnement du programme ne sont pas décrits en détail.
8
I.1.1 Logiciels payants
Agisoft Metashape
Fondé en 2006 et anciennement appelé Agisoft Photoscan, Agisoft Metashape est un logiciel
de photogrammétrie payant qui propose deux versions : Standard et Professionnelle. La
version Professionnelle propose plus d’options et un panel plus large de possibilités de
traitement. Elle offre des options intéressantes comme la possibilité d’utiliser des photos
360° pour la reconstruction, la capacité de traiter des séquences vidéo, une bibliothèque
Python native qui permet la programmation de fonctions complémentaires, une compatibilité
avec les outils SIG et surtout la détection automatique des cibles. C’est un logiciel intuitif
avec une option Cloud (gratuite pour le moment) qui a pour but d’optimiser le temps de
calcul.
RealityCapture :
Fondé en 2013, Capturing Reality crée en 2016 RealityCapture. C’est un logiciel de
modélisation photogrammétrique 3D, qui calcule des nuages de points 3D. Il est aussi connu
pour son interface unique que nous pouvons personnaliser en choisissant les vues 1D, 2D et
3D et qui propose une aide détaillée lors de chaque étape du calcul. C’est aussi l’un des seuls
logiciels permettant de combiner photos et relevés laser pour la reconstruction 3D.
Il est souvent critiqué pour son prix élevé, l’incapacité de générer le modèle numérique de
terrain (MNT) et d’interférer dans le code ou changer des paramètres, par exemple, il est
impossible de réaliser un masque directement sur les photos.
Enfin, il exige une carte Nvidia compatible CUDA pour fonctionner car presque 70% des
calculs de certaines phases se font sur le processeur graphique (GPU), la puissance de la
carte graphique est donc déterminante.
Pix4DMapper :
Pix4DMapper est l’un des logiciels les plus utilisés chez les professionnels de la topographie,
de l’architecture, et de la géomatique pour les traitements photogrammétriques à partir des
images prises par drone. Il a été créé en 2011 par l’entreprise Pix4D.
L’interface graphique est simple et la prise en main est rapide. Ainsi, le logiciel propose un
service Cloud et permet de traiter des images thermiques ou multispectrales et prend en
charge le traitement des vidéos et des images à 360°.
9
Ainsi, lorsqu’un nouveau projet est lancé, nous avons la possibilité de choisir le type de
projet (model 3D, carte 3D..) pour que le logiciel soit optimisé par rapport à la demande de
l’utilisateur.
ContextCapture :
Apparue en 2015, ContextCapture est une suite d’applications développée par la société
Bentley Systems. Elle est composée de deux outils principaux :
Trois programmes pour la production du modèle 3D : Master qui est l'interface
utilisateur, Engine qui exécute les algorithmes de calcul et Viewer pour visualiser
les résultats.
ContextCapture Editor pour exploiter les données produites.
Il permet aussi la détection automatique des cibles, traite les nuages de points lidar, propose
un service Cloud et renvoi des modèles 3D et des orthophotos.
Recap photo :
Anciennement appelé Remake, Recap Photo, apparut en fin 2017, est la solution de
photogrammétrie dans le cloud d’Autodesk. Elle est incluse dans l’abonnement Recap Pro
d’Autodesk et ne propose pas de calcul en local. Le traitement se fait donc sur le cloud avec
des crédits qu’il faut acheter. L’interface est simple, clair et minimaliste et la génération du
modèle 3D et de l’orthophoto est rapide. Cependant il n’y a aucun moyen d’intervenir dans
le traitement.
Ainsi, le logiciel exige un grand recouvrement et ne propose pas de fonction de détection
automatique des cibles.
10
I.1.2 Solutions open source
Il existe aussi des logiciels open source comme Visual SFM et Meshroom. Cependant, leur
usage est assez limité et peut s’avérer parfois complexe. Par exemple, Visual SFM s’arrête
à la génération d’un nuage de points et Meshroom ne dispose pas d’option de
géoréférencement et ne produit pas d’orthophoto.
L’ensemble de ces logiciels sera testé lors d’une première phase d’étude. Les solutions open
source ne correspondent pas aux attentes de Gexpertise, ils seront donc écartés de l’étude.
Lors de la prise de vue aérienne ou terrestre, nous pouvons contrôler la qualité de la photo
en ajustant 5 paramètres :
La résolution : Elle désigne le nombre de pixels capturés par l’appareil à chaque fois qu’une
photo est prise.
La distance focale : C’est la distance entre le capteur et le centre optique de l’objectif. Plus
la focale est courte, plus l’angle de vision est grand.
L’ouverture du diaphragme : Elle contrôle la quantité de la lumière pénétrant dans le
capteur. Le choix de l’ouverture a une influence directe sur la profondeur de champ qui
définit la netteté de l’image.
La vitesse d’obturation : Appelée aussi temps de pose, elle est définie comme étant le temps
pendant lequel l’obturateur s’ouvre au déclenchement, c’est-à-dire le temps pendant lequel
votre capteur est exposé à la lumière.
La sensibilité ISO : C’est l’un des trois paramètres fondamentaux de l’exposition avec
l’ouverture du diaphragme et la vitesse d’obturation. C’est la sensibilité du capteur à la
lumière.
11
I.2.2 Etalonnage intrinsèque des appareils photographiques (orientation interne)
Pour mesurer les paramètres intrinsèques il faut réaliser un étalonnage. Cette étape est
importante car les imperfections des éléments constituants les caméras introduisent des
déformations optiques qui dégradent la qualité géométrique des images (Santelli, 2016).
Les inconnues à déterminer lors de l’étalonnage sont : Point Principal de Symétrie (PPS),
Point Principal d’Autocollimation (PPA), et distance focale. Ainsi que les paramètres des
distorsions radiales, tangentielle et affine (c.f. figure 2).
12
I.2.3 Orientation externe
L’orientation externe d’un appareil photo à l’aide d’un logiciel photogrammétrique peut se
faire de deux façons : en calculant l’orientation relative suivie de l’orientation absolue (c.f.
figure 3), ou avec la méthode appelée « Block Bundle Adjustment » dans laquelle des
algorithmes d’optimisation tel que Levenberg-Marquardt sont utilisés.
L’orientation relative : Cette première étape consiste à apparier les images entre elles grâce
à la détection des points homologues. Une intervention manuelle n’est pas nécessaire à ce
stade, car l’extraction et la correspondance des points homologues est un problème résolu
par vision par ordinateur (détecteurs/descripteurs automatisés comme SIFT, ASIFT, ORB,
SURF, AKAZE, MSER, etc.) Sans points d’appui, cette opération ne génère que des
coordonnées 3D en système modèle.
L’orientation absolue : Elle permet de géoréférencer le modèle 3D, et donc le passage du
système de coordonnées modèle au système de coordonnées terrain. Cette orientation utilise
une similitude spatiale qui contient trois translations, trois rotations et un facteur d’échelle.
Avec sept paramètres à résoudre, le problème d’orientation absolue nécessite au moins 3
points d’appui connus en coordonnées dans le système du terrain. Le modèle mathématique
de cette transformation de similitude 3D est exprimé par le système d’équations suivant :
Où :
𝑋, 𝑌, 𝑍 : Coordonnées en système terrain
𝑋𝑚 , 𝑌𝑚 , 𝑍𝑚 : Translations en 3D
𝑚 : Facteur d’échelle
𝑟 : Matrice de rotation contenant les trois rotations ξ, η, ζ
𝑥, 𝑦, 𝑧 : Coordonnées en système modèle
13
Figure 3 : Illustration de l’orientation externe (Murtiyoso, 2016)
I.2.4 Recouvrement
L’angle de prise de vue à un impact direct sur la densité du nuage de points. Nous pouvons
donc incliner la caméra lors des levés photogrammétriques terrestres ou aériens afin
d’optimiser la couverture de l’objet et d’éviter les occlusions.
Dans une étude (Jaud et al, 2019) évaluant l’impact de l’angle de prise de vue sur la
reconstruction d’une falaise, qui ressemble dans notre cas aux levés de façades, les résultats
montrent que les levés avec une caméra qui pointe au nadir sont presque sans intérêt.
Cependant, ils obtiennent des résultats satisfaisants en matière de précision et de
reconstruction de la falaise avec des angles d’inclinaison (hors nadir) allant de 20° à 40°.
L'angle d’inclinaison de la caméra doit donc être déterminé en tenant compte de la hauteur
du vol, de la hauteur de l'objet, et du type d'obstacles éventuels. Le problème principal reste
donc le choix de la meilleure approche de planification de vol afin de couvrir l’ensemble de
l’objet avec un temps de vol minimum. (Dewez et al, 2016). Il faut aussi faire attention aux
composantes de l’objet qui sont les plus proches et les plus éloignés avec une résolution au
14
sol (GSD) similaire. Pour cela, la solution peut être de changer la distance focale de la caméra
dans des vols similaires ou d’effectuer d’autres vols.
Dans des cas où la surface à lever est grande, le géoréférencement direct peut être une
alternative intéressante à condition d’utiliser une méthode de positionnement sûre (option
RTK ou PPK). Nous pouvons obtenir, en respectant quelques conditions, des précisions
similaires à celles obtenu avec l’aérotriangulation (Clerisse, 2016).
La densité de points est un paramètre essentiel pour reproduire fidèlement la géométrie d’un
objet. C’est ce qui a été démontrée dans une étude sur les risques d’effondrement de falaise
qui consiste à comparer un levé d’une falaise fait par drone avec celui généré par un scanner
laser terrestre (Dewez et al, 2016). Pour le vol, trois trajectoires avec différentes directions
de visée sont combinées (horizontale, oblique à 45° et verticale).
D’un point de vue qualitatif, le levé par scanner affichait une ombre derrière une masse
rocheuse qui s’est traduit par un trou dans le nuage de points, tandis que le nuage de points
obtenu suite au levé par drone ne contenait pas d’ombre. Il était à la fois plus dense et plus
uniforme sur toute la hauteur de la falaise. D’un point de vue quantitatif, des comparaisons
topographiques entre les nuages de points générés avec l’algorithme SFM (Structure From
Motion) à différentes résolutions ont été réalisées. Les résultats ont montré que la réduction
de la densité produit non seulement une définition de relief plus grossière, mais crée
également des modifications topographiques comme les crêtes qui sont rasées. Il n'est donc
pas conseillé de réduire la densité des nuages de points, malgré le fort impact que cela a sur
le temps de calcul.
15
I.3 Chaîne de production photogrammétrique mise en place chez
Gexpertise
Pour l’acquisition des images aériennes, Gexpertise formule une demande auprès d’un
prestataire extérieur, indiquant la zone à lever, le taux de recouvrement d’images souhaité
(70% / 70 au minimum), ainsi que la résolution spatiale (4 à 5 mm pour les levés de toiture).
Ce dernier se charge des autorisations et des déclarations de vol. Ainsi, le jour de vol,
l’entreprise effectue un levé des points d’appui nécessaires au géoréférencement du nuage
de points lors du traitement.
Le calcul photogrammétrique est réalisé avec le logiciel Metashape d’Agisoft (c.f. figure 4).
Lors de ce calcul, certains programmes ou outils sont utilisés afin d’optimiser la chaîne de
traitement. Cela concerne l’outil « Masque » qui aide le logiciel à aligner les images en
détournant l’arrière-plan d’un objet et l’outil « Batch » qui permet d’automatiser une suite
d’opérations sous Metashape. Il permet également d’ajouter une étape d’enregistrement
automatique du projet après la génération du nuage de points dense pour éviter la perte des
résultats. Les projets avec un très grand nombre d’images nécessitent l’utilisation d’un
programme les découpant en de plus petites zones pour un traitement plus rapide. Pour se
faire, Gexpertise utilise le programme python « Split in chunk ». Enfin, les résultats sont
exportés pour le dessin des plans de toitures et/ou de façades.
16
I.4 Drone
I.4.1 Evolution de l’utilisation des drones
Depuis plusieurs décennies, les drones n’étaient utilisés que dans le domaine militaire, mais
depuis une dizaine d’années nous remarquons une démocratisation de l’usage de ces
aéronefs. Cela est dû à l’augmentation de la puissance des moteurs électriques et de
l’autonomie des batteries, l’allègement et la miniaturisation des systèmes et des éléments de
structure, l’amélioration de la performance des capteurs et la réduction des coûts de
l’ensemble des composants.
La France a été le premier pays à légiférer sur l’usage des drones civils en 2012. Cette
législation découle d’une étude menée par la Direction Générale de l’Aviation Civile
(DGAC) sur les systèmes d’avion piloté à distance (RPAS) mais aussi de la collaboration
entre la fédération professionnelle du drone civil (FPDC), la fédération française
d’aéromodélisme (FFAM) et l’Etat (Clerisse, 2016).
Le drone est divisé en trois parties. La structure qui contient les ailes, les hélices, la nacelle
et le châssis du drone. Le système de pilote automatique qui contient le GPS, la centrale
inertielle, la gestion des déplacements du drone en vol et de la nacelle et la gestion des
batteries. Et enfin, la station de contrôle qui contient la radiocommande permettant de piloter
le drone en vol et les logiciels de vol automatique (Fehrenbach, 2014)
Il existe deux types de drones commerciaux : Voilure fixe et voilure tournante. Le choix du
drone dépend généralement du type de levé souhaité, du niveau de précision et des
caractéristiques du capteur. Ainsi, certains constructeurs proposent différents capteurs pour
répondre au besoin de chaque utilisateur.
17
Pixels effectifs
Modèle Constructeur Autonomie Poids Prix
(capteur)
Phantom 4
DJI 20 MP ~ 30 min 1375 g ~ 1700 €
pro V2.0
E50 : 12 MP
H520 Yuneec ~ 25 min 2000 g ~ 2600 €
E90 : 20 MP
ZX5 Trimble 24 MP ~ 20 min 2300 g ~ 8000 €
Falcon 8+ Topcon 36 MP ~ 20 min 2000 g ~ 20000 €
Tableau 1 : Quelques drones à voilure tournante et leurs caractéristiques
Les ailes volantes offrent une plus grande autonomie et vitesse de vol grâce à leur
aérodynamisme qui ressemble à celui d’un avion. Cependant, ils sont très sensibles au vent
du fait de leur poids léger. Ainsi, leur prix est encore largement supérieur à celui d’un drone
à voilure tournante (c.f. tableau 2). Ce type de drone contient en général une seule hélice à
l’avant ou à l’arrière, et il est souvent utilisé pour couvrir une grande surface hors zone
urbaine (Clerisse, 2016).
Pixels effectifs
Modèle Constructeur Autonomie Poids Prix
(capteur)
Plusieurs constructeurs proposent des nouvelles versions de drone avec des options
RTK/NRTK ou PPK/NPPK pour garantir une meilleure précision en absolue sans ou avec
l’utilisation d’un faible nombre de GCP (c.f. tableau 3). Un test sera réalisé par la suite pour
évaluer cette précision.
La méthode RTK exige l’utilisation d’une base et permet au mobile de prendre en compte
les corrections reçues par radio en temps réel. Cependant, la méthode NRTK ne nécessite
pas de base car elle utilise des corrections provenant d’un calcul de réseau qui interpole les
erreurs géométriques et dispersives mesurées sur plusieurs stations autour du mobile.
18
Ainsi, la précision de ces corrections dépend énormément de la position du mobile par
rapport aux stations constituant le réseau. Il existe trois réseaux GNSS en France qui
permettent la réalisation des mesures en temps réel : Orphéon, Sat-info et Teria.
Les méthodes PPK et NPPK ressemblent respectivement aux méthodes RTK et NRTK avec
comme différence le post-traitement pour obtenir les résultats1.
Pour le mode RTK, les constructeurs annoncent un positionnement relatif de haute
précision : 1 cm + 1 ppm en horizontal et 1,5 cm + 1 ppm en vertical. Ainsi, le mode PPK a
une précision similaire et peut-être plus fiable dans certains cas où la liaison radio entre la
base et le drone n’est pas garantie.
Pixels
Modèle Constructeur Autonomie RTK/PPK Poids Prix
effectifs
Phantom 4 RTK ~ 7800 €
(avec D-RTK 2 DJI 20 MP ~ 30 min RTK/PPK 1391 g (5700 € sans
Combo D-RTK)
eBee X Sensefly 20 MP ~ 59 min RTK/PPK 1400 g ~ 24000 €
L’usage des aéronefs civils sans équipage à bord en France est réglementé par deux arrêtés
du Ministère de l’écologie, du développement durable et de l’énergie du 17 décembre 2015
qui ont abrogé ceux de 2012, et une loi du 24 novembre 2016 :
Loi « drones » n° 2016-1428 du 24 novembre 2016 relative au renforcement de la
sécurité de l'usage des drones civils, suivit par le décret fixant les sanctions pénales
applicables en cas de manquements aux obligations introduites par la loi du 24
novembre 2016 qui a été publié le 28 novembre 2019.
1
Voir Annexe X
19
Arrêté relatif à la conception des aéronefs civils qui circulent sans personne à bord,
aux conditions de leur emploi et aux capacités requises des personnes qui les
utilisent. Cet arrêté concerne surtout les constructeurs de drones car il met en place
l’ensemble des normes qui doivent être respectées.
Arrêté relatif à l’utilisation de l’espace aérien par les aéronefs civils qui circulent
sans personne à bord. Cet arrêté explique les différents scénarios2 possibles pour les
vols professionnels.
2
Voir Annexe 1
3
Voir Annexe 2
20
Catégorie spécifique « Specific » : Ce sont les vols moyennement dangereux. Cela
correspond aux scénarios S2 et S3, comme les vols hors vue, en ville ou à proximité
d’aérodrome. Ils nécessitent une autorisation à la suite d'une évaluation des risques
que l’exploitant aura préalablement effectuée.
Catégorie certifiée « Certified » : Ce sont les vols dangereux. Cela correspond au
transport de colis ou de personnes.
Ainsi, à partir du 1er juillet 2020, il sera obligatoire pour l’utilisateur de drone,
d’immatriculer son appareil auprès de l’autorité nationale de l’Etat membre de résidence
(DGAC en France).
21
II Choix du logiciel pour la génération du nuage de points et
orthophotos
Sur Recap photo, le nombre max de photos par projet est de 1000. Ainsi, tous les traitements
doivent passer par le cloud et exigent des crédits à chaque utilisation. Ce qui n’était pas le
cas dans la version précédente « Remake ». Cependant, la génération du nuage de points a
donné des résultats satisfaisants. Mais en ce qui concerne l’orthophoto, Recap Photo ne
permet pas de modifier les paramètres pour choisir l’axe de l’orthophoto. Nous ne pouvons
donc pas générer d’orthophoto de façades. À la vue de cette contrainte, éliminatoire pour
Gexpertise, ce logiciel ne sera pas étudié dans la suite de ce projet.
Sur 3D Flow Zephyr, nous avons remarqué une forte ressemblance avec le logiciel
Metashape au niveau de l’ergonomie et des livrables proposés. Cependant, la durée de calcul
était supérieure comparée à Metashape. Nous avons donc décidé de garder ce dernier pour
la suite car il est relativement plus rapide et beaucoup plus utilisé que 3D Flow Zephyr.
RealityCaprture, Pix4D et ContexteCapture (c.f. figure 5) ont donné des résultats
satisfaisants au niveau du temps de traitement et de la qualité des rendus. Ils seront étudiés
plus en détails dans un autre temps.
22
Figure 5 : Nuage de points du mur généré par ContextCapture
Le choix d’un petit nombre de photos nous a permis d’avoir des livrables rapidement et de
choisir les logiciels les plus adaptés aux besoins de Gexpertise. Néanmoins ce test devrait
être réalisé avec un plus grand nombre de photos pour avoir une meilleure idée sur le temps
de traitement spécifique à chaque logiciel.
Figure 6 : Image de la façade prise par drone et maillage 3D du bâtiment sur Metashape
4
Grande bâtisse située soit en milieu urbain, soit à la campagne, souvent reconnaissable à sa
base de forme rectangulaire et à ses grandes pierres angulaires apparentes.
23
Dans ce projet, le DJI Phantom 4 a été utilisé pour acquérir les images (c.f. tableau 4). Le
drone a volé à environ 8 m de la façade et de la toiture avec un taux de recouvrement de
70%.
Les prises de vue étaient parallèles et convergentes pour les façades. Cela permet de mieux
modéliser la profondeur des fenêtres et des portes, de réduire les occlusions et de fournir des
données plus exhaustives que celles acquises par lasergrammétrie. Cependant, pour la
toiture, les prises de vue étaient le plus souvent parallèles à cause de la faible variation de
profondeur de la toiture. Le nombre total de photos prises est de 1192.
Nous avons aussi positionné 10 cibles sur les façades. Ces cibles ont été réparties de façon à
couvrir tout le bâtiment pour qu’elles soient bien visibles sur les photos. Nous avons donc
collé 2 cibles sur les petites façades et 3 cibles sur les grandes façades en gardant un
espacement équivalent entre les cibles. Elles ont ensuite été levées au tachéomètre.
Appareil Caméra
Poids 1380 g Capteur 1/2.3” CMOS
Vitesse max 20 m/s Pixels effectifs 12.4 MP
Système de positionnement Taille max de
GPS / GLONASS 4000px ×3000 px
satellitaire l'image
Temps de vol max Environ 28 minutes Focale 4 mm
3 axes (inclinaison
FOV de 94°, 20
Stabilisation verticale, roulis, Objectif
mm, f/2.8
panoramique)
Tableau 4 : Caractéristiques du Drone utilisé lors du levé (dji.com)
Tous les traitements suivants ont été effectué sur un ordinateur qui dispose d’un processeur
Intel (R) Core (TM) i7-6700, 3,40 GHz, d’un système d’exploitation en 64 bits, de 32 Go de
mémoire vive et d’une carte graphique GTX 1080 Ti.
Dans les quatre logiciels, nous commençons par importer les images prises lors du levé. Des
informations spécifiques à chaque photo telles que la distance focale et les coordonnées
approchées des sommets de prise de vue ont été récupérées par les logiciels à partir des
données EXIF. Nous avons aussi changé l’altitude des sommets de prise de vue car cette
dernière affichait une valeur proche de 60 m tandis que l’altitude du plus bas point d’appui
24
était de 126 m. Nous l’avons donc changé à 138 m en tenant compte de la hauteur du
bâtiment.
Comme décrit précédemment, Metashape est le logiciel actuellement utilisé chez Gexpertise,
nous allons donc comparer les paramètres5 de la chaine de traitement de ce logiciel avec
ceux des autres logiciels testés.
II.3.1 Metashape
Alignement des images : Sur Metashape, cette étape est nommée « Aligner les photos ». La
précision choisi est : « Haute », le logiciel va donc réaliser les calculs en conservant la taille
originale des images. Pour de moindres précisions, Metashape peut réaliser un sous
échantillonnage des images. Nous obtenons donc un nuage de points peu dense composé de
points homologues ainsi que la position et l’orientation de chaque image.
Génération du nuage dense et du maillage : Nous avons ensuite géoréférencé le nuage peu
dense en important les coordonnées des points d’appui (GCP). La détection de ces points
d’appui s’est faite automatiquement car ils étaient matérialisés par des cibles codées
spécifiques au logiciel. Cependant, nous avons affiné manuellement la position des points
d’appui dans les images. Le géoréférencement va aussi permettre d’optimiser les paramètres
internes et externes estimés lors de l’alignement. Pour construire un nuage dense, nous avons
fixé deux paramètres. Le premier est la qualité, nous avons choisi une qualité « Haute ». Le
logiciel a donc calculé le nuage dense à partir des images sous-échantillonnées d’un facteur
2 en ligne et en colonne. Le deuxième paramètre est le filtrage de profondeur qui permet de
filtrer les points aberrants. Trois modes étaient proposés : Leger, Modéré et Agressif. Nous
avons choisi le mode « Modéré » pour avoir le plus de détail dans les zones où il y a un
changement de profondeur tout en réduisant le niveau de bruit (c.f. figure 10 (c)).
Le maillage est ensuite généré en fixant trois paramètres :
La source, nous pouvons générer le maillage à partir du nuage dense ou peu dense.
Le type de surface, « champ de hauteur » pour les surfaces de type plan (2D et demie)
et « arbitraire » pour tous types d’objets (3D).
La qualité, où nous avons quatre choix : Haute, Moyenne, Basse et Personnalisé.
5
Voir Annexe 3
25
Nous avons donc choisi de générer le maillage à partir du nuage dense en qualité haute, avec
un type de surface arbitraire. Enfin, la texture a été générée et compensée radiométriquement
sur le maillage en utilisant toutes les images. Le logiciel propose aussi une fonction de
masques qui peut être utilisée pour masquer des éléments indésirables comme la végétation
qui peut parfois perturber la texturation.
Génération des Orthomosaïques : Après nettoyage du nuage dense et du maillage nous avons
généré une orthophoto de la toiture et deux orthophotos de façades. Le logiciel permet de
choisir le type de projection et le type de surface sur lequel il va se baser pour générer
l’orthomosaïque.
Pour l’orthophoto de la toiture, nous avons choisi une projection « Géographique » et testé
les deux types de surface proposés, « Maillage » et « MNS ». Celle provenant du maillage
était meilleure que celle générée à partir du MNS. Nous pouvons donc conclure que pour les
objets à distance rapprochée, la génération de l’orthophoto à partir de modèle maillé nous
donne un meilleur résultat.
Pour les orthophotos de façades, nous avons choisi « Maillage » comme type de surface, et
une projection « Planaire » en définissant le centre et les axes horizontal et vertical de la
projection.
II.3.2 Pix4D
Le logiciel pix4D propose différents modèles à traiter pour lequel il sélectionne des
paramètres par défaut. Parmi ces modèles proposés, nous trouvons « 3D Maps », « 3D
Models » ou « Ag Multispectral ». Nous avons donc choisi le modèle « 3D Models » en
modifiant quelques paramètres.
Alignement des images : Cette étape est appelée « Traitement initial ». Nous avons choisi «
Originale » dans l’échelle d’image des points homologues, ce qui correspond à la précision
« Haute » sur Metashape.
Le résultat de cette première étape n’était pas satisfaisant car le nuage peu dense était
composé de deux blocs mal orientés. Chaque bloc contenait deux façades. Le problème
26
venait donc des images proches des coins de façades. Nous avons donc ajouté des points de
liaison située sur ces coins.
Génération du nuage dense et maillage : Le procédé de géoréférencement est le même que
pour Metashape, mais Pix4D est incapable de détecter automatiquement les cibles.
Cependant, il suffit de pointer un point d’appui sur deux photos et le logiciel calcul
automatiquement la position de ce point sur les autres images.
Pour générer le nuage dense, deux paramètres ont été fixés. Le premier est l’échelle de
l’image où nous avons choisi « Taille d’image originale » qui correspond à la qualité « Haute
» sur Metashape. Le deuxième est la densité des points. Trois choix sont possibles : « Basse
», « Optimale » ou « Haute ». Nous avons testé les deux derniers choix.
Avec « Haute », nous obtenons un nuage dense de plus de 600 millions de points (9 fois plus
que Metashape). Avec « Optimale », nous obtenons un nuage dense qui contient 102 millions
de points avec un temps de traitement plus court (c.f. figure 10 (a)).
Pour le maillage, nous pouvons choisir que la résolution que nous avons mise sur « Haute ».
Sur Pix4D, la texture est générée et compensée radiométriquement en même temps que la
génération du nuage dense et du maillage contrairement à Metashape, où ces étapes sont
distinguées. Cependant Pix4D propose aussi une fonction de masques.
Génération des Orthomosaïques : Après nettoyage du nuage dense et du maillage, nous
avons généré les mêmes orthophotos que sur Metashape pour pouvoir les analyser par la
suite. Pour générer l’orthophoto de toiture, nous sommes passé par la troisième étape du
traitement « MNS, orthophoto et indices » où nous avons remarqué qu’il existe très peu de
paramètres et que le logiciel ne génère l’orthophoto qu’à partir du MNS. Pour générer les
orthophotos de façades, il faut passer par l’outil « Orthoplane » qui correspond à la projection
« planaire » sur Metashape. Là encore, il est impossible de créer une orthophoto de façade à
partir du maillage.
La chaine de traitement de Pix4D est rapide et très simple à prendre en main. Cependant, le
logiciel est une « boîte noire » et l’utilisateur n’a pas le contrôle sur certaines étapes
intermédiaires.
II.3.3 RealityCapture
Alignement des images : Cette étape est appelée « Alignment ». Elle est aussi identique à
celle de Metashape. Cependant, nous avons retrouvé le même problème que dans Pix4D (c.f.
27
figure 7), mais cette fois avec trois blocs. Nous avons donc ajouté des points de liaison sur
les coins de façades proches de la toiture.
Le logiciel a une bonne interface graphique qui permet l’affichage de plusieurs fenêtres en
même temps. Le manuel d’utilisateur est très bien détaillé, ce qui facilite la prise en main du
logiciel. De plus, plusieurs paramètres peuvent être modifiés. Cependant, il peut avoir du
mal à aligner les images s’il n’y a pas un recouvrement suffisant.
28
II.3.4 ContextCapture
Alignement des images : Sur ContextCapture, cette étape est appelée « Aerotriangulation ».
Il est important de choisir la meilleure qualité pour cette première étape car c’est la base de
tous les traitements qui seront réalisés par la suite. Cependant, même si nous avons choisi la
qualité « High », le nombre de points homologues généré est beaucoup plus petit que celui
obtenu avec les 3 autres logiciels (c.f. tableau 5). Cependant, nous verrons par la suite que
cela ne va pas affecter la qualité du nuage dense.
Tout comme Metashape, l’alignement s’est fait dès le premier essai et sans avoir recours à
des points de liaison en plus.
Génération du nuage dense et maillage : Même si ContextCapture peut détecter
automatiquement les cibles, le géoréférencement devait se faire manuellement comme pour
Pix4D et RealityCapture, car les cibles utilisées lors du levé sont propres à Metashape et ne
sont donc pas détectables par le logiciel.
Cependant, contrairement aux autres logiciels, ContextCapture peut générer séparément et
dans l’ordre souhaité le nuage de points (c.f. figure 10 (d)), le maillage, l’orthophoto et le
MNS (c.f. figure 8). Cela peut être utile lorsque nous n’avons besoin que du maillage par
exemple. Néanmoins, pour le dessin des plans de toiture à partir des orthophotos, nous avons
besoin des coordonnées en Z. Ces derniers n’étant pas disponibles sur les orthophotos, il faut
générer le nuage de points ou le MNS pour les connaître.
Pour la génération du nuage de points, nous avons choisi au début la qualité « haute ».
Cependant, nous avons rencontré le même problème que sur Pix4D. Le nuage généré se
composait de plus de 600 millions de points. Nous avons donc choisi la qualité « Medium »
29
pour avoir un nombre de points qui se rapproche des autres logiciels dans le but de faciliter
la comparaison entre les différents nuages de points (c.f. II.5.3). Néanmoins, même avec une
qualité « Medium », le nombre de points était toujours très grand. Nous avons alors décidé
de garder ce nuage de points que nous allons sous-échantillonner par la suite pour le
comparer aux résultats des autres logiciels.
Génération des Orthomosaïques : La génération des orthophotos de façades se fait à partir
du maillage. Cela doit se faire sur un autre logiciel de Bentley appelé ContextCapture Editor
(c.f. figure 9). C’est un logiciel qui permet de nettoyer le maillage et de choisir les axes pour
les orthophotos souhaitées. D’autres fonctionnalités sont aussi disponibles comme le choix
de la résolution des orthophotos (taille pixel et DPI) générées et le calcul de volume et
d’MNT.
30
(c) Metashape (d) ContextCapture
Figure 10 : Résultats de nuages de points pour une façade du bâtiment
Le tableau 6 montre que pour la plupart des logiciels, les temps de traitement sont du même
ordre de grandeur. Cependant, pour Metashape, le temps total de traitement est 8 fois plus
grand que ses concurrents.
L’un des objectifs de ce TFE est de tester et de comparer la qualité des résultats des logiciels
de photogrammétrie choisis. Pour se faire, plusieurs types de comparaison seront réalisés :
Comparaison des différents paramètres au sein de chaque logiciel, comparaison des résultats
issus de chaque logiciel, et comparaison des résultats par rapport à des données de référence.
31
Les logiciels utilisent les fichiers EXIF des photographies pour récupérer les paramètres
comme la distance focale, la taille du capteur et la résolution des images pour calculer la
taille du pixel image et pour estimer ces paramètres internes. Nous pouvons aussi les trouver
sur le rapport de l’étalonnage de la caméra. Dans ce cas, nous pouvons les rentrer et les fixer
directement dans les logiciels.
Les points d’appui permettent de géoréférencer le modèle tandis que les points de contrôle
permettent de contrôler le géoréférencement. Nous allons donc comparer les résidus de ces
points pour chaque logiciel.
Pour comparer les quatre nuages de points, nous allons utiliser trois logiciels. CloudCompare
qui est un logiciel d’édition et de traitement de nuages de points 3D et de maillages
surfaciques triangulaires, Global Mapper qui est une application SIG qui combine un
ensemble complet d'outils de traitement de
données spatiales et Cloudworx pour une
étude de profil des nuages de points sur
AutoCad.
Pour se faire, un levé lasergrammétrique a
été effectué sur l’ensemble du bâtiment.
Ceci a été fait en utilisant le scanner Faro
Focus 3D X 130 (c.f. figure 11). Ce nuage
de points va nous servir de référence pour
Figure 11 : Nuage de points obtenu avec le scanner laser
calculer les écarts avec les nuages
photogrammétriques.
Pour analyser ces écarts, nous pouvons utiliser le plug-in C2C (Cloud-To-Cloud distance)
du logiciel CloudCompare qui permet de comparer directement deux nuages en calculant la
distance de chaque point du nuage avec son voisin le plus proche dans le nuage de référence.
Cependant, nous utiliserons le plug-in M3C2 du même logiciel car il est moins sensible au
bruit et peut calculer des distances positives et négatives. Ainsi, il crée en sortie un nuage de
points comprenant une valeur d’écart pour chaque point. Ces valeurs d’écarts peuvent
32
ensuite être utilisées pour fixer un seuil au-delà duquel nous considérerons la valeur de
l’écart comme une erreur.
Global Mapper va nous permettre de récupérer des informations sur les nuages de points
telle que la densité de points. Cloudworx quant à lui, va nous permettre de faire des coupes
pour mieux comparer les nuages.
II.4.4 Ortho-image
Les orthophotos sont un produit essentiel pour le dessin des plans de toitures et de façades.
Il est donc important de comparer ce résultat dans les quatre logiciels.
Nous observerons d’abord la qualité visuelle du rendu en analysant la luminosité, la présence
de trous, des artefacts et des déformations aberrantes. Nous pourrons ensuite comparer des
distances planimétriques ainsi que des coordonnées de points situés sur une façade ou sur la
toiture.
33
Afin de comparer les algorithmes des 4 logiciels utilisés pour le géoréférencement, les GCP
ont été pondérés en utilisant leur précision de 5 mm, tandis que tous les marquages,
automatiques ou manuels, ont été pondérés en utilisant une précision de marquage (de
pointé) uniforme de 1 pixel qui correspond au GSD.
Lors du relevé photogrammétrique du bâtiment, nous avons gardé une distance de prise de
vue équivalente pour les façades et la toiture. Le GSD théorique est d’environ 3,6 mm pour
une distance de 9 m. Cependant, les valeurs des résidus des points d’appui et de contrôle
obtenues (c.f. figure 12) ne dépassent pas 7 mm. Ils sont donc dans le même ordre de
grandeur que le GSD et nous pouvons dire que les résultats sont satisfaisants pour les 4
solutions, ainsi que pour un levé topographique dont la précision est limitée par le GNSS (2-
3 cm en planimétrie et 5cm en altimétrie).
La figure 12 résume graphiquement les résidus des 4 logiciels ainsi que le GSD qui est
représenté par une ligne. Ces différences dans les résidus de ContextCapture, Pix4D et
RealityCapture peuvent se justifier par l’erreur de pointé qui est une erreur humaine. En
effet, chaque point d’appui et point de contrôle est pointé manuellement sur une dizaine
d’images, et le choix des images pointés n’était pas forcément le même dans chaque logiciel.
Nous pouvons donc dire ici que le pointage des cibles sur Pix4D et Metashape est moins
précis que sur ContextCapture et RealityCapture.
34
II.5.2 Comparaison des paramètres internes
Après optimisation des paramètres caméras, nous obtenons les résultats suivants :
Les paramètres de distorsion tangentielle T1 et T2 estimés sont très petits comparés aux
distorsions radiales. Ainsi, sur des logiciels comme Pix4D et ContextCapture, ces valeurs
estimées sont de 0. Cela peut revenir au fait que ces logiciels n’affichent, dans leur rapport,
que 4 chiffres significatifs après la virgule. Nous avons donc décidé de ne pas les prendre en
compte pour la suite.
Les paramètres obtenus (c.f. tableau 9) varient d’un logiciel à l’autre, ce qui montre
l’instabilité du capteur. Cela est dû à la petite taille du capteur de la caméra intégré dans le
drone.
Pix4D affiche dans son rapport d’alignement les valeurs pré-étalonnées (c.f. tableau 10) de
la longueur de la focale, des coordonnées du point principal (x et y) et des distorsions. Afin
d’évaluer les paramètres estimés, nous avons calculé les écarts entre les valeurs pré-
étalonnées de pix4D et les valeurs estimées des 4 logiciels. Nous avons donc trouvé un écart
entre 0,1 et 0,01mm pour la focale, et entre 0.025 et 0.01mm pour les coordonnées du point
principal.
Les quatre logiciels utilisent le modèle de Brown pour corriger les distorsions radiales (voir
partie I.2.2). Ainsi, à partir des valeurs de distorsion radiale, une courbe de distorsion radiale
peut être tracée (c.f. figure 13).
35
Figure 13 : Courbe de distorsion radiale des quatre logiciels
Toutes les valeurs de distorsion issues de la courbe sont négatives. Nous avons donc une
distorsion en barillet et il s’agit ici d’un modèle mathématique d’étalonnage dit « unbalanced
». Dans ce type de modèle mathématique, la courbe a toujours une valeur positive ou
négative. Ainsi, la courbe est négative car le premier coefficient de distorsion est négatif.
À l’aide des valeurs pré-étalonnées qu’affiche le rapport de Pix4D, nous avons réussi à
générer la courbe de distorsion radiale des valeurs pré-étalonnées (c.f. figure 14). Cependant,
en comparant celle-ci avec la courbe de distorsion de Pix4D après optimisation des
paramètres caméras, nous remarquons qu'à partir d’une distance radiale de 2 mm, les valeurs
de distorsions changent beaucoup. Cela remet en cause la fiabilité de ces valeurs pré-
étalonnées. Il est donc important de réaliser un étalonnage pour vérifier la fiabilité de ces
données pré-étalonnées. L’étalonnage permettra aussi de fixer les valeurs de distorsions et
de la focale.
36
II.5.3 Analyse des nuages de points
Dans cette partie, le nuage généré par le scanner Faro sera utilisé comme référence pour
comparer les nuages photogrammétriques.
Les nuages de points obtenus par lasergrammétrie sont généralement plus denses que ceux
générés par photogrammétrie. C’est le cas ici pour le nuage de points issu du scanner qui
contenait 217 millions de points. La forte densité de ce nuage allait rendre les traitements
longs et compliqués. Nous avons donc réalisé un
sous-échantillonnage pour avoir un nombre de
points similaire aux autres logiciels. Cependant,
même si le nuage issu du scanner est plus dense,
nous remarquons que la répartition des points
n’est pas équivalente tout au long du bâtiment.
En effet, des zones d’ombre sont visibles sur la
toiture (c.f. figure 15). Cela se justifie par le fait
Figure 15 : Partie de la toiture peu dense (nuage
que l’accès à la toiture était impossible et les scanner laser)
stations utilisées pour le levé lasergrammétrique étaient toutes positionnées au sol et à
proximité du bâtiment ce qui rendait une partie de la toiture invisible.
Ainsi, comme décrit dans la partie II.3.4, nous avons aussi sous-échantillonné le nuage issu
du logiciel ContextCapture pour avoir un nombre de points qui se rapproche de celui traité
dans les autres logiciels, dans le but de faciliter la comparaison entre les différents nuages
de points.
Nombre de
118 594 286 102 986 903 108 242 441 67 932 274 81 432 461
points
Tableau 11 : Nombre de points des nuages denses
Pour calculer les écarts entre le nuage de référence et un nuage photogrammétrique, nous
utilisons le plugin M3C2 décrit précédemment (II.4.3). Dans notre cas, l’alignement de deux
37
nuages sur CloudCompare se fait automatiquement car tous les nuages sont déjà
géoréférencés.
Nous obtenons alors des écarts répartis de la façon suivante :
Pour chaque couple de nuages, 256 classes représentant des intervalles de valeurs d’écarts
positives et négatives sont créées. Après analyse de ces écarts (c.f. tableau 13), nous
constatons qu’il existe des valeurs aberrantes. C’est ce que nous pouvons voir sur le tableau
12 où l’écart maximum avoisine les 3 m et sur le tableau 13 où 5.04% à 7.33% des écarts
dépassent les 40 cm. Ces écarts importants s’expliquent par la mesure de certains points non
homologues entre les deux nuages qui viennent fausser les résultats obtenus.
En comparant les valeurs, nous remarquons que RealityCapture a le plus grand pourcentage
de valeurs dans l’intervalle de 2cm avec 62.95% des valeurs d’écarts calculées, ainsi que le
plus faible pourcentage pour les écarts au-dessus de 10 cm. Il est donc moins bruité et
représente mieux la réalité comparé aux autres logiciels comme Metashape pour qui
seulement 51.68% de valeurs d’écarts sont inférieurs à 2 cm. Pour la suite, nous avons retiré
les valeurs aberrantes pour mieux analyser ces résultats.
CloudCompare permet de calculer et visualiser les écarts entre deux nuages. Dans notre cas,
un nuage photogrammétrique et un nuage issu du scanner laser fixé comme référence.
38
(a) Pix4D (b) RealityCapture
Nous constatons alors que les plus grands écarts se concentrent au niveau des fenêtres et de
la végétation sur les murs (c.f. figure 16). Ce sont les surfaces les plus difficiles à modéliser
en photogrammétrie. En effet, la photogrammétrie est très peu performante sur la végétation,
c’est là où l’utilisation du LiDAR peut s’avérer intéressant car ses faisceaux laser sont
capables de pénétrer la végétation pour avoir une meilleure représentation des murs du
bâtiment. De plus, les fenêtres sont difficiles à modéliser en photogrammétrie ainsi qu’avec
le LiDAR en raison du reflet des verres.
Nous constatons aussi que les nuages de points générés par Pix4D et Metashape sont plus
bruités que ContextCapture et RealityCapture au niveau de la toiture. C’est l’une des raisons
pour laquelle l’histogramme (c.f. figure 17 (a) et (c)) de ces deux logiciels est plus dilaté
avec un fort pourcentage d’écarts supérieur à 10 cm.
39
(a) Pix4D (b) RealityCapture
Les quatre histogrammes (c.f. figure 17) ont une forme qui se rapproche d’une courbe
gaussienne. Cependant, en comparant les valeurs en ordonnée, nous remarquons que
l’histogramme de Metashape est plus aplati que les autres, avec une valeur maximum aux
alentours de 800 000 en ordonnée, tandis que pour Pix4D et ContextCapture, elle est de 1
050 000 et 1 100 000. Enfin, pour RealityCapture, cette valeur dépasse 1 200 000. Toutefois,
il faut prendre en compte le nombre de points total de chaque nuage.
La courbe de ContextCapture et RealityCapture affichent les meilleurs résultats. Cependant,
la meilleure façon de visualiser cet aplatissement est d’analyser l’écart-type. Le tableau 14
montre que les valeurs des écarts type obtenus pour les 4 logiciels sont de l’ordre de 1cm.
Metashape donne la plus grande valeur d’écart type. Ceci est dû à la présence de bruits
surtout au niveau de la toiture. RealityCapture affiche la plus petite valeur de l’écart-type et
ContextCapture donne lui une grande valeur d’écart-type qui peut être due au sous-
échantillonnage réalisé sur CloudCompare après la génération du nuage dense. Lors de cet
échantillonnage, nous avons choisi la méthode via l’octree. Cette méthode choisit le point le
40
plus proche du centre dans chaque cellule pour garder un écart entre les points à peu près
constant.
Le nuage de points généré par RealityCapture contient donc le plus grand pourcentage de
points dans l’intervalle [-2 cm, +2cm] et affiche le plus petit écart-type. Par conséquent, c’est
le nuage qui contient le moins de bruit et qui se rapproche le plus de la réalité.
II.5.3.2 Coupes
6
Voir Annexe 4
41
(c) Metashape (d) ContextCapture
Figure 19 : Escalier réalisé en suivant les nuages Scanner (rouge), Metashape (Vert), RealityCapture (Violet), Pix4D
(Bleu), ContextCapture (Jaune)
Pour le troisième profil (c.f. figure 21), nous avons choisi une zone avec plus de courbure
pour voir la représentation des angles saillant ainsi que la qualité des détails dans les nuages
de points.
Figure 21 : Profil 3 réalisé en suivant le nuage laser et les quatres nuages photogrammétriques
42
Là encore, nous constatons que les courbes en vert et en bleu correspondant à Metashape et
Pix4D lissent les angles tandis que ContextCapture et RealityCapture réussissent à avoir plus
de détails au niveau de l’arrière du volet (flèche à droite) et du tuyau (flèche à gauche).
Nous pouvons donc conclure que RealityCapture réussi à mieux modéliser les détails, et que
Metashape lisse plus les angles que Pix4D et ContextCapture. Enfin, le profil 2 nous a
montré certaines limitations du scanner laser.
Global Mapper permet de générer des cartes de densité de points (c.f. figure 22). Pour les
quatre logiciels, la densité de points est très forte au niveau des façades car le drone n’a pris
que des images des façades et de la toiture. Cela se traduit par des points homologues et un
nuage dense focalisé sur ces zones. Cette densité maximale change en fonction du logiciel,
elle peut aller de 510 000 points par m² pour Metashape (c.f. figure 22 (c)), jusqu’à 1 540 000
points par m² pour RealityCapture (c.f. figure 22 (b)). Cette différence provient
essentiellement du nombre de points dans le nuage que génère chaque logiciel. Cependant,
l’épaisseur de cette couche en rouge nous donne une idée sur la qualité du nuage dense. En
effet, la carte de densité de points de Metashape et de ContextCapture montre une forte
densité pour les parties se situant à l’intérieur du bâtiment et plus précisément derrière les
fenêtres. Cela montre le comportement des logiciels lors de la génération de points dans des
zones de forte réflectance comme les fenêtres. Néanmoins, cela ne pose pas de problème lors
du dessin des plans de façades car ils se situent de l’autre côté de la façade.
Nous remarquons aussi que les nuages de points fournis par Metashape et Pix4D (c.f. figure
22 (a)) possèdent une densité plus homogène que celui de RealityCapture. Cela nous donne
une idée sur le comportement des filtres de profondeur dans chaque logiciel. En effet,
RealityCapture utilise un filtre de profondeur plus puissant que Metashape et Pix4D. Cela
se traduit par des zones de très faible densité quand nous n’éloignons des façades.
Cependant, quant à l’homogénéité de la densité de points du nuage de ContextCapture (c.f.
figure 22 (d)), nous ne pouvons pas conclure car le modèle analysé ici a été sous-
échantillonné sous plusieurs blocs séparés avant de les assembler par la suite. C’est la raison
pour laquelle nous observons des blocs avec différentes couleurs.
43
(a) Pix4D (b) RealityCapture
II.5.3.4 Le bruit
Le bruit généré par les nuages photogrammétriques est moins important que celui généré par
un nuage lasergrammétrique. Ainsi, dans notre cas, le bruit est surtout présent au niveau de
la toiture. En effectuant des coupes avec Cloudworx (c.f. figure 23), nous pouvons mieux
visualiser ce bruit :
44
(a) Pix4D
(b) RealityCapture
(c) Metashape
(d) ContextCapture
Figure 23 : Coupes de la toiture réalisées sur Cloudworx
Nous constatons que pour Metashape et Pix4D, le nuage de la toiture est bruité au niveau
des épis de faîtage, des pots des cheminées et de la face intérieure de la souche des cheminées
en extrémité, tandis que dans ContextCapture, nous avons un nuage très peu bruité.
Cependant, dans Reality Capture, nous constatons que le nuage ne contient pas de bruit mais
les épis de faîtage ne sont presque plus visibles. Pour fournir des modèles avec très peu de
bruit, RealityCapture utilise un algorithme qui limite la portée de reconstruction et qui est
très sensible au bruit. Ainsi, ces épis de faîtage sont positionnés en haut de la toiture et sont
de faibles épaisseurs, le logiciel les a réduits, voire supprimés car ce sont des points
difficilement modélisables sans bruit.
Afin de corroborer ou non ces résultats, nous avons étudié le bruit sur les pots d’une
cheminée à l’aide d’un script FME7 inspiré par celui réalisé par A. Lamblin (2018). Le script
7
Voir Annexe 5
45
va donc découper en carré de 3 cm sur 3 cm une partie du nuage sélectionné, à savoir des
pots de cheminée, et calculer l’écart-type des altitudes dans chaque carré. Ensuite, chaque
carré est assimilé à un point central qui a pour valeur d’altitude cet écart-type. Les résultats
suivants sont obtenus :
46
II.5.4 Comparaison des ortho-images
II.5.4.1 Toiture
Pour Pix4D, l’orthophoto est générée sur la base du MNS créé à partir du nuage de points
dense. Par conséquent, les erreurs et le bruit présents dans le nuage de points dense seront
reflétés dans l’orthophoto et entraîneront des différences d’altitude pour des points supposés
être à la même altitude, tels que des points appartenant au même bord de toit d’un bâtiment.
Cette différence d’altitude explique les distorsions qui apparaissent dans l’orthophoto sur les
bords des bâtiments ou sur de petits détails (arbres, lampadaires, clôtures).
Pour contrôler la précision de ces orthophotos, nous avons comparé les coordonnées de
certains points sur la toiture ainsi que certaines distances (c.f. figure 27).
48
Logiciel Pix4D RealityCapture Metashape ContextCapture
En comparant les distances mesurées sur les orthophotos, nous remarquons que la différence
entre RealityCapture, ContextCapture et Metashape ne dépasse pas 1cm. Cette différence
rentre dans la précision de pointé. Nous pouvons donc supposer que les trois logiciels sont
précis et que leurs orthophotos peuvent être utilisées pour la réalisation du plan de toiture.
Cependant, les valeurs obtenues à partir de l’orthophoto de pix4D sont très éloignées des
autres. Cela est dû à la mauvaise qualité de l’orthophoto qui contient des déformations
faussant les mesures. Ainsi, cette orthophoto ne peut pas être exploitée pour le dessin d’un
plan de toiture.
Pour l’analyse des coordonnées, nous avons choisi deux points situés sur la toiture et nous
avons calculé les écarts des coordonnées en X et en Y par rapport au scanner. Nous obtenons
donc :
Nous remarquons un grand écart entre les coordonnées issues de l’orthophoto de Pix4D et
celles issues du nuage lasergrammétrique. Ici encore, nous pouvons justifier ce grand écart
par les déformations qui faussent la position de certains points. Ainsi, les autres logiciels
présentent des écarts de l’ordre de 1 cm. Ces écarts rentrent dans la précision de pointé. Ces
orthophotos sont donc fidèles à la réalité et respectent les précisions demandées par
Gexpertise pour sa production.
49
II.5.4.2 Façades
Le tableau 17 nous montre les valeurs de GSD calculées par les logiciels. Ainsi, nous
constatons que Pix4D a un grand GSD comparé aux autres logiciels, cela peut se justifier
par le fait qu’il prend en compte des points éloignés lors du calcul de l’orthophoto, faussant
les résultats. C’est ce que nous pouvons voir sur l’orthophoto de façade de pix4D (c.f. figure
28 (a)), où nous constatons la présence d’éléments situés très loin de la façade (voiture et
arbres éloignés). Nous remarquons ensuite que Metashape et ContextCapture (c.f. figure 28
(b)) ont des GSD plus faible que Pix4D car ils utilisent un filtre de profondeur. Enfin,
RealityCapture affiche le plus petit GSD (c.f. figure 28 (b)). Cela peut se justifier par le
puissant filtre de profondeur utilisé par le logiciel (Voir la partie II.5.3.3).
La différence des valeurs de GSD peut également se justifier par la différence de la valeur
de la focale estimée par chaque logiciel, car le calcul du GSD prend en compte la hauteur de
vol, la taille pixel image et la longueur de la focale.
50
Pour remédier à ce problème de profondeur dans
Pix4D, des masques peuvent être utilisés afin de
limiter une zone d’intérêt. Cependant, cette option
s’est avérée inefficace et très longue à mettre en
place dans un système de production (c.f. figure
29). Une hypothèse serait la forte présence de
végétation autour du bâtiment. Il faudrait donc
tester cette option avec un projet qui contient peu
Figure 29 : Orthophoto de Pix4D après
de végétation. application de masque
Nous pouvons conclure que les orthophotos générées par Pix4D sont de très mauvaise qualité
et ne peuvent pas être utilisées pour la réalisation des plans de toiture et de façade. Pour
Metashape, Même si les orthophotos sont bruitées, ils peuvent être utilisés pour la réalisation
des mêmes plans. Cependant, RealityCapture affiche des orthophotos sans bruit mais avec
quelques parties manquantes sur la toiture. Cela ne doit pas poser de problème lors de la
restitution, car elles sont de très faibles épaisseurs et peuvent être rajoutées dans le dessin.
Enfin, ContextCapture affiche un résultat sans bruit et sans parties manquantes.
II.6 Conclusion
Après avoir comparé et analysé les différents logiciels selon les critères convenus (c.f.
tableau 18 et 19), nous avons constaté que ContextCapture et RealityCapture sont les plus
adaptés pour les prestations convoitées par Gexpertise, car ils lissent moins les angles,
génèrent des nuages de points très peu bruités et permettent un énorme gain de temps
comparé à Metashape, tout en garantissant une qualité de rendus suffisante pour les travaux
réalisés par l’entreprise.
Finalement, le choix s’est porté sur RealityCapture, vu son prix nettement intéressant
comparé à celui de ContextCapture. Gexpertise étant en plein développement de son pôle
photogrammétrie, le choix de RealityCapture semble le plus correcte au vu, aussi, du nombre
de projets réalisés par mois. (2 à 3 projets avec 300 à 1200 images par projet)
51
Critère / Logiciel Pix4DMapper RealityCapture Metashape ContextCapture
Performances *** **** *** ****
Compatibilité **** **** **** **
Flexibilité *** *** **** *
Géoréférencement **** **** **** ****
Accessibilité des
** * **** **
algorithmes
Possibilité de paramétrage ** *** **** ***
Complexité * ** *** **
Robustesse **** ** **** ****
Interface graphique **** **** *** ****
Tutoriels et notice *** ***** **** **
Information sur la qualité
**** ** **** ***
des résultats
Possibilité de livrables *** **** *** ***
Rapidité de calcul *** ***** * ****
Prix * ** *** *
Possibilité d'utiliser le cloud OUI NON OUI OUI
Exige l'utilisation d'une
NON OUI NON OUI
carte graphique
Possibilité d'automatisation OUI NON OUI NON
Possibilité de détection des
NON NON OUI OUI
cibles codées
Tableau 18 : Notes des logiciels selon différents critères
52
298 prises de vue nadirs ont été réalisées.
Nous n’avons pas effectué de prise de vue
oblique car c’est une parcelle agricole avec
très peu de bâtiments qui ont déjà été
modélisé par un scanner laser. Le but ici
n’est pas de modéliser les bâtiments, mais
de réaliser un plan 2D de la parcelle.
Contrairement au premier alignement réalisé Figure 30 : Nuage de points généré par RealityCapture
sur le bâtiment où plusieurs blocs ont été généré et où nous avons été obligé de rajouter des
points de liaison, nous obtenons ici un seul bloc bien aligné (c.f. figure 30).
Après avoir appliqué les mêmes étapes que dans la partie II.3.3, nous obtenons une
orthophoto géoréférencé (c.f. figure 31).
Cependant, nous remarquons de grands
vides et des trous au niveau de la
végétation. Cela est dû à la forte densité
d’arbres qui rend la détection de points
homologues lors de l’alignement très
compliquée. Pour s’assurer que ce Figure 32 : Orthophoto généré par RealityCapture
niveau des bâtiments, de la route et des zones avec une faible végétation se ressemblent.
RealityCapture peut donc aussi être utilisé pour la réalisation de plans topographiques de
grandes parcelles.
Après avoir choisi le logiciel de photogrammétrie le plus adapté aux prestations fournies par
Gexpertise, nous allons étudier les aspects économique et administratif pour l’internalisation
des méthodes de levé photogrammétrique par drone. Nous allons aussi présenter la nouvelle
chaine de production photogrammétrique à mettre en œuvre au sein de l’entreprise.
53
III Internalisation des méthodes de levé photogrammétrique et
mise en place de la nouvelle chaîne de production
photogrammétrique par drone
Le but de cette partie est d’étudier la possible internalisation des relevés photogrammétriques
au sein de Gexpertise. Pour cela, plusieurs aspects doivent être pris en compte.
Pour effectuer des prises de vue aériennes par drone, Gexpertise a recouru, ces dernières
années, à un prestataire extérieur. Cela s’est avéré contraignant et coûteux, surtout avec la
multiplication des travaux liés à la photogrammétrie aérienne. L’internalisation des relevés
photogrammétriques est devenu donc une nécessité.
Pour se faire, il y a lieu de prévoir un budget pour l’acquisition du drone, la formation d’un
élément pour l’obtention de la licence de tété pilotage, la migration en matière de logiciel de
traitement photogrammétrique, vers le logiciel approprié (c.f. partie II.6), sans oublier les
frais d’entretien du drone.
III.1.2.1 Formation
Depuis le 1er juillet 2018, pour pouvoir piloter un drone de plus de 800 grammes, il faut
avoir plus de 16 ans et pouvoir justifier d’un certificat théorique de télépilote (titre délivré
par la Direction Générale de l’Aviation Civile (DGAC)) et d’une attestation de suivi d’une
formation de télépilote de drone.
Pour l’obtention du certificat théorique de télépilote, il faut passer un test sur ordinateur dans
l’un des centres d’examen de la DGAC. Le test est composé d’un questionnaire à choix
multiples de 60 questions.
Après l’obtention du certificat théorique, une formation télépilote drone est requise (5 à 20
jours selon les centres de formation). Son prix varie généralement entre 2000 € et 4000 €.
Ensuite, il faut faire une déclaration d’activité de télépilote et renseigner les drones dont
dispose l’entreprise sur le portail web « alpha tango » administré par la DGAC.
54
III.1.2.2 Déclarations et autorisations
Quel que soit le scénario de vol (c. parties I.4.3 et I.4.4), plusieurs documents8 concernant le
télépilote, le drone et l’exploitant sont nécessaires pour l’obtention d’une autorisation de vol
délivrée par la Direction de la Sécurité́ de l’Aviation Civile (DSAC) :
Pour le télépilote :
Certificat d’aptitude théorique de télépilote délivré après réussite à l’examen
organisé par la DGAC.
Attestation de suivi de formation de télépilote de drone.
Une assurance responsabilité civile professionnelle.
Déclaration du Niveau de compétence (DNC) du pilote émis par l’exploitant du
drone.
Pour l’exploitant :
Déclaration de conformité de l’exploitant attestant qu’il respecte les lois en vigueur.
Manuel d’application particulière (MAP). Document qui doit être rédigé par
l’exploitant responsable de l’activité drone au sein de l’entreprise. Ce document
recense le type de drone utilisé, leurs conditions d’utilisation, les télépilotes habilités
et les procédures de vol. La DSAC renvoie ensuite une attestation de dépôt de MAP
à l’exploitant.
Pour le drone :
Guide d’utilisation du drone détaillé.
Déclaration de conformité́ du drone.
De plus, en fonction de la zone de vol, différents documents peuvent s’ajouter. Par exemple,
pour un vol en zone peuplée (scénario S3), il faut faire une déclaration à la préfecture (via
l’espace AlphaTango). Cette dernière peut ensuite demander d’autres pièces justificatives.
Pour les vols en zone restreinte (aéroport, parc naturel), il faut demander une autorisation du
bureau de contrôle aérien.
Aussi, en fonction du scénario de vol et du poids de l’aéronef, une homologation qui prend
la forme d’une attestation de conception peut-être demandée. C’est le cas pour tous les
8
Voir Annexe 6
55
drones dans les scénarios S2 et S4 ainsi que ceux qui pèsent plus de 2 kg dans le scénario
S3. Cependant, tous les drones qui pèsent plus de 25 kg doivent être munis de cette attestation
délivrée par le pôle DSAC/NO/NAV.
En plus des documents décrits précédemment, des équipements de sécurité peuvent être
obligatoires selon le scénario de vol. En effet, à compter du 29 juin 2020, tous les aéronefs
sans personne à bord d'une masse supérieure ou égale à 800 g doivent être équipés d’un
dispositif de signalement électronique ou numérique.
Le bâtiment se situe dans une zone non peuplée hors agglomération et le vol était à une
distance proche. Nous sommes donc dans un scénario de vol S1. Le drone doit donc vérifier
quatre conditions liées à la sécurité :
Possibilité de programmer une hauteur maximale de vol.
Possibilité de connaître en temps réel l’altitude du drone par rapport au sol.
Possibilité de couper les moteurs de vol
Fonction « fail-safe ». Mode qui permet de déclencher automatiquement une
procédure d’urgence en cas de perte de liaison de contrôle.
Après comparaison des différents types de drones proposés par les constructeurs, le choix
s’est fixé sur un drone à voilure tournante avec l’option RTK. Ce drone est le Phantom 4
RTK de DJI Entreprise qui peut être exploité de deux façons différentes :
En temps réel (Real-Time Kinematic) :
Avec une connexion à un service réseau GNSS (Teria, Sat-info, Orphéon)
Avec un récepteur GNSS RTK d’un fournisseur tiers
Avec le D-RTK 2 Mobile station (récepteur GNSS de haute précision du
constructeur) stationné sur un point connu en coordonnées.
En Post-traitement (Post-Processed Kinematic) :
Avec le D-RTK 2 Mobile station ou avec un récepteur GNSS RTK d’un fournisseur
tiers ainsi qu’un logiciel de post-traitement.
Le choix de ce drone peut se justifier par :
Le poids : Les drones qui pèsent plus de 2 kg ne peuvent pas voler à une altitude
supérieure à 50 m dans le scénario S2 (c.f. partie I.4.3). Cependant, le Phantom 4
56
RTK pèse moins de 2 kg et peut voler jusqu'à 150 m d’altitude dans le scénario S2.
Il peut donc fonctionner dans les scénarios S1, S2 et S3.
Le prix : Son prix est inférieur à celui de ses concurrents. Cependant, il peut
augmenter si nous incluant la station mobile D-RTK 2.
La caméra : La taille du capteur est 8.8 mm × 13.3 mm, avec une taille d'image
maximale de 5472*3648 pixels.
RTK : L’option RTK (c.f. partie I.4.2.3) permet d’avoir une précision centimétrique
sans l’utilisation de points d’appui, ce qui se traduit par un gain de temps
considérable pour les relevés photogrammétriques du type (II.7) classiques. La
précision absolue sur les résultats après traitement photogrammétrique annoncés par
le constructeur est de 5 cm. Cependant, nous pouvons toujours ajouter des points
d’appui pour avoir une meilleure précision. C’est le cas pour la photogrammétrie
rapproché (toiture et façade) où plusieurs points d’appui sont nécessaires pour
atteindre une précision millimétrique.
Pour confirmer le choix du drone, nous avons réalisé un levé avec le Phantom 4 RTK (c.f.
figure 33) pour tester l’option RTK du drone. Six points d’appui ont été positionnés sur la
zone à lever. Le traitement était effectué avec le logiciel Metashape.
Le tableau 20 montre les écarts entre les coordonnées levées avec l’antenne GNSS et les
coordonnées obtenues après traitement avec l’option RTK (sans et avec 4 points d’appui).
57
Ecart antenne GNSS avec l'option RTK Ecart antenne GNSS avec l'option RTK et
sans points d'appui 4 points d'appui
ΔXY ΔZ ΔXY ΔZ
Point 1 0,037 m 1,822 m 0,006 m 0,023 m
Point 2 0,034 m 1,819 m 0,015 m 0,019 m
Point 3 0,029 m 1,825 m 0,004 m 0,014 m
Point 4 0,057 m 1,772 m 0,017 m 0,017 m
Point 5 0,051 m 1,74 m 0,025 m 0,032 m
Tableau 20 : Ecarts entre les coordonnées levées avec l'antenne GNSS et ceux obtenues avec l'option RTK
Dans le cas où il n’y avait pas de points d’appui, nous observons un écart maximal de 5,7
cm en planimétrie. Cependant, nous avons obtenus des écarts de l’ordre de 1,8 m en
altimétrie. Plusieurs hypothèses peuvent être avancées pour expliquer ces écarts importants
en altimétrie, telles que la perte du signal radio liant le drone à la base ou un problème lors
de la transformation des coordonnés de la hauteur ellipsoïdale aux coordonnés d’altitude sur
le logiciel Circé, étant donné que le drone affiche des coordonnées en WGS84. Lors de
l’introduction de quelques points d’appui dans le calcul, nous avons obtenu de meilleurs
résultats avec 2,5 cm et 3,2 cm comme écarts maximaux en planimétrie et en altimétrie.
Il est donc préférable d’utiliser l’option RTK avec quelques points d’appui pour avoir un
résultat plus fiable en planimétrie et en altimétrie.
Le Phantom 4 rtk sera utilisé pour tous les vols. Cependant, l’option rtk ne sera pas utile
pour la photogrammétrie rapprochée qui demande des précisions centimétriques pour des
plans à grandes échelles. Néanmoins, elle sera très utile pour les plans à moyennes échelles
(c.f. partie II.7).
Il existe plusieurs applications qui permettent d’enregistrer des plans de vol et de fixer
plusieurs contraintes comme le pourcentage de recouvrement, la hauteur de vol et l’angle
d’inclinaison de la caméra lors des prises de vue. Ces applications peuvent être gratuites ou
payantes et peuvent appartenir à un logiciel photogrammétrique, un constructeur de drone
ou être indépendantes. Enfin, le choix de l’application reste sans impact sur le traitement et
le rendu. Cependant, il serait mieux d’utiliser l’application DJI GS Pro ou DJI FLY de
l’entreprise DJI vu que nous allons utiliser un drone du même constructeur.
58
III.2.1.2 Méthodologie de vol
9
Voir Annexe 7
59
Conclusion
60
Bibliographie
Travaux universitaires
61
drone. [en ligne]. Mémoire présenté en vue d’obtenir le diplôme d’ingénieur INSA,
Spécialité : Topographie. Institut National des Sciences Appliquées de Strasbourg. 2014. 70
p. (lien !)
· MURTIYOSO Arnadi. Protocoles d’acquisition d’images et de traitement des
données par drone. Mémoire présenté en vue d’obtenir le diplôme d’ingénieur INSA,
Spécialité : Topographie. Institut National des Sciences Appliquées de Strasbourg. 2016. 82
p
· JAMES, Mike R, ROBSON Stuart. Mitigaging systematic error topographic
models derived from UAV and ground-based image networks, [en ligne]. Disponible sur :
<https://onlinelibrary.wiley.com/doi/full/10.1002/esp.3609>, (consulté le 21/02/2020)
· JAUD Marion, LETORTU Pauline, THERY Claire et al. UAV survey of a coastal
cliff face – Selection of the best imaging angle, [en ligne]. Disponible sur :
<https://hal.archives-ouvertes.fr/hal-02067558/document>, (consulté le 05/03/2020)
· Consortium 3D, Huma-Num. Synthèse des outils et des technologies 3D. Apport
critique sur les matériels et logiciels 3D, [en ligne]. Disponible sur : < https://hal.archives-
ouvertes.fr/hal-02159453/document >, (Consulté le 18/02/2020)
Sites web
· Université Polytechnique hauts-de-France. Photogrammétrie, [en ligne].
Disponible sur : <https://moodle.uphf.fr/mod/page/view.php?id=28058> , (Consulté le
27/02/2020)
· LEGKA Yuliya, BORODULIN Aleksey. Review: UAV image processing
software, [en ligne]. Disponible sur : <http://www.50northspatial.org/uav-image-
processing-software-photogrammetry/>, (Consulté le 22/02/2020)
· HELLMAN Tapio, LAHTI Mikko. Photogrammetric 3D modeling for virtual
reality, [en ligne]. Disponible sur :
<https://www.researchgate.net/publication/327227913_PHOTOGRAMMETRIC_3D_MO
DELING_FOR_VIRTUAL_REALITY>, (Consulté le 23/03/2020)
· I. AICARDI, F. CHIABRANDO, N. GRASSO et al. UAV Photogrammetry with
oblique images : First analysis on data acquisition and processing. [en ligne]. Disponible sur
62
: <https://www.int-arch-photogramm-remote-sens-spatial-inf-sci.net/XLI-
B1/835/2016/isprs-archives-XLI-B1-835-2016.pdf>, (Consulté le 27/03/2020)
· LAWERIE César, LI Ruona. Nouvelle réglementation européenne des drones pour
2020, [en ligne]. Disponible sur : <https://www.affiches-parisiennes.com/nouvelle-
reglementation-europeenne-des-drones-pour-2020-9837.html>, (Consulté le 27/03/2020)
· Ministère de la Transition écologique et solidaire. Drone – Usages professionnels,
[en ligne]. Disponible sur : <https://www.ecologique-solidaire.gouv.fr/drones-usages-
professionnels#e4>, (Consulté le 30/03/2020)
· Alphatango. Le portail public des utilisateurs d’aéronefs télépilotés, [en ligne].
Disponible sur : <https://alphatango.aviation-civile.gouv.fr/login.jsp>, (Consulté le
30/03/2020)
· Le règlement délégué (UE) 2019/945 de la commission du 12 mars 2019 relatif aux
systèmes d'aéronefs sans équipage à bord et aux exploitants, issus de pays tiers, de systèmes
d'aéronefs sans équipage à bord. [en ligne]. Disponible sur : <https://eur-lex.europa.eu/legal-
content/FR/TXT/HTML/?uri=CELEX:32019R0945&from=EN>, (Consulté le 30/03/2020)
· Le règlement d’exécution (UE) 2019/947 de la commission du 24 mai 2019
concernant les règles et procédures applicables à l'exploitation d'aéronefs sans équipage à
bord. [en ligne]. Disponible sur : <https://eur-lex.europa.eu/legal-
content/FR/TXT/HTML/?uri=CELEX:32019R0947&from=EN>, (Consulté le 30/03/2020)
· Aéronefs télépilotés – Activités particulières. Synthèse des démarches, [en ligne].
Disponible sur : <https://www.ecologique-
solidaire.gouv.fr/sites/default/files/Synthese_demarches_activites_particulieres_drones.pdf
>, (Consulté le 12/04/2020)
· Aéronefs circulant sans personne à bord : Activités particulières, [en ligne].
Disponible sur <https://www.ecologique-
solidaire.gouv.fr/sites/default/files/Guide_drones_activites_particulieres.pdf>, (Consulté le
12/04/2020)
63
Table des annexes
Annexe 1 Schéma du positionnement cinématique (Clerisse, 2016) ............................................... 65
Annexe 2 Les différents scénarios de vol ......................................................................................... 66
Annexe 3 Les catégories de la réglementation européenne ............................................................. 67
Annexe 4 Les paramètres choisis pour le traitement photogrammétrique ....................................... 68
Annexe 5 Quelques coupes réalisées sur Cloudworx ....................................................................... 69
Annexe 6 Script FME pour le bruit .................................................................................................. 70
Annexe 7 Synthèse des démarches relatives aux activités particulières pour les aéronefs télépilotés
................................................................................................................................................. 71
Annexe 8 Tutoriel RealityCapture ................................................................................................... 75
64
Annexe 1
Schéma du positionnement cinématique (Clerisse, 2016)
65
Annexe 2
Les différents scénarios de vol
66
Annexe 3
Les catégories de la réglementation européenne
67
Annexe 4
Les paramètres choisis pour le traitement photogrammétrique
Alignement Originale
Taille d'image
Echelle d'image
Nuage Dense originale
Pix4D
Densité de points Optimale
Maillage Résolution Haute
Orthophoto Qualité Auto
Alignement Qualité High
Qualité High detail
Nuage dense Distance min entre
No
deux points
Maillage Qualité High detail
RealityCapture Type de surface From textured model
Orthophoto toiture
Type de projection Top
68
Annexe 5
Quelques coupes réalisées sur Cloudworx
69
Annexe 6
Script FME pour le bruit
70
Annexe 7
Synthèse des démarches relatives aux activités particulières pour les aéronefs télépilotés
71
72
73
74
Annexe 8
Tutoriel RealityCapture
I. Interface graphique :
Le logiciel propose différents types d’affichage pour mieux visualiser les éléments du projet,
nous pouvons donc afficher entre 1 et 7 fenêtres en fonction des préférences de chacun.
Ainsi, pour chaque fenêtre, nous pouvons afficher les paramètres du projet en choisissant
1D, les images et l’orthophoto en choisissant 2D et le modèle 3D (alignement, nuage dense
ou maillage) en choisissant 3D.
L’outil help est bien détaillé, il suffit de taper le nom de l’étape dans la barre de recherche
pour avoir des informations détaillées des paramètres de la partie.
75
II. Création d’un projet :
Le bouton inputs pour choisir les photos et folder pour importer toutes les photos d’un
dossier.
Paramétrer le projet :
Les coordonnées par défaut des drones sont en WGS84, il faut donc les convertir dans les
coordonnées du dossier. Pour cela, il suffit de choisir le bon système de coordonnées dans «
Absolute coordinates »
Les coordonnées GNSS du drone DJI présentent un écart important en altimétrie. De même,
pour la plupart des récepteurs GNSS embarqués sur drone, l’altimétrie est exprimée en
Hauteur ellipsoïdale et non en IGN69.Cela se traduit par des coordonnées GCP qui
apparaissent au- dessus des sommets des prises de vue, ce qui n’est pas le cas en réalité.
Pour contrôler les erreurs de position des images, il est préférable de les modifier. Pour cela,
nous sélectionnons toutes les photos et nous mettons une nouvelle altitude qui est l’altitude
du point d’appui proche de l’emplacement du décollage à laquelle nous additionnons la
hauteur de vol.
76
III. Alignement :
. Plusieurs blocs mal orientés : Dans ce cas, nous devons ajouter des points de liaison et
refaire l’alignement
. Un seul bloc mal orienté : Dans ce cas nous pouvons redresser le nuage peu dense en allant
dans ‘Reconstruction’, ‘Set Ground Plan’ et ensuite ‘Scene’ dans la fenêtre 3D. Plusieurs vu
sont possibles pour redresser le bloc.
77
Contrôler l’alignement :
Dans « Worfkflow » « Reconstruction », nous importons le fichier text contenant les points
d’appui en choisissant le format et le système de coordonnées.
Le pointage des points d’appui se fait manuellement car le logiciel ne détecte pas
automatiquement les cibles.
Une fois tous les points d’appui pointés dans les images, il convient de déterminer ceux qui
serviront de points de contrôle. Pour rappel, les points de contrôle n’interviennent pas dans
le calcul de géoréférencement, ce qui permet d’estimer la précision du résultat en comparant
les coordonnées mesurées et les coordonnées calculées.
Pour un Points d’appui nous choisissons « Ground Control » et pour un point d’appui nous
sélectionnons « Ground test »
Optimisation :
78
Remarque : Dans la démo, la précision des erreurs est centimétrique, mais dans la version
payante, nous avons les erreurs en millimètres et les erreurs pixels.
Un rapport d’alignement peut être exporter pour contrôler les erreurs pixel et erreurs mètres.
La région de reconstruction est un volume rectangulaire dans lequel sera généré le nuage
dense. Par défaut, cette région englobe généralement le projet, mais il est impératif de
vérifier sa position pour deux raisons :
79
• La boxe peut être trop grande : dans ce cas, le calcul sera plus long que nécessaire puisque
le logiciel va créer des points dans des zones extérieures à l’emprise du projet.
• La boxe peut être trop petite : dans ce cas, il y aura une absence d’information dans des
zones de l’emprise du dossier. Il sera alors nécessaire de relancer le calcul complet pour
pallier ce manque de données.
Pour modifier cette région, nous utilisons « Set reconstruction region » dans l’onglet
Reconstruction :
Ensuite, nous choisissant les paramètres pour la génération du nuage dense et du maillage
dans « Reconstruction » « Setting ».
80
Le maillage généré peut être colorié et texturé. Ainsi, nous pouvons peut choisir entre 2
modes de visualisation du maillage (Sweet, Slide)
Génération de l’orthophoto :
Les orthophotos sont généré à l’aide de l’outil « Ortho Projection ». Plusieurs projections
sont possibles (arbitraire, haut, coté…). Pour la toiture nous sélectionnons Top et pour les
façades nous sélectionnons Side.
Le model numérique de surface peut être visualisé dans le rapport de l’orthophoto. Ainsi, le
MNS peut être exporté et utilisé dans un logiciel de SIG tel que QGIS.
Tous les résultats peuvent être exporté à partir de « Reconstruction » « Export ». Des rapports
détaillés de chaque étape peuvent aussi être exporté.
82
Liste des figures
Figure 1 : Processus de modélisation par photogrammétrie............................................................... 8
Figure 2 : Schéma de la distorsion radiale et tangentielle (http://www-igm.univ-
mlv.fr/~vnozick/teaching/projetsMath/radialNonLinear/radialNonLinear.pdf) ...................... 12
Figure 3 : Illustration de l’orientation externe (Murtiyoso, 2016) ................................................... 14
Figure 4 : Organigramme de la chaîne de production du pôle photogrammétrie ............................. 16
Figure 5 : Nuage de points du mur généré par ContextCapture ....................................................... 23
Figure 6 : Image de la façade prise par drone et maillage 3D du bâtiment sur Metashape .............. 23
Figure 7 : Problème d'alignement sur RealityCapture - un des trois blocs ...................................... 28
Figure 8 : Paramètres de ContextCapture......................................................................................... 29
Figure 9 : paramètres pour la génération des orthophotos sur CCE ................................................. 30
Figure 10 : Résultats de nuages de points pour une façade du bâtiment .......................................... 31
Figure 11 : Nuage de points obtenu avec le scanner laser................................................................ 32
Figure 12 : Graphique des résidus des quatre logiciels et du GSD .................................................. 34
Figure 13 : Courbe de distorsion radiale des quatre logiciels .......................................................... 36
Figure 14 : Courbe de distorsion de Pix4D (pré-étalonnée et optimisée) ........................................ 36
Figure 15 : Partie de la toiture peu dense (nuage scanner laser) ...................................................... 37
Figure 16 : Nuages visualisant les écarts des nuages photogrammétriques par rapport au nuage de
référence .................................................................................................................................. 39
Figure 17 : Histogrammes des écarts entre les logiciels de photogrammétrie et le scanner ............ 40
Figure 18: La position des coupes réalisés ....................................................................................... 41
Figure 19 : Escalier réalisé en suivant les nuages Scanner (rouge), Metashape (Vert),
RealityCapture (Violet), Pix4D (Bleu), ContextCapture (Jaune) ............................................ 42
Figure 20 : Profil 2 réalisé en suivant le nuage laser et les quatre nuages photogrammétriques ..... 42
Figure 21 : Profil 3 réalisé en suivant le nuage laser et les quatres nuages photogrammétriques .... 42
Figure 22 : Cartes de densité de points des 4 logiciels ..................................................................... 44
Figure 23 : Coupes de la toiture réalisées sur Cloudworx ................................................................ 45
Figure 24 : Cartes des écarts-types sur la cheminée ......................................................................... 46
Figure 25 : Orthophotos des différents logiciels .............................................................................. 47
Figure 26 : Zone de déformation dans l’orthophoto générée à partir du MNS de Metashape. ........ 48
Figure 27 : Points et distances mesurés sur les orthophotos ............................................................ 48
Figure 28 : Résultats des orthophotos pour une façade du bâtiment ................................................ 50
Figure 29 : Orthophoto de Pix4D après application de masque ....................................................... 51
Figure 30 : Nuage de points généré par RealityCapture .................................................................. 53
Figure 32 : Orthophoto généré par Metashape ................................................................................. 53
Figure 31 : Orthophoto généré par RealityCapture .......................................................................... 53
Figure 33 : Orthophoto de la zone levée avec le Phantom 4 RTK ................................................... 57
83
Liste des tableaux
Tableau 1 : Quelques drones à voilure tournante et leurs caractéristiques....................................... 18
Tableau 2 : Quelques drones à ailes volantes et leurs caractéristiques ............................................ 18
Tableau 3 : Les drones proposant le géoréférencement direct ......................................................... 19
Tableau 4 : Caractéristiques du Drone utilisé lors du levé (dji.com) ............................................... 24
Tableau 5 : Nombre de points homologues générés lors de l'alignement ........................................ 29
Tableau 6 : Différence des temps de traitement entre les logiciels .................................................. 31
Tableau 7 : Résidus des points d’appui pour les différents logiciels ............................................... 33
Tableau 8 : Résidus des points de contrôle pour les différents logiciels .......................................... 33
Tableau 9 : Comparaison des paramètres internes estimés dans chaque logiciel ............................. 35
Tableau 10 : Valeurs pré-étalonnage de pix4d ................................................................................. 35
Tableau 11 : Nombre de points des nuages denses .......................................................................... 37
Tableau 12 : Répartition des écarts entre le nuage photogrammétrique et le nuage de référence en
valeur absolue .......................................................................................................................... 38
Tableau 13 : Pourcentage des valeurs d’écarts entre le nuage photogrammétrique et le nuage de
référence dans des intervalles en valeur absolue ..................................................................... 38
Tableau 14 : Valeurs des écarts type des distances entre le nuage de référence et les nuages
photogrammétriques ................................................................................................................ 40
Tableau 15 : Distances mesurés sur les orthophotos ........................................................................ 49
Tableau 16 : Écarts entre les coordonnées issues du scanner laser et de l’orthophoto ..................... 49
Tableau 17 : GSD calculé par les logiciels....................................................................................... 50
Tableau 18 : Notes des logiciels selon différents critères ................................................................ 52
Tableau 19 : Tableau de synthèse .................................................................................................... 52
Tableau 20 : Ecarts entre les coordonnées levées avec l'antenne GNSS et ceux obtenues avec
l'option RTK ............................................................................................................................ 58
84
Optimisation d’une chaîne de production photogrammétrique et étude de la possible
internalisation des méthodes de levé photogrammétrique au sein d’un cabinet de
géomètre-expert.
_________________________________________________________________
RESUME
Une analyse des résultats de chaque logiciel, un comparatif des drones existants et une étude
de l’internalisation des levés photogrammétriques est réalisé.
_________________________________________________________________
SUMMARY
The photogrammetric survey mode has been developing more and more since the digital
era and the emergence of the use of drones. Many photogrammetric processing software
and drones are available on the market today, but not all of them offer the same
characteristics.
The objective of this study is to determine the photogrammetric software and the drone
best suited to the services provided by the company, namely: orthophoto for roof plan and
facades, and point cloud for surveying. As well as studying the possible internalization of
photogrammetric survey methods within a surveyor's office.
An analysis of the results of each software, a comparison of existing drones and a study of
the internalization of photogrammetric surveys is carried out.
Key words : Photogrammertry, 3D Modeling, Drone, Roof plan, Façade plan, Georeferencing,
Metashape, Pix4DMapper, ContextCapture, RealityCapture, SIG.
85