e Print 11431

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 103

UNIVERSITÉ DU QUÉBEC À TROIS-RIVIÈRES

AMÉLIORATION DE LA DÉTECTION À LONGUE PORTÉE POUR UN FREINAGE


RÉGÉNÉRATIF OPTIMAL EN CONDITIONS HIVERNALES

MÉMOIRE PRÉSENTÉ(E)
COMME EXIGENCE PARTIELLE DU
MAÎTRISE EN INGÉNIERIE-CONCENTRATION GÉNIE MÉCANIQUE

PAR
MOHAMED HEDI OUESLATI

AVRIL 2024
Université du Québec à Trois-Rivières

Service de la bibliothèque

Avertissement

L’auteur de ce mémoire, de cette thèse ou de cet essai a autorisé


l’Université du Québec à Trois-Rivières à diffuser, à des fins non
lucratives, une copie de son mémoire, de sa thèse ou de son essai.

Cette diffusion n’entraîne pas une renonciation de la part de l’auteur à ses


droits de propriété intellectuelle, incluant le droit d’auteur, sur ce
mémoire, cette thèse ou cet essai. Notamment, la reproduction ou la
publication de la totalité ou d’une partie importante de ce mémoire, de
cette thèse et de son essai requiert son autorisation.
ii

UNIVERSITÉ DU QUÉBEC À TROIS-RIVIÈRES

MAÎTRISE EN INGÉNIERIE-CONCENTRATION GÉNIE MÉCANIQUE

Direction de recherche :

Sousso KELOUWANI Directeur de recherche

Martin BOLDUC Codirecteur de recherche

Prénom et nom Fonction du membre de jury

Prénom et nom Fonction du membre de jury

Prénom et nom Fonction du membre de jury

Prénom et nom Fonction du membre de jury

Prénom et nom Fonction du membre de jury


Résumé
Le domaine des véhicules autonomes connaît une croissance exponentielle, comme le
reflète l’analyse de la société américaine Gartner [1], prévoyant une augmentation de 137
000 véhicules autonomes en 2018 à 745 000 en 2024. Malgré cette progression, l’objectif
de l’autonomie complète n’a pas été atteint. Les obstacles résident principalement dans
les limitations relatives à la détection et à la perception, qui ne sont pas encore optimales,
particulièrement dans des conditions hivernales marquées par des facteurs tels que la
neige, la pluie et le brouillard. Face à cette problématique, de nombreuses études ont
été menées pour proposer des solutions de perception pour les véhicules autonomes
en hiver. Ces solutions impliquent généralement la fusion de divers capteurs tels que
les caméras visibles, les caméras thermiques, les lidars et les radars. La plupart des
travaux de recherche se sont concentrés sur la fusion des caméras stéréo avec les caméras
thermiques, sans nécessairement considérer les aspects liés à la consommation énergétique
ni aux détections sur une longue distance. Bien que cette approche soit efficace pour
améliorer la détection des véhicules et des piétons, elle ne s’avère pas idéale pour détecter
efficacement les obstacles dynamiques dans des conditions difficiles (nuit, brouillard,
tempête etc.) en particulier ceux se trouvant à plus de 30 mètres du véhicule. Cette
contrainte pourrait entraîner une perte d’opportunité en termes de régénération énergétique
maximale, notamment en anticipant les freinages brusques dus à des détections tardives.
Pour résoudre cette problématique, l’intégration d’un lidar 3D en association avec une
caméra thermique et/ou une caméra stéréo se présente comme une solution potentielle.
Cette combinaison offre la possibilité d’obtenir une représentation thermique 3D précise
de l’environnement, favorisant une meilleure détection sur une longue distance et une
estimation précise de la position des obstacles en mouvement par rapport au véhicule
autonome, en particulier dans des conditions hivernales. Le présent travail de recherche
vise à développer un algorithme de fusion efficace, robuste et écoénergétique pour
combiner le lidar 3D et les caméras thermiques/stéréo. Cette fusion permettra non
seulement d’améliorer la détection sur une longue distance, en particulier celle des
piétons, mais également d’obtenir une localisation précise des objets en mouvement. Cette
précision accrue permettra au système de navigation d’optimiser la préparation du train de
propulsion maximisant ainsi le processus de régénération énergétique.

Mots-clés : Caméra Thermique Infrarouge, Détection d’objets, Freinage Régénératif,


Fusion des Capteurs, Lidar, Véhicules Autonomes.
Table des matières

Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii

Table des matières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv

Liste des tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi

Liste des figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii

Chapitre 1 - Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Contexte Général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Revue Bibliographique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Questions de Recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Objectifs et Contribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

Chapitre 2 - Formulation du Problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17


2.1 Modélisation de la Dynamique du Véhicule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Amélioration de la Récupération d’Énergie par le Freinage Régénératif . . . 19
2.3 Optimisation de l’Éfficacité Énergétique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Formulation de l’Hamiltonien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5 Application du Principe du Minimum de Pontryagin . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5.1 Les Équations d’État du PMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5.2 Les Équations de Co-état du PMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5.3 La Condition de Stationnarité du PMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5.4 Les Conditions aux Limites du PMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6 Optimisation de l’Énergie Régénérative : Méthodes et Simulations . . . . . . . . 27
2.6.1 Méthodologie de Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6.2 La Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.6.3 Simulation des Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6.4 Programmation Dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6.5 La Corrélation Temporelle de l’Énergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.7 Analyse des Dispositifs de Perception . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.1 Les Caméras Thermiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.2 Le Lidar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.7.3 Le Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7.4 Les Caméras Stéréo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
v

2.7.5 Analyse et Justification des Capteurs Sélectionnés . . . . . . . . . . . . . . . . . . 52


2.8 Système de Perception Optimisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.8.1 Aperçu de la Solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.8.2 Collecte de Données Expérimentales et Description du Matériel . . . 57

Chapitre 3 - Fusion des données, résultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59


3.1 Calibration des Capteurs pour la Fusion Caméra Thermique-Lidar . . . . . . . . . 60
3.2 Prétraitement des Données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.1 Synchronisation Temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.2 Synchronisation Spatiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.3 Projection Inverse des Données et Résultat de la Fusion . . . . . . . . . . . . 67
3.3 Détection 3D des Obstacles Dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.1 Un Nuage de Points Thermique 3D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.2 Le Réseau PointPillars . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.3 Configuration Expérimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.4 Analyse des Performances et des Spécifications d’Entraînement . . . . . . . . . . . 72
3.4.1 Architecture et Implémentation du Réseau . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4.2 Entraînement du Réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.4.3 Définition des Métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.4.4 Évaluation des Performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.4.5 Résultats de l’Optimisation Énergétique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

Chapitre 4 - Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Liste des tableaux
Tableau 2-1 Paramètres Dynamiques du Véhicule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Tableau 2-2 Tableau des Paramètres λ1 et Ubr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Tableau 2-3 Résumé des distances, de l’énergie requise et régénérée . . . . . . . . . . . . . 41

Tableau 3-1 Comparaison De la Précision de Détection . . . . . . . . . . . . . . . . . . . . . . . . . . 79


Tableau 3-2 Comparaison des Performances en Fonction de la Distance . . . . . . . . . 79
Liste des figures
Figure 1.1 Les Approches Classiques pour les Algorithmes de Fusion de
Capteurs. [2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Figure 1.2 Algorithmes de Fusion de Capteurs en Apprentissage Profond
Couramment Utilisés dans les Véhicules Autonomes. [2] . . . . . . . . . . . 11

Figure 2.1 Illustration de la Méthode d’Euler Explicite. Wikipedia 1 . . . . . . . . . . . 29


Figure 2.2 Les 5 Contrôles Ubr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Figure 2.3 Profils de Vitesse Tracés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Figure 2.4 Les Hamiltoniens Tracés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Figure 2.5 Génération de 50 Profils de Décélération Aléatoires . . . . . . . . . . . . . . . . 35
Figure 2.6 Minimisation de la Fonction Hamiltonienne H . . . . . . . . . . . . . . . . . . . . . . 37
Figure 2.7 Diagramme en Radar de la Caméra Thermique . . . . . . . . . . . . . . . . . . . . . . 45
Figure 2.8 Diagramme en Radar du Lidar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Figure 2.9 Diagramme en Radar du Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Figure 2.10 Diagramme en Radar de la Camera Stéréo . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Figure 2.11 Diagramme en Radar de l’Ensemble des Capteurs . . . . . . . . . . . . . . . . . . . 54
Figure 2.12 Flux de Données de la Solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Figure 2.13 Configuration des Capteurs sur le Véhicule Électrique KIA SOUL
Utilisé pour la Collecte de Données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

Figure 3.1 Les Étapes de la Fusion des Données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62


Figure 3.2 Correction de la Distorsion de l’Image Thermique . . . . . . . . . . . . . . . . . . 64
Figure 3.3 Résultat de la Fusion des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Figure 3.4 Une Vue d’Ensemble de la Structure du Réseau PointPillars . . . . . . . . 73
Figure 3.5 Évolution du Taux d’Apprentissage et de la Fonction de Perte du
Réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Figure 3.6 Évaluation de la Détection de Piétons sur un Jeu de Données de Test 78
Figure 3.7 Énergie Régénérée et Profil de Freinage pour 20 mètres . . . . . . . . . . . . . 82
Figure 3.8 Énergie Régénérée et Profil de Freinage pour 60 mètres . . . . . . . . . . . . . 83
Figure 3.9 Énergie Régénérée et Profil de Freinage pour 80 mètres . . . . . . . . . . . . . 84
Figure 3.10 Analyse de la Corrélation entre l’Énergie Régénérée, la Distance
de Freinage et la Précision de la Détection . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

1. https://fr.wikipedia.org/wiki/MÃľthode_d’Euler
viii

Glossaire
ADAS Advanced Driver Assistance Systems. 2
AEDPS Système d’Adaptation de Planification de Décélération Énergétique. 3

DP Programmation Dynamique. 39

EV véhicule électrique. 6

Lidar laser imaging detection and ranging. 8

MRL limite de régénération du moteur. 39

PMP Principe du Minimum de Pontryagin. 25

RANSAC Random Sample Consensus. 67


ROS Robot Operating System. 61

V2X Vehicle to Everything. 8


VHE Véhicules Électriques Hybrides. 7
Chapitre 1 - Introduction

Ce chapitre vise à fournir une vue d’ensemble du cadre général et des éléments
abordés dans notre étude sur l’optimisation de la perception des véhicules autonomes
afin d’améliorer leur efficacité énergétique en conditions hivernales. Dans cette optique,
le contexte général est présenté, en examinant les défis associés à la détection à longue
distance, notamment dans des conditions extrêmes. Par la suite, les enjeux en matière
d’énergie et de sécurité routière rencontrés par un conducteur humain sont abordés,
soulignant le besoin de systèmes d’aide à la conduite.

En mettant ensuite en lumière le sujet du freinage régénératif dans les véhicules,


les solutions trouvées dans la littérature pour optimiser la gestion de l’énergie dans les
véhicules autonomes sont exposées. Enfin, la concentration se porte sur les solutions
proposées pour améliorer la perception ainsi que sur les outils de fusion des capteurs
existants.

En conclusion, la problématique est présentée, les questions de recherche sont


formulées, ainsi que les objectifs et la contribution de ce travail. Cette introduction a
établi le cadre conceptuel et méthodologique nécessaire à la compréhension approfondie
des résultats et des conclusions présentés dans le 3e chapitre.

1.1 Contexte Général

L’intérêt croissant pour les véhicules autonomes a ouvert une ère de défis et
d’opportunités dans la recherche contemporaine. Cette exploration s’aligne parfaitement
avec la taxonomie décrite dans le standard SAEJ3016, qui catégorise systématiquement
les termes liés aux systèmes d’automatisation de la conduite pour les véhicules motorisés
sur route [3]. S’étalant sur six niveaux, du niveau 0 où les conducteurs humains assument
2

la responsabilité totale, au niveau 5 où les véhicules opèrent de manière autonome, cette


taxonomie offre un cadre structuré pour comprendre le paysage évolutif de la conduite
autonome.

Les technologies des Systèmes d’Aide à la Conduite Advanced Driver Assistance


Systems (ADAS), couvrant généralement les niveaux 1 et 2, offrent une assistance
précieuse au conducteur tout en exigeant son implication active, l’automatisation assiste
soit dans le pilotage soit dans l’accélération. Avec les progrès technologiques, on peut
raisonnablement s’attendre à une intégration accrue de niveaux de plus en plus élevés
d’autonomie dans les véhicules.

Les ADAS jouent un rôle essentiel dans l’amélioration de la sécurité globale


des véhicules. Ceci est particulièrement critique en raison des limites inhérentes
des conducteurs humains lors de l’exécution de manœuvres nécessitant une attention
simultanée à la fois à la sécurité et à l’efficacité énergétique - paramètres identifiés comme
les deux piliers de base des technologies ADAS avancés dans des recherches antérieures
[4].

Par ailleurs, même les conducteurs les plus expérimentés peuvent être confrontés à des
défis lors de conditions hivernales ou météorologiques défavorables [5] [6], susceptibles de
causer des accidents mortels. Dans de telles situations, la priorité est de garantir la sécurité
du conducteur. Toutefois, en ce qui concerne l’efficacité énergétique, les conducteurs
humains ne sont pas toujours très performants. Par exemple, lorsqu’ils sont confrontés
à un panneau d’arrêt à une courte distance, la réponse instinctive des conducteurs
implique généralement l’application des freins, renonçant ainsi à la récupération d’énergie
potentielle lors du freinage régénératif, qui convertit l’énergie cinétique du véhicule en
énergie électrique utilisable pour recharger la batterie.
3

La référence [4], démontre l’incapacité des conducteurs humains à exceller à la


fois en termes de sécurité et d’efficacité énergétique. En effet, une comparaison entre
trois conducteurs humains et un Système d’Adaptation de Planification de Décélération
Énergétique Système d’Adaptation de Planification de Décélération Énergétique (AEDPS)
a démontré que les pratiques de décélération étaient sûres, mais que l’AEDPS présentait
une efficacité énergétique supérieure. Cette disparité a été attribuée à la différence
substantielle dans les points d’initiation de la décélération, entraînant une nette différence
dans les forces de régénération entre l’AEDPS et les conducteurs humains. De plus,
le comportement des conducteurs humains montrait des distances de décélération plus
courtes par rapport à l’AEDPS, entraînant une récupération d’énergie réduite. En effet, la
régénération des moteurs électriques présente ses limites, notamment lorsque les trajets
sont trop courts, ce qui peut entraîner un dépassement de la capacité de régénération et
donc un freinage inefficace.

Selon les conclusions de D. Otte, M. Jänsch et C. Haasper [7], les accidents mortels
sur la route surviennent souvent en raison de défaillances dans les facteurs humains,
suivant une séquence chronologique de la perception à l’action dans la conduite concrète.
De nombreuses études ont proposé plusieurs solutions pour améliorer la sécurité des
conducteurs et beaucoup ont visé à améliorer l’efficacité énergétique. Cependant, seul
un nombre limité d’études ont tenté de traiter les deux aspects, s’efforçant de créer un
système robuste garantissant à la fois la sécurité et l’efficacité énergétique.

Des efforts considérables sont déployés pour améliorer l’efficacité énergétique,


entraînant un changement notable vers un paysage de transport plus durable sur le plan
environnemental. Comme le souligne une étude de Husain et al. [8], les projections
indiquent que les ventes de véhicules électriques pourraient représenter la totalité des
4

nouvelles ventes de voitures d’ici 2040. En effet, de plus en plus de pays adoptent des
lois interdisant les véhicules à moteur, favorisant ainsi l’adoption de voitures électriques
ou hybrides, deux scénarios émergent où la régénération devient à la fois possible et
cruciale. L’adoption croissante de véhicules électriques agit comme un catalyseur pour
l’avancement environnemental du secteur des transports, s’alignant sur les initiatives
mondiales visant à lutter contre le changement climatique et à promouvoir la mobilité
durable. Parallèlement, le développement de véhicules autonomes équipés de systèmes
d’aide à la conduite sophistiqués est également en progression.

L’électrification des transports et les manœuvres de conduite autonome présentent une


convergence marquée. La gamme complète de dispositifs de perception et de traitement
embarqués exige une quantité substantielle d’énergie, principalement prélevée sur la
batterie du véhicule, impactant inévitablement l’autonomie de déplacement globale. Ce
défi devient particulièrement amplifié dans des conditions hivernales, où l’autonomie
énergétique limitée est encore compromise par les capteurs et les dispositifs de traitement
énergivores. Pour accélérer l’adoption mondiale des véhicules électriques (VE), il est
impératif de relever ce défi.

1.2 Problématique

Lors de conditions météorologiques extrêmes, les voitures autonomes peuvent


rencontrer plusieurs problèmes de navigation, notamment en raison de la performance
limitée des capteurs qui constituent le système de perception. Ces capteurs peuvent ne
pas fonctionner de manière optimale sous la neige, sous la pluie ou dans des conditions
de faible luminosité. En outre, il a été constaté que dans ces conditions extrêmes, les
conducteurs humains peuvent ne pas être très sûrs, tout en étant inefficaces sur le plan
énergétique lorsqu’ils effectuent des manœuvres telles que le freinage régénératif.
5

Par conséquent, la problématique de recherche se concentre sur l’amélioration de la


détection sur une longue distance du système de perception des véhicules autonomes, ce
qui permettrait au système de propulsion d’exécuter un freinage régénératif efficace et de
récupérer une quantité d’énergie suffisante. Cette amélioration vise à accroître l’autonomie
du véhicule et à garantir une sécurité routière optimale. Ainsi, la question centrale de cette
étude peut être formulée comme suit : Comment améliorer la perception à longue distance
des véhicules autonomes tout en maximisant la récupération d’énergie régénérative dans
des conditions hivernales ?

1.3 Revue Bibliographique

En réponse au premier volet de notre recherche axée sur l’efficacité énergétique, une
solution proposée implique d’augmenter la densité énergétique en utilisant une chimie de
batterie plus puissante. Cependant, la mise en œuvre d’une telle solution peut nécessiter un
temps considérable, même si les fabricants investissent dans des méga-usines de batteries
pour produire en masse des cellules Li-Ion [9]. Pendant ce temps, des efforts sont en
cours pour optimiser la consommation d’énergie pendant les conditions hivernales en
intégrant des dispositifs à faible consommation d’énergie [10]. Malgré la promesse de
cette approche, sa mise en œuvre généralisée reste entravée par les coûts associés, et le
développement de nouvelles technologies de détection à faible consommation d’énergie
en est encore à ses débuts.

Dans la conception des véhicules électriques autonomes, l’approche prédominante


consiste à intégrer des logiciels et du matériel de navigation sur les composants de
traction électrique existants. Cela est principalement dû à la priorisation de la sécurité
dans les manœuvres autonomes, tandis que la traction électrique a traditionnellement été
conçue pour l’exécution du mouvement. Cependant, il est bien établi que l’exécution
6

de la manœuvre doit prendre en compte la dynamique du véhicule. Le module de


navigation génère souvent des trajectoires qui peuvent ne pas être énergétiquement
efficaces ; par exemple, le taux de glissement du véhicule influence significativement
la consommation d’énergie, surtout sur des routes glaciales ou enneigées. Ainsi, un
contrôleur de mouvement efficace devrait s’efforcer de minimiser le taux de glissement,
en particulier pendant les événements de freinage. Une approche pour maintenir un
taux de glissement acceptable est de combiner la capacité de détection d’événements
d’arrêt du module de navigation autonome avec l’exécution de la traction pour le groupe
motopropulseur véhicule électrique (EV). En détectant un événement d’arrêt imminent
plus tôt, le module de navigation peut anticiper l’événement de freinage, générant un
profil de décélération avec des avantages doubles : (i) maintien du taux de glissement dans
une plage optimale et (ii) fournir suffisamment de temps pour la récupération du groupe
motopropulseur.

La création d’un système de gestion de l’énergie robuste, nécessite de trouver un


équilibre entre l’efficacité énergétique et la fonctionnalité des différents systèmes du
véhicule, y compris les capteurs. Les ingénieurs se concentrent sur l’amélioration de
la consommation d’énergie globale tout en respectant des critères de sécurité et de
fonctionnalité essentiels. Une stratégie spécifique utilisée est le freinage régénératif, visant
à capturer et à stocker l’énergie cinétique produite pendant le freinage afin d’améliorer
l’économie de carburant des véhicules électriques (VE) [11]. Ce processus de récupération
d’énergie implique de convertir les énergies cinétique et potentielle en énergie électrique
en utilisant le moteur de traction comme générateur [12] [13]. Outre l’importance de
considérer le profil de vitesse optimal pour minimiser la consommation d’énergie, il
est également essentiel d’améliorer la performance de récupération d’énergie. Plusieurs
études se sont concentrées sur la stratégie de distribution du couple de régénération (RTD)
7

pour maximiser la récupération d’énergie de freinage [14].

De nombreuses recherches ont été menées sur le sujet du freinage régénératif dans
la littérature scientifique. L’équipe de Han a proposé une stratégie de freinage dans la
référence [15], visant à optimiser l’énergie régénérée lors du freinage régénératif. Un
autre article [16], a présenté un modèle longitudinal du véhicule et examiné les équations
pertinentes pour le freinage régénératif, prenant en compte les diverses forces affectant
la dynamique du véhicule. Dans la référence [17], l’accent a été mis sur le freinage
régénératif dans un véhicule électrique à pile à combustible (VEPC) équipé d’un moteur
à aimant permanent, utilisant un condensateur (UC) pour capturer l’énergie de freinage.
Cependant, l’allocation du freinage régénératif et du freinage par friction était basée sur
un rapport fixe sans tenir compte des préoccupations de sécurité ou de stabilité. De même,
dans l’article [18], un algorithme de contrôle du freinage régénératif a été proposé pour un
VEPC avec un système de freinage électrique et un freinage régénératif sur les roues avant.
L’algorithme utilisait le signal de la pédale de frein comme entrée, enclenchant les freins
à friction uniquement lorsque la demande de décélération dépassait un seuil prédéterminé.
Pour atténuer l’impact négatif des basses vitesses sur l’énergie régénérée et le confort de
conduite, un facteur de poids a été introduit. De plus, dans [19], une analyse détaillée
a été menée sur un bus hybride électrique à pile à combustible à entraînement par roue
arrière, expliquant les stratégies de contrôle pour les opérations de motricité et de freinage
régénératif d’un moteur à aimant permanent.

Contrairement à la conception axée principalement sur l’efficacité énergétique des


Véhicules Électriques Hybrides Véhicules Électriques Hybrides (VHE) et des Véhicules
Électriques (VE) [20] [21], la sécurité routière est considérée comme l’un des critères les
plus importants. Cependant, l’optimisation du groupe motopropulseur, de la transmission
8

et de la sécurité routière est principalement du ressort du constructeur automobile. Le


profil de mouvement du véhicule, incluant l’accélération et la décélération, est un facteur
clé qui influence la sécurité routière [22]. Par conséquent, les actions d’accélération et de
freinage doivent être régulées pour garantir une expérience de conduite sécurisée.

L’adressage des préoccupations en matière de sécurité est devenu un objectif central


pour les chercheurs s’efforçant d’améliorer les capacités perceptuelles des véhicules.
Cette amélioration est réalisée grâce à diverses techniques de fusion de capteurs et à la
mise en œuvre de mécanismes de communication entre les véhicules et l’infrastructure,
communément appelée Vehicle to Everything (V2X) [23]. Bien que cette communication
améliore considérablement la perception de la situation et permette des applications de
sécurité, elle introduit simultanément une myriade de défis en matière de sécurité qui
nécessitent une considération minutieuse.

La fusion de capteurs consiste à intégrer les données de divers capteurs, y compris


les caméras, les radars, les laser imaging detection and rangings (Lidars) et les capteurs
ultrasoniques, pour fournir une vue d’ensemble complète de l’environnement du véhicule.
Cependant, dans des conditions météorologiques difficiles, la fiabilité de certains capteurs
diminue. Cela souligne l’importance de l’utilisation de capteurs spécifiques, tels que le
Lidar et les capteurs thermiques, réputés pour leur performance robuste même dans des
conditions météorologiques défavorables.

Le Lidar s’avère particulièrement précieux dans les scénarios où les capteurs basés
sur la vision peuvent rencontrer des difficultés, offrant des données fiables même en cas
de visibilité réduite ou de conditions météorologiques adverses. En complément à cette
capacité, les capteurs thermiques offrent une détection améliorée dans des conditions
environnementales variables [5] [6]. Ces considérations sont cruciales pour maintenir les
9

mesures de sécurité, surtout lorsque les technologies de capteurs classiques montrent des
limites, telles que les caméras qui peuvent rencontrer des difficultés à fonctionner dans des
conditions de faible luminosité (notamment la nuit), ou encore le GPS dont la précision
peut se dégrader lors de tempêtes géomagnétiques.

Le travail réalisé par Melotti, Premebida et leur équipe [24] a introduit un système
de classification de piétons basé sur un réseau de neurones à convolution (CNN) qui
intègre les données Lidar et les données de caméra pour améliorer la sécurité des véhicules
autonomes. L’étude a démontré que l’utilisation de stratégies de fusion aboutissait à
des résultats supérieurs par rapport aux capteurs individuels, renforçant ainsi la sécurité
globale. Dans la référence [25], un effort a été fait pour combiner les données d’une
caméra et d’un télémètre laser afin de reconstruire avec succès un modèle thermique
tridimensionnel de l’environnement. De même, la référence [26] a exploré la faisabilité
de la reconstruction tridimensionnelle en temps réel d’éléments thermiques, en mettant
particulièrement l’accent sur l’amélioration de la sécurité dans les opérations de lutte
contre les incendies. Cependant, il est à noter que ces études n’ont pas pris en compte les
conditions hivernales, car elles reposaient sur une caméra standard qui n’est pas adaptée
aux conditions difficiles.

Dans une étude exhaustive menée par Fayyad et ses collègues [2], les avantages
et les limitations de la fusion des données de capteurs sont explorés, fournissant un
aperçu complet des méthodologies existantes. L’étude identifie deux approches courantes
: les méthodes classiques, illustrées dans la figure 1.1, et les approches de fusion de
capteurs basées sur l’apprentissage profond, illustrées dans la figure 1.2. Les méthodes
classiques rencontrent souvent des défis tels que la complexité computationnelle élevée et
la dépendance aux hypothèses ou connaissances préalables des données.
10

Figure 1.1 Les Approches Classiques pour les Algorithmes de Fusion de


Capteurs. [2]

En revanche, les méthodes d’apprentissage profond nécessitent des quantités


importantes de données et de temps d’entraînement. En contraste, ce projet propose une
méthode de fusion pixel par pixel plus accessible, offrant une alternative plus simple.

Plusieurs chercheurs ont réalisé des avancées significatives dans le domaine de la fusion
de capteurs en exploitant des algorithmes d’apprentissage profond [27, 28], démontrant
ainsi la faisabilité de cette approche. D’autres chercheurs, en revanche, ont proposé des
solutions plus simples en utilisant les paramètres intrinsèques et extrinsèques des capteurs
pour calibrer ces derniers et établir une matrice de transformation entre le monde 3D
et 2D. Cependant, ces approches n’ont pas encore été évaluées en ce qui concerne les
détections sur une longue distance. En outre l’article [29] a introduit un algorithme robuste
de détection d’objets qui utilise un algorithme de correction de paramètres infrarouges
11

externes directs entre les caméras infrarouges thermiques et les capteurs Lidar. Bien
qu’efficace dans les environnements diurnes et nocturnes pour les véhicules autonomes,
l’algorithme attend toujours une évaluation pour l’estimation de distance ou les détections
à longue portée, ce qui pose des défis pour les capacités de perception du véhicule.

Figure 1.2 Algorithmes de Fusion de Capteurs en Apprentissage Profond


Couramment Utilisés dans les Véhicules Autonomes. [2]

L’article [30] s’est concentré sur les capteurs thermiques et Lidar pour développer
une méthode de cartographie thermique à grande échelle et à longue portée précise. Ils
ont introduit une approche de cartographie de grille d’occupation basée sur des voxels
thermiques stockés dans un objet Octree. Bien que cela puisse améliorer la perception du
véhicule, l’aspect de l’efficacité énergétique nécessite une enquête plus approfondie.

La fusion du Lidar avec des caméras stéréo a également retenu l’attention. L’article [31]
a mené une revue de littérature approfondie sur diverses méthodes de fusion, présentant
des approches diverses et leurs résultats. La précision moyenne de la détection des piétons
est de 50% ; la méthode de fusion ponctuelle donnant la précision la plus élevée de
60.85%. Il existe un potentiel d’amélioration supplémentaire en explorant et en modifiant
les modalités de fusion. De plus, la référence [32] s’est concentrée sur l’amélioration de la
détection des piétons et des systèmes de perception globaux en fusionnant un capteur
12

Lidar avec une caméra 3D, proposant un algorithme entièrement fonctionnel pour la
détection et l’identification des piétons dans la plage de 10 à 30 mètres. Cependant,
l’aspect énergétique reste non résolu, et dans le contexte des véhicules autonomes, cette
portée de détection se révèle insuffisante.

De même, l’équipe de Wenyu Che [33] a proposé un cadre de détection d’objets 3D


combinant des indices sémantiques issus de caméras monoculaires, une structure dense
provenant de caméras stéréo et des informations de localisation précises provenant de
capteurs Lidar. Atteignant une précision élevée de 72% dans la détection des piétons,
le cadre met en évidence l’amélioration potentielle de la perception des véhicules grâce
à la fusion de plusieurs capteurs. Néanmoins, l’étude reconnaît la nécessité d’explorer
davantage les aspects liés à l’efficacité énergétique.

1.4 Questions de Recherche

Afin de répondre à la problématique de recherche, les questions de recherche suivantes


ont été dressées :
• Comment optimiser la détection à longue distance des véhicules autonomes par
temps hivernal ?
• Quelle stratégie de contrôle optimisée peut être développée pour le freinage
régénératif dans les véhicules électriques à batterie afin de résoudre les problèmes
liés à la gestion de l’énergie ?
• Quel est le potentiel de détection des obstacles dynamiques à longue distance dans
des conditions météorologiques difficiles pour améliorer la récupération d’énergie
régénérative lors du freinage en utilisant la fusion de plusieurs capteurs ?
13

1.5 Objectifs et Contribution

À travers ce mémoire, une démarche est entreprise pour présenter une solution visant à
optimiser l’efficacité énergétique des voitures autonomes en conditions hivernales. Face
à la contrainte inhérente à la capacité limitée de stockage des batteries des véhicules
autonomes, qui requiert des recharges fréquentes lors de trajets prolongés, ainsi qu’au
fonctionnement simultané des caméras, radars, Lidar, GPS et autres capteurs nécessaires
à l’autonomie du véhicule, la question de l’efficacité énergétique demeure un défi majeur.
L’approche explorée est celle exploitant le principe du freinage régénératif.

Pour concrétiser cette approche, des efforts sont entrepris pour améliorer la perception
globale du véhicule. L’objectif est d’optimiser la détection des éléments environnants,
renforçant ainsi la sécurité du véhicule et permettant un laps de temps accru pour l’action
de freinage. De plus, l’objectif est d’établir une base de perception plus robuste, sécuritaire
et résiliente face aux variations environnementales.

Jusqu’à ce jour, de multiples contraintes se dressent sur la voie de la réalisation d’une


voiture autonome de niveau 5, totalement autonome et exempte d’intervention humaine.
De surcroît, les difficultés posées par les conditions météorologiques telles que la pluie,
les températures extrêmes et la neige compliquent davantage les choses en obstruant les
dispositifs de caméra, entraînant ainsi une diminution des performances du véhicule. Dans
cette optique, la mise en place d’un système de détection robuste apparaît comme une
solution pour renforcer l’ensemble du dispositif.

La contribution de ce travail de recherche réside dans l’amélioration de la capacité


de détection obtenue par la fusion d’une caméra thermique et d’un Lidar, ce qui garantit
une résilience dans des conditions météorologiques difficiles. Cette approche assure des
14

détections à longue portée, dépassant les 50 mètres, et optimise l’efficacité énergétique


grâce au freinage régénératif. En gérant intelligemment les événements de freinage et
en proposant des profils de décélération adaptés, le système maximise la récupération
d’énergie sur de longues distances. L’intégration du nuage de points thermique 3D avec
la dynamique du véhicule garantit que les manœuvres sont non seulement sûres, mais
aussi écoénergétiques, dépassant les capacités humaines, notamment dans des scénarios
de conduite difficiles tels que l’hiver. Cette recherche aborde des aspects critiques de la
technologie des véhicules autonomes, offrant des avancées à la fois en matière de sécurité
et d’efficacité énergétique grâce à des techniques de fusion de capteurs.

1.6 Méthodologie

Pour répondre aux questions de recherche établies, la méthodologie suivante est


proposée :

1. Étude de l’état de l’art : Cette phase consiste à examiner de manière exhaustive


les travaux existants dans le domaine de la perception des véhicules autonomes,
afin de comprendre les avancées récentes et les lacunes à combler.

2. Modélisation de la dynamique du véhicule : En exploitant les forces appliquées


lorsque le véhicule est en mouvement, la corrélation entre la distance de freinage
ou le temps de freinage et la quantité d’énergie régénérée a été démontrée.

3. Étude des capteurs : À travers l’établissement d’un graphique en radar, les


performances des différents capteurs sont évaluées dans diverses conditions
météorologiques, permettant ainsi de déterminer leurs forces et faiblesses.

4. Acquisition des données : Les données sont collectées à partir du Lidar et de la


caméra thermique pour alimenter notre processus de fusion.

5. Développement de l’algorithme de fusion :


15

(a) Projection pixel par pixel des points 3D du Lidar vers la trame 2D de l’image en
exploitant les paramètres intrinsèques et extrinsèques des capteurs afin d’établir
les transformations nécessaires pour la projection. Suivi d’une projection
inverse pour récupérer les données de la trame 2D en 3D.

(b) Utilisation de PointPillars pour effectuer la détection des obstacles dynamiques


dans le nuage des points thermique 3D, en fournissant des informations sur leur
présence et leur distance par rapport au véhicule.

6. Comparaison avec d’autres solutions de fusion : Évaluation comparative des


performances en termes de précision, de détection et de distance de détection par
rapport à d’autres solutions.

7. Proposition du meilleur profil de freinage régénératif : En fonction de la vitesse


du véhicule et de la distance de détection des obstacles, un profil de freinage
adéquat est proposé dans le but de maximiser la récupération d’énergie.

Les sections suivantes du rapport sont organisées comme suit :

Le chapitre 2 présente une explication détaillée de la problématique du projet


en mettant en lumière l’approche du freinage régénératif, couvrant les spécifications
techniques telles la description du modèle dynamique et les équations d’optimisation, ainsi
que les contrôles de freinage optimisés proposés.Nous discutons aussi l’optimisation de la
perception, qui comprend des techniques de manipulation des données et des spécifications
du réseau visant à obtenir des détections plus précises et une plage de détection plus large.

Le chapitre 3 examine en détail le concept de fusion des données, les spécifications


techniques de la détection des obstacles dynamiques, notamment les piétons, analyse les
résultats obtenus et expose la validation expérimentale.
16

Et enfin, dans la section 4, nous concluons le mémoire en résumant les principales


conclusions et en discutant des orientations futures potentielles de la recherche.
17

Chapitre 2 - Formulation du Problème

Le présent chapitre se concentre sur la modélisation du modèle dynamique du véhicule


et les techniques de contrôle associées pour optimiser la décélération dynamique, en
mettant particulièrement l’accent sur le freinage régénératif et l’efficacité énergétique.
Le concept de freinage régénératif est abordé en premier, en examinant sa dynamique
ainsi que sa dépendance temporelle pour formuler un problème d’optimisation pertinent.
Ensuite, l’Hamiltonien du système est introduit et les conditions nécessaires pour une
optimisation efficace sont discutées, en se basant sur le principe du minimum de
Pontryagin. Par la suite, le contrôle optimisé de la régénération d’énergie est exploré en
détaillant la méthode d’Euler, ainsi que les résultats des simulations, et en examinant la
corrélation temporelle de l’énergie. Enfin, l’optimisation du système de perception est
abordée, en mettant en lumière les capteurs utilisés ainsi que la méthode utilisée pour la
récolte des données. Ce chapitre constitue ainsi une étape cruciale dans la compréhension
et la mise en oeuvre de techniques avancées de contrôle pour maximiser l’efficacité
énergétique des véhicules électriques.

2.1 Modélisation de la Dynamique du Véhicule

Dans l’article [16], un modèle physique est utilisé pour décrire la consommation
d’énergie de la batterie, lequel repose sur la dynamique longitudinale du véhicule. De
même, le modèle dynamique longitudinal du véhicule est présenté par l’équation 2.1.

Ce modèle est en accord avec la deuxième loi de Newton, et peut être exprimé comme
suit :
M v̇ = Ft − Froll − Faero − Fgrade − Fbr (2.1)

Où M est la masse du véhicule, v est la vitesse du véhicule.


18

Le Froll est la résistance au roulement, ou la perte d’énergie due au contact de la route


avec les roues, qui est représentée par :

Froll = µ.M.g. cos(θ ) (2.2)

Où µ est le coefficient de résistance au roulement, M est la masse du véhicule, g est


l’accélération gravitationnelle en m/s et θ est la pente ou l’inclinaison de la route.

Il y a aussi le Faero qui est l’action globale de l’air sur le véhicule et qui peut être
exprimé comme suit :
1
Faero = .ρ.A.Cd .v2 (2.3)
2

Où ρ est la densité de l’air, qui dépend de la température, A est la surface frontale du


véhicule, Cd est le coefficient de traînée aérodynamique, et v est la vitesse du véhicule.

Et enfin, Fgrade , qui est l’influence de la force gravitationnelle sur le véhicule, est
exprimé comme suit :
Fgrade = M.g. sin(θ ) (2.4)

Les valeurs des paramètres dynamiques du véhicule expérimental, qui sera présenté par la
suite, sont répertoriées dans le tableau suivant 2-1.

Tableau 2-1 Paramètres Dynamiques du Véhicule

Paramètre Valeur
ρ 1.2
Cd 0.3
A 2.2 m2
M 1500 kg
Décélération maximale 8 m/s2
Accélération maximale 2.65 m/s2
µ 0.02
Rayon de la roue (Wheel radius ) 0.57 m
19

2.2 Amélioration de la Récupération d’Énergie par le Freinage Régénératif

Dans la littérature, plusieurs travaux ont tenté de proposer des modèles de freinage
pour prédire les distances d’arrêt possibles [34]. D’autres ont cherché à modéliser tous
les composants du système de freinage [35]. Cependant, cette étude se concentre sur le
freinage régénératif, qui suscite un intérêt particulier parmi les chercheurs, notamment
pour les véhicules électriques [36]. Notre approche dans cette étude consiste à proposer
un modèle plus simple en se basant sur les forces appliquées lors du freinage.

La force de freinage exercée sur les véhicules est désignée par Fbr et peut être trouvée
dans l’équation 2.1. où Fbr est la combinaison de deux forces :
• La force de friction, qui est la force mécanique appliquée par le freinage sur le
véhicule et est exprimée comme Ffr .
• La force de freinage régénératif, limitée par la puissance maximale du
moteur/générateur, désignée par Frg .
La force de freinage peut être exprimée comme suit :

Fbr = Ffr + Frg (2.5)

Pour maximiser la récupération d’énergie grâce au freinage régénératif, il est essentiel


de permettre à la force régénérative Frg d’atteindre sa puissance régénérative maximale,
limitée par la capacité du moteur lors de chaque événement de freinage.

Cependant, selon les conditions initiales du freinage, comme la vitesse initiale et la


distance de freinage, on peut déterminer si le freinage régénératif serait suffisant pour
immobiliser complètement le véhicule à son emplacement prévu.
20

En général, pendant la conduite, les individus initient la décélération en utilisant le


freinage régénératif, puis introduisent progressivement la force de friction Ffr à travers la
pédale de frein pour garantir un arrêt contrôlé, utilisant ainsi toute puissance régénérée
excédentaire.

L’objectif du freinage est d’atteindre une énergie cinétique nulle, ce qui peut être
représenté par l’équation suivante :

Z tf
1 2
Mv = Fbr (t) · v(t)dt (2.6)
2 initial t0

où vinitial est la vitesse initiale de la voiture, t0 est le début du freinage, t f est la fin du
freinage, et Fbr (t) est la force de freinage appliquée à un instant t.

Avec :

1

 Mvt20 > 0

2 (2.7)
 1 Mv2 = 0

2 tf
Cette équation exprime que l’énergie cinétique initiale 12 Mv2initial est dissipée par la force
de freinage sur la période de temps de t0 à t f , ce qui conduit à une énergie cinétique nulle
à la fin du freinage.

En réalité, l’énergie cinétique est la somme des intégrales des forces appliquées, ce qui
implique :

Z tf Z tf Z tf
1
Mv(t)2 dt = Ffr (t)v(t)dt + Frg (t)v(t)dt + Floss (t)v(t)dt (2.8)
2 t0 t0 t0
21

avec :

Floss = Froll + Faero + Fgrade (2.9)

Cependant, étant donné que la force de freinage mécanique (Ffr ) est limitée par
la contrainte mécanique de la pédale de freinage, le temps de freinage (TB ) doit être
considérablement prolongé (t2 > t1 ) pour atteindre une énergie cinétique nulle, comme
exprimé par :

Z tf
1
lim Mv2 dt → 0 (2.10)
t1 →tB t0 2

Dans le cadre d’un freinage régénératif, l’objectif est de dissiper le maximum d’énergie
cinétique avec l’énergie régénérée à la fin du processus, ce qui peut être exprimé par :

Z tf
E= Frg (t)v(t)dt (2.11)
t0

2.3 Optimisation de l’Éfficacité Énergétique

Afin de démontrer l’efficacité du freinage régénératif pour maximiser la récupération


d’énergie, un problème d’optimisation est formulé. Une fonction de coût appropriée,
répondant à notre problématique, est utilisée. Une fois le problème résolu, les résultats
seront validés en simulant différents profils de freinage.

Pour obtenir une fonction de coût appropriée, toutes les forces mentionnées ci-dessus
seront intégrées. En divisant ensuite l’équation 2.1 par la masse M, l’équation peut être
22

exprimée sous une forme plus simplifiée comme suit :

1
Ut = v′ + ρCx v2 + gµ cos(θ ) + sin(θ ) +Ubr (2.12)
2M

Où :

F

Ut = t

M (2.13)
U = Fbr

br
M

Ainsi, l’équation (2.12) devient :

Ut = v′ + αv2 + β +Ubr (2.14)

Où :

1

α =
 ρCx
2M (2.15)

β = gµ cos(θ ) + sin(θ )

Cependant, pendant le freinage, la puissance théorique de traction Ft est nulle, ce qui


se traduit par l’équation suivante :

0 = v′ + αv2 + β +Ubr (2.16)

Ainsi, les deux équations d’état peuvent être exprimées comme suit :
23


s′ = v

(2.17)
v′ = −αv2 − β −Ubr

Afin de simplifier le problème d’optimisation, la pente de la route, représentée


par l’inclinaison θ , est considérée comme nulle. En connaissant l’équation (2.12), la
commande optimale Ubr est calculée de manière à minimiser l’énergie totale J0 définie
comme :

Z tf
J0 = (Av)2 +Ubr
2
dt (2.18)
t0

2.4 Formulation de l’Hamiltonien

En théorie du contrôle optimal, l’Hamiltonien est une fonction qui représente le coût
total d’un système dynamique soumis à un certain contrôle dans un intervalle de temps
donné. Il est défini comme la somme du coût instantané (ou coût local) et du coût
futur (ou coût terminal). Selon Lewis et Syrmos [37], l’Hamiltonien pour le problème
d’optimisation donné peut être défini comme suit :

H = L(x, u,t) + λ T g(x, u,t) (2.19)

Où L(x, u,t) est la fonction de coût à minimiser et g(x, u,t) représente l’ensemble des
contraintes. Le vecteur d’état est défini comme x = [s, v̇], l’entrée de contrôle comme u =
[Ubr ], et t représentes le temps.

La fonction de coût à minimiser est donnée par :


24

L(x, u,t) = Av2 +Ubr


2
(2.20)

Ainsi, l’Hamiltonien peut être exprimé comme :

H(x, u,t) = Av2 +Ubr


2
+ λ1T (−αv2 − β −Ubr ) + λ2T v (2.21)

où λ est le multiplicateur de Lagrange pour les contraintes de la dynamique de l’état.

2.5 Application du Principe du Minimum de Pontryagin

Le principe du minimum de Pontryagin [38], est un principe fondamental en théorie du


contrôle optimal. Il établit que si un contrôle optimal existe pour un problème donné, alors
la fonction de Hamilton associée à ce problème doit être minimisée le long de la trajectoire
optimale. En d’autres termes, cela signifie que le contrôle optimal minimise l’Hamiltonien
le long de la trajectoire optimale pour tout instant donné.

Trouver un contrôle optimal qui minimise l’Hamiltonien permet d’obtenir une


trajectoire optimale pour le système dynamique considéré. En d’autres termes, cela signifie
trouver un chemin qui minimise le coût total du système, ce qui peut conduire à des
économies de ressources, à une amélioration de la performance ou à la résolution de
problèmes spécifiques dans le système étudié. En utilisant l’Hamiltonien et le principe
du minimum de Pontryagin, il est possible d’analyser et de concevoir des stratégies
de contrôle qui optimisent divers critères en fonction des contraintes et des objectifs
spécifiques du système dynamique considéré.

Après avoir obtenu la formulation hamiltonienne du problème donné ainsi que les
25

conditions nécessaires et suffisantes, le Principe du Minimum de Pontryagin Principe


du Minimum de Pontryagin (PMP) [39] est utilisé pour dériver la solution de contrôle
optimale pour le problème énoncé.

Pour appliquer le principe du minimum de Pontryagin, la commande optimale u∗ (t)


doit être calculée, ainsi que le vecteur co-état optimal λ1T qui satisfait les conditions
suivantes :

1. Les équations d’état : ẋ = f (x, u,t)

2. Les équations de co-état : ẏ = − ∂∂Hx

3. L’Hamiltonien est minimisé par le contrôle optimal : H(x, u∗ , λ̇ ,t) ≤ H(x, u, λ̇ ,t)
pour tout contrôle u(t)
∂H
4. La condition d’optimalité : u̇ = ∂u =0

2.5.1 Les Équations d’État du PMP


∂H
x˙1 =

 = −αv2 − β −Ubr
∂λ1
(2.22)
 ∂H
x˙2 =
 =v
∂λ2

2.5.2 Les Équations de Co-état du PMP

∂H

λ̇1 =
 = 2Av − 2αλ1 v − λ2
∂v (2.23)
λ˙ = ∂ H = 0

2
∂s
26

2.5.3 La Condition de Stationnarité du PMP

∂H

0 =
 = Ubr − λ1
∂u (2.24)
U ∗ = λ1

br
2

2.5.4 Les Conditions aux Limites du PMP

Dans la spécification des conditions aux limites pour notre problème d’optimisation
du freinage régénératif, plusieurs choix ont été faits pour garantir des conditions initiales
et finales appropriées. Tout d’abord, la vitesse initiale du véhicule est fixée à 60 km/h
(kilomètres par heure). Cette valeur correspond à une situation typique de conduite sur
route où le véhicule circule à une vitesse constante avant le début du freinage. Ensuite,
la condition finale de vitesse est fixée à zéro, représentant l’arrêt complet du véhicule, ce
qui est essentiel pour garantir un arrêt sûr et efficace. De plus, la distance de freinage
est spécifiée comme étant de 100 mètres. Cette distance représente la distance totale
parcourue par le véhicule pendant le processus de freinage, depuis le début jusqu’à l’arrêt
complet. Enfin, une contrainte est imposée sur la commande de freinage régénératif,
avec une valeur comprise entre 0 et 2, assurant ainsi une régulation appropriée de la
puissance de freinage régénératif tout au long du processus. Ces choix de conditions aux
limites sont essentiels pour définir de manière précise et cohérente les paramètres de notre
problème d’optimisation du freinage régénératif, garantissant ainsi des résultats pertinents
et applicables dans le contexte des véhicules électriques.

• V (t0 ) = 60
• V (t f ) = 0
• s(t0 ) = 100
27

• s(t f ) = 0
• 0 ≤ Ubr ≤ 2

Afin de simplifier l’étude, nous considérons seulement une liste de commandes pour 5
valeurs différentes de λ1 , comme le montre le tableau 2-2 :
Tableau 2-2 Tableau des Paramètres λ1 et Ubr

Le vecteur de co-état λ1 Les contrôles Ubr


0 0
1 0.5
2 1
3 1.5
4 2

2.6 Optimisation de l’Énergie Régénérative : Méthodes et Simulations

Cette section introduit la stratégie visant à améliorer le contrôle de l’optimisation


de l’énergie régénérative, en expliquant les algorithmes de simulation utilisés dans le
processus.

2.6.1 Méthodologie de Simulation

Le problème d’optimisation est résolu en suivant les étapes suivantes :

1. Génération des signaux de commande initiaux : Tout d’abord, cinq signaux


de commande Ubr sont générés en accord avec les spécifications fournies dans le
Tableau 2-2.

2. Discrétisation de la vitesse : En utilisant les équations d’état obtenues, procéder à


la discrétisation de la vitesse pour chaque Ubr généré. Cette étape permet d’obtenir
une fonction discrétisée de la vitesse.

3. Tracé des profils de décélération : Une fois que la fonction de vitesse est
28

discrétisée, les profils de décélération correspondants pour chaque signal de


commande Ubr sont tracés.

4. Discrétisation de la fonction hamiltonienne : Ensuite, la fonction hamiltonienne


est discrétisée et le Principe du Minimum de Pontryagin est utilisé pour déterminer
quelle valeur d’entrée de signal de commande minimise la fonction hamiltonienne.

5. Identification du signal de commande optimal : Après avoir identifié la valeur de


signal de commande Ubr∗ qui minimise la fonction hamiltonienne, procéder à son
enregistrement.

6. Validation de la théorie : Pour valider la théorie, 50 autres signaux de commande


sont ensuite générés de manière aléatoire et le processus est répété pour prouver que
c’est bien Ubr∗ qui minimise la fonction hamiltonienne, confirmant ainsi la validité
de l’approche.

2.6.2 La Méthode d’Euler

La méthode d’Euler [40] est une méthode numérique de base pour résoudre des
équations différentielles du premier ordre de la forme : pour tout x dans l’intervalle I,
u′ (x) = f (x, u(x)).

La dérivée en xi+1 peut également être approximée par la même relation :

u(xi+1 ) − u(xi )
u′ (xi+1 ) ≈ (2.25)
xi+1 − xi

La figure 2.1 illustre la méthode d’Euler explicite.


29

Figure 2.1 Illustration de la Méthode d’Euler Explicite. Wikipedia 1

2.6.3 Simulation des Résultats

Génération des Signaux de Commande Initiaux

Commencant par la definition de 5 commandes et la generation de 5 signaux en utilisant


l’approche bang-bang [41], qui est une approche de contrôle simple et intuitive qui est
souvent utilisée dans les systèmes de contrôle à deux états. Dans le contexte du contrôle de
la régénération d’énergie dans les véhicules électriques, la méthode bang-bang est utilisée
pour activer ou désactiver le freinage régénératif en fonction de certaines conditions.

Dans le cas du freinage régénératif, la méthode bang-bang consiste à basculer


entre deux états : soit le freinage régénératif est activé à pleine puissance, soit il est
complètement désactivé. Lorsque le freinage régénératif est activé, l’énergie cinétique
du véhicule est convertie en énergie électrique pour recharger la batterie. Lorsqu’il est
désactivé, le véhicule continue de rouler sans utiliser le freinage régénératif.

La décision de basculer entre ces deux états est généralement basée sur des seuils
30

prédéfinis, tels que la vitesse du véhicule, la position de la pédale de frein, ou d’autres


paramètres du système. Par exemple, le freinage régénératif peut être activé lorsque le
conducteur relâche légèrement la pédale de l’accélérateur, et désactivé lorsque la pédale
de frein est enfoncée. En outre, il est important de noter que dans le cadre de l’approche
bang-bang utilisée pour contrôler le freinage régénératif, un point de basculement entre
les états "vrai" et "faux" de l’activation du freinage régénératif sera déterminé. Ce point
de basculement représente le seuil à partir duquel le système décide de passer du freinage
régénératif activé à pleine puissance à l’état où il est complètement désactivé, et vice versa.
Le choix du point de basculement revêt une importance capitale, car il influe directement
sur les performances globales du système de freinage régénératif et peut avoir un impact
significatif sur l’efficacité énergétique du véhicule. Dans le cadre de notre étude, ce point
est désigné par a. Pour permettre le test de plusieurs valeurs de Ubr lors des cinq premiers
signaux générés, le point de basculement sera positionné au milieu du temps de freinage,
de manière à ce que la moitié du signal soit générée avec le contrôle "ON" et l’autre
moitié avec le contrôle "OFF". Quant aux 50 signaux générés aléatoirement pour évaluer
la validité du PMP, le choix de la valeur de a se fera de manière aléatoire.

les valeurs prealablement choisies pour Ubr sont respectees telles qu’illustrees dans la
figure 2.2.
31

Figure 2.2 Les 5 Contrôles Ubr

Discrétisation de la Vitesse

Ensuite, l’objectif est de développer une fonction qui discrétise la vitesse v et calcule
sa valeur en se basant sur les équations d’état. La méthode d’Euler est employée pour
approximer la solution de l’équation différentielle suivante :

dv(t)
= −αv2 −Ubr − β (2.26)
dt

L’application de la méthode d’Euler donne :

V (t + dt) = v(t) + (−αv2 −Ubr − β ) · dt (2.27)

Tels que V (t + dt) représente l’approximation de V à l’instant t + dt et v(t) représente


l’approximation de v à l’instant t.
32

Tracé des Profils de Décélération

Après simulation et traçage, des profils de décélération résultants de v(t) ont été
obtenus, comme présenté dans la figure 2.3

Figure 2.3 Profils de Vitesse Tracés

Discrétisation de la Fonction Hamiltonienne et Identification du Signal de


Commande Optimal

La prochaine étape consiste à discrétiser et simuler l’Hamiltonien H en fonction des


signaux de commande Ubr et de la vitesse v(t) en utilisant l’algorithme suivant :
33

Algorithm 1 Algorithme de Discrétisation de la Fonction Hamiltonienne H


Input: ubr(t)
Output: H
Function Discretise_h(ubr):
λ1 (t) ← 2 · ubr(t);
λ2 ← 0.1;
v ← callback_v(ubr);
H ← tableau de zéros de longueur égale à la longueur de v;

for i ← 0 to longueur de v − 1 do
H[i] ← v[i]2 + ubr[i]2 + λ1 [i] − ubr[i] − β (v[i]2 ) − h + λ2 · v[i]
return H

Grâce à cet algorithme, la fonction Hamiltonienne est discrétisée, ce qui permet de


générer les graphiques correspondant aux différentes commandes de contrôle Ubr telles
que présentées dans la figure 2.4. Ces graphiques mettent en évidence que la valeur
minimale de H est atteinte lorsque la 5ème valeur de Ubr , notée 2, est utilisée. Ainsi,
∗ =U .
la commande optimale est Ubr br5
34

Figure 2.4 Les Hamiltoniens Tracés

Validation de la Théorie

Afin d’établir la validité de la troisième condition du principe du minimum de


Pontryagin, il faut démontré que H atteint sa valeur minimale lorsque la commande
∗ = U , contrairement à toutes les autres commandes réalisables U .
optimale est Ubr br5 br

Pour ce faire, 50 profils de décélération aléatoires sont générés et H est calculé pour
chaque profil obtenu. Les différents profils présentent des valeurs variables de Ubr et de a
(le point où la valeur devient nulle) comme le montre la figure 2.5.
Figure 2.5 Génération de 50 Profils de Décélération Aléatoires
35
36

La prochaine étape consiste à calculer et à tracer H pour ces profils de décélération,


∗ minimise H,
comme illustré dans la figure 2.6. Le graphique suggère que que Ubr
fournissant ainsi une preuve de la validité du principe du minimum de Pontryagin

H(x, u∗ , λ̇ ,t) ≤ H(x, u, λ̇ ,t) pour toute commande réalisable u(t).


Figure 2.6 Minimisation de la Fonction Hamiltonienne H
37
38

2.6.4 Programmation Dynamique

Afin de valider l’étude théorique, un algorithme de programmation dynamique est


utilisé pour optimiser le freinage régénératif.

Formulation du problème d’optimisation en temps discret

La fonction à maximiser est définie comme suit :

Z tf
J= PRGN (v(t), a(t), Θ(d(t))) dt (2.28)
t0

Où a(t) est l’entrée de décélération à concevoir, Θ(d(t)) représente l’état du système


au temps t en considérant les entrées précédentes, y compris la vitesse et le déplacement.

Enfin, PRGN est la puissance régénérative systématisée donnée par :

Z tf
PRGN = Frg (t) × v(t) dt (2.29)
t0

Une trajectoire de vitesse optimale v∗ (t) est générée par le problème de planification de
décélération pour maximiser la régénération d’énergie, tandis qu’une trajectoire d’entrée
d’accélération a∗ (t) est trouvée sur un intervalle de temps de planification de vitesse
t0 ≤ t ≤ t f qui maximise le critère de performance de récupération d’énergie donné dans
l’équation 2.28. Ainsi le problème d’optimisation en temps discret est formulé comme suit
:
N−1
max ∑ PRGN (v(k), a(k), Θ(d(k)))∆t
a(k)∈ξ k=0
(2.30)

v(k + 1) = v(k) + a(k) × ∆t (2.31)


39

d(k + 1) = d(k) + v(k) × ∆t (2.32)

Où ∆t est l’intervalle de temps d’échantillonnage et d(k) est la distance mise à jour par
la valeur de v(k). L’ensemble de contraintes ξ est donné par :

vb ≤ v(k) ≤ vk−1 (2.33)

0 ≤ d(k) ≤ dmax (2.34)

−Max décélération ≤ a(k) < 0 (2.35)

0 ≤ PRGN (v(k), a(k), Θ(d(k)))∆t ≤ MRL (2.36)

La limite de régénération du moteur limite de régénération du moteur (MRL) est


supposée constante à 3000 J/s pour permettre le traitement en temps réel de l’algorithme
de programmation dynamique Programmation Dynamique (DP). Afin de résoudre le
problème d’optimisation, la fonction de coût pour chaque étape est définie comme suit
:
C(a(k), Θ(d(k))) = PRGN (v(k), a(k), Θ(d(k)))∆t (2.37)

Pour k ∈ [0, N]. L’équation du système est calculée et mise à jour dans le domaine
temporel, tandis que les entrées sont évaluées pour le même domaine. Le nombre de
nœuds à traverser dans l’algorithme de programmation dynamique (DP) est fixé à trois.
Pour suivre l’environnement de manière plus réaliste, ∆t est fixé à 1/30 s et la commande
contrôlée par DP est répétée jusqu’à ce que l’étape de temps DP soit atteinte. La vitesse
optimale v∗ (k) déterminée à chaque nœud est utilisée pour mettre à jour le déplacement :

d(k) = d(k + 1) − v∗ (k)∆t (2.38)


40

Où d(k) est la distance restante avant la cible, mise à jour par la vitesse optimale au temps
k.

Résultats de simulation

Après avoir exécuté à plusieurs reprises l’algorithme de programmation dynamique en


ajustant les distances de freinage nécessaires (allant de 0 à 160 mètres) nous avons réussi à
simuler les quantités d’énergie nécessaires pour arrêter le véhicule avec une vitesse initiale
de 90 km/h (une vitesse sécuritaire d’un véhicule sur une autoroute) si modifiée, affectera
les profils de vitesse, ainsi que la quantité d’énergie régénérée en utilisant un profil de
décélération optimisé.

Le tableau 2-3 met en évidence le fait qu’une distance plus longue est synonyme d’une
meilleure régénération énergétique, prouvant ainsi la théorie.

2.6.5 La Corrélation Temporelle de l’Énergie

Une découverte essentielle de cette étude réside dans la corrélation entre la fonction
de coût et la disponibilité du temps de freinage, influençant directement la quantité
d’énergie régénérable. Pour confirmer cette approche, différents profils de décélération
ont été évalués en analysant leurs valeurs respectives. Les résultats ont démontré que la
∗ , maximisait la réduction du Hamiltonien par
stratégie de contrôle optimale, appelée Ubr
rapport à d’autres profils aléatoires, permettant d’optimiser le temps de freinage. Ainsi, en
améliorant la détection, notamment sur une période prolongée, et en allongeant la phase
de freinage, il est possible d’augmenter la quantité d’énergie régénérée. Ces conclusions
renforcent l’efficacité de l’approche proposée et soulignent l’importance cruciale de la
détection améliorée pour maximiser la régénération d’énergie pendant les phases de
freinage.
41

Distance Énergie nécessaire pour arrêter le véhicule Énergie régénérée Pourcentage (%)
0m - - -
40m 451438.45 J 98272.31 J 21.76%
50m 447264.14 J 122328.65 J 27.35%
60m 443121.33 J 146184.35 J 32.98%
70m 440311.23 J 161953.55 J 36.78%
80m 434942.47 J 193307.76 J 44.44%
90m 432602.06 J 206615.91 J 47.76%
100m 426896.46 J 239661.17 J 56.14%
110m 423293.46 J 260488.16 J 61.53%
120m 418971.16 J 285256.96 J 68.08%
140m 413798.35 J 315274.73 J 76.19%
160m 407376.99 J 352326.04 J 86.48%
170m+ 399277.32 J 399277.32 J 100.00%

Tableau 2-3 Résumé des distances, de l’énergie requise et régénérée


42

2.7 Analyse des Dispositifs de Perception

Pour éclaircir le choix des diagrammes en radar, les dispositifs sont évalués selon les
critères suivants :

• Résolution des données : supposant une efficacité de 100% pour la caméra.


• Distance de détection : supposant une efficacité de 100% pour le Lidar.
• Classification des objets : supposant une efficacité de 100% pour la caméra.
• Contour des objets : supposant une efficacité de 100% pour la caméra.
• Fonctionnement par mauvais temps : supposant une efficacité de 100% pour la
caméra thermique.
• Fonctionnement en faible luminosité : supposant une efficacité de 100% pour le
radar.
• Fonctionnement en faible luminosité : supposant une efficacité de 100% pour le
Lidar.

2.7.1 Les Caméras Thermiques

La thermographie infrarouge, également connue sous le nom de caméra thermique, est


un instrument de détection qui convertit l’énergie du rayonnement électromagnétique en
une mesure de température interne. Son fonctionnement repose sur des bolomètres, des
dispositifs sensibles aux variations de température.

Principe de fonctionnement

Les objets et les êtres vivants émettent tous une signature thermique unique, une
forme d’énergie infrarouge spécifique à chaque entité. Les caméras thermiques exploitent
cette caractéristique en mesurant, enregistrant et convertissant les différents rayonnements
43

de chaleur émis par ces corps en une image électronique. Ces caméras comportent un
système optique qui concentre l’énergie infrarouge sur une puce de détection spéciale,
contenant des milliers de pixels organisés dans une grille. Ces pixels capturent l’intensité
du rayonnement, ce qui permet d’estimer la température de chaque point de l’image. Le
processeur de la caméra traite ensuite le signal de chaque pixel, appliquant des calculs
mathématiques pour générer une carte en couleurs représentant la température apparente
de l’objet. Cette technologie trouve une large application dans divers domaines, de la
surveillance des bâtiments à la médecine, en passant par la maintenance industrielle et
l’observation de la faune. Elle offre une vision thermique précieuse, permettant de détecter
les anomalies thermiques, d’identifier les sources de chaleur et de surveiller les variations
de température avec une grande sensibilité et précision.

Les paramètres de performances des caméras thermiques

Les principaux paramètres de performance d’une caméra thermique incluent :

• Résolution de la caméra :
— Capacité à produire une image détaillée
— Mesurée en pixels
— Caractérisée par son champ de vision vertical et horizontal exprimé en degrés
• Résolution thermique :
— Indique la capacité de la caméra à détecter de petites variations de température
• Plage de température :
— Définis l’étendue des températures que la caméra peut mesurer avec précision
— Généralement entre -30°C et +350°C
• Fréquence d’images :
— Représente le nombre d’images thermiques que la caméra peut capturer par
44

seconde
— Une fréquence plus élevée peut être nécessaire pour des applications nécessitant
une surveillance en temps réel ou pour capturer des mouvements rapides

Analyse critique des caméras thermiques

Les Caméras thermiques présentent plusieurs avantages significatifs. Tout d’abord, leur
fonctionnement ne dépend pas de sources lumineuses, ce qui les rend particulièrement
adaptés pour détecter la chaleur émise par divers objets. Ils se distinguent également
par leur capacité à localiser avec précision des objets situés dans un rayon de 30 à 200
mètres, offrant ainsi un avertissement précoce au conducteur par exemple afin d’anticiper
des évènements de freinage. En outre, ils se révèlent efficaces dans des environnements
difficiles et sont capables de mesurer le profil thermique d’un objet.

Cependant, il est important de noter certains inconvénients associés à ces dispositifs. Ils
ont une fréquence de fonctionnement relativement basse, ce qui peut limiter leur utilisation
dans certaines applications. De plus, leur coût est souvent élevé, ce qui peut constituer
un frein à leur adoption généralisée. Enfin, la mise en place d’algorithmes de détection
spécifiques peut s’avérer complexe et exigeante en termes de développement.

La figure 2.7 illustre le diagramme en radar de la caméra thermique, qui se révèle


efficace dans des conditions météorologiques défavorables ou à faible luminosité [42].
45

Figure 2.7 Diagramme en Radar de la Caméra Thermique

2.7.2 Le Lidar

Le Lidar acronyme de "Light Detection and Ranging", est une technologie de détection
à distance qui repose sur l’émission de faisceaux laser et l’analyse du temps qu’ils mettent
pour revenir après avoir interagi avec une surface. Cette méthode permet d’obtenir des
informations détaillées et précises sur la topographie, la structure et la distance des
objets environnants. Le Lidar trouve une grande diversité d’applications, allant de la
cartographie topographique de haute précision, à la modélisation 3D pour des applications
en urbanisme, en gestion forestière, et même en robotique et conduite autonome [43].

Ce qui le distingue, c’est sa capacité à fournir des données à une échelle fine et
à opérer dans des conditions environnementales variées. L’évolution constante de cette
technologie a ouvert de nouvelles perspectives dans de nombreux domaines, en faisant un
outil essentiel pour la recherche scientifique et les applications industrielles. En résumé,
le Lidar est une technologie d’une importance capitale dans le domaine de la télédétection
et de l’analyse de l’environnement.
46

Principe de fonctionnement

Le Lidar débute son processus en émettant un faisceau laser, généralement dans la


plage des infrarouges, en direction de la zone ou de l’objet en observation. Ce faisceau se
propage à travers l’atmosphère jusqu’à entrer en contact avec une surface, qu’il s’agisse
du sol, d’un édifice ou de la végétation. Lorsque le laser atteint cette surface, une partie de
son énergie est renvoyée vers le Lidar tandis que le reste est absorbé ou diffusé.

Le Lidar enregistre ensuite le temps qu’il faut au faisceau laser pour effectuer un
aller-retour entre l’émetteur et la surface en mesurant le délai entre l’émission et la
réception du signal de retour. En utilisant la vitesse de la lumière (environ 299,792,000
m/s), le Lidar calcule avec grande précision la distance qui le sépare de la surface en
multipliant le temps de vol par la moitié de cette vitesse.

Pour obtenir une image tridimensionnelle complète, le Lidar effectue un balayage en


émettant des faisceaux laser dans différentes directions et en enregistrant les coordonnées
x, y et z des points de contact. Enfin, les données brutes collectées sont soumises à un
processus de traitement pour créer des nuages de points 3D, qui peuvent être utilisés
pour générer des modèles de terrain, des cartes topographiques ou des représentations
3D d’objets.

Paramètres de performance du Lidar

Les paramètres de performance d’un Lidar sont essentiels pour évaluer son efficacité
dans la collecte de données tridimensionnelles.
• Portée : Distance maximale à laquelle le Lidar peut détecter des objets.
• Résolution spatiale : Capacité à distinguer les détails et les contours des objets dans
la scène.
47

• Densité de points : Nombre de points de mesure générés par le Lidar par unité de
surface ou de volume.
• Précision de la mesure : Fiabilité et précision des mesures de distance effectuées
par le Lidar.
• Fréquence de balayage : Nombre d’acquisitions de données tridimensionnelles
réalisées par le Lidar par unité de temps.

Analyse critique du Lidar

Le Lidar est reconnu pour sa capacité à fournir des données géospatiales d’une
précision et d’une résolution exceptionnelles, essentielles pour diverses applications telles
que la cartographie et la modélisation 3D. Son indépendance à l’égard des conditions
lumineuses en fait un outil polyvalent, utilisable de jour comme de nuit pour la collecte de
données. Il excelle également dans la pénétration à travers la canopée végétale, facilitant
la cartographie forestière et la mesure de la biomasse végétale. Sa haute résolution
temporelle lui permet de mesurer les distances avec une grande précision, utile notamment
pour la détection d’objets en mouvement. Cependant, son coût élevé peut constituer un
obstacle à son adoption, tandis que des conditions atmosphériques défavorables peuvent
altérer la qualité des mesures. Le traitement des données brutes et la portée horizontale
limitée peuvent également poser des défis pour certains utilisateurs.

La figure 2.8 présente le diagramme en radar du Lidar [43], qui est efficace à faible
luminosité, et lors de l’estimation des distances
48

Figure 2.8 Diagramme en Radar du Lidar

2.7.3 Le Radar

Un radar, abréviation de "Radio Detection and Ranging", est un système électronique


qui utilise des ondes électromagnétiques pour détecter et localiser des objets dans l’espace.

Principe de fonctionnement

Son fonctionnement repose sur l’émission d’un signal électromagnétique,


généralement une onde radio, depuis une antenne. Ce signal se propage dans l’air
et lorsqu’il entre en contact avec un objet, une partie de l’énergie est réfléchie vers
l’antenne du radar. En mesurant le temps écoulé entre l’émission du signal et la réception
du signal réfléchi (temps de vol), ainsi que la fréquence et l’amplitude du signal réfléchi,
le radar peut déterminer la distance, la vitesse et parfois même la direction de l’objet.

Paramètres de performance du radar

Les performances d’un radar sont mesurées selon plusieurs paramètres :


49

• Portée : C’est la distance maximale à laquelle le radar peut détecter un objet.


Résolution en distance : Cela indique la capacité à discerner deux objets distincts
situés à des distances proches.
• Résolution en angle : Cela mesure la capacité à distinguer deux objets situés
proches l’un de l’autre en direction.
• Sensibilité : Elle définit la capacité à détecter des objets de faible réflectivité.
• Précision de la mesure : Il s’agit de l’exactitude avec laquelle le radar peut
déterminer la distance, la vitesse et la direction.

Analyse critique du radar

Les radars sont largement utilisés dans divers domaines tels que la navigation, la
surveillance, le contrôle du trafic aérien et la météorologie en raison de leur grande
polyvalence. Leur capacité à fonctionner efficacement, quelles que soient les conditions
météorologiques constitue un avantage majeur par rapport à d’autres systèmes de
détection. Certains radars sont même capables de détecter des objets à des distances
remarquablement éloignées. Cependant, il convient de noter quelques inconvénients.
Les radars à longue portée peuvent avoir une consommation d’énergie considérable,
ce qui peut être une considération importante lors de notre cas d’études. De plus, la
conception, la fabrication et l’entretien de radars sophistiqués peuvent engendrer des coûts
élevés. En outre, ils peuvent être sujets à des interférences et des brouillages provenant
d’autres systèmes électroniques. Malgré ces considérations, les radars demeurent des
outils incontournables, offrant des avantages significatifs en termes de détection et de suivi
d’objets, et jouant ainsi un rôle crucial dans de nombreuses applications.

La figure 2.9 illustre le diagramme en radar d’un radar, démontrant sa grande


performance dans des conditions météorologiques défavorables et à faible luminosité,
50

ainsi que dans l’estimation de la distance de détection c. Cependant, il n’est pas approprié
pour la classification des objets.

Figure 2.9 Diagramme en Radar du Radar


51

2.7.4 Les Caméras Stéréo

Une caméra stéréo, également connue sous le nom de caméra 3D ou caméra


binoculaire, est un système d’imagerie qui utilise deux objectifs (ou plus) pour capturer des
images en relief, permettant ainsi de percevoir la profondeur dans une scène. Cela simule
la vision humaine, qui utilise les deux yeux pour avoir une perception tridimensionnelle
de l’environnement.

Principe de fonctionnement

Le fonctionnement d’une caméra stéréo repose sur le principe de la disparité


stéréoscopique. Chaque objectif de la caméra capture une vue légèrement différente de la
scène, simulant ainsi la perspective des deux yeux humains. La disparité entre les images,
qui correspond à la différence dans la position d’un objet dans les deux images, est utilisée
pour calculer la profondeur de l’objet.

Structure des caméras stéréo

Les paramètres de performance d’une caméra stéréo comprennent notamment :


• La résolution spatiale :
— Capacité à produire des images détaillées en 3D
— Mesurée en pixels pour chaque Image
• La précision de la profondeur :
— Capacité à mesurer avec précision les distances entre les objets dans la scène
• La précision de l’alignement :
— Capacité à aligner précisément les images provenant des deux caméras stéréo
• La fréquence d’images :
— Nombre d’images par seconde capturées par chaque caméra stéréo
52

— Influence sur la fluidité de la perception visuelle et la capture d’objets en


mouvement

Analyse critique des caméras stéréo

Les caméras stéréo offrent plusieurs avantages significatifs. Elles permettent une
perception tridimensionnelle de la scène, ce qui est précieux dans des domaines comme la
robotique, la vision par ordinateur et la réalité augmentée. De plus, une fois correctement
calibrées, elles fournissent des mesures de profondeur précises. En outre, elles sont
souvent plus abordables que d’autres systèmes de perception 3D.

Cependant, il convient de souligner certains inconvénients. Les caméras stéréo peuvent


être sensibles aux conditions météorologiques extrêmes et nécessitent généralement un
éclairage adéquat pour des résultats précis. De plus, leur capacité à mesurer la profondeur
peut être limitée en fonction de leur configuration.

Malgré ces considérations, les caméras stéréo restent largement utilisées dans des
domaines comme la vision par ordinateur, la robotique et la réalité augmentée.

La figure 2.10 illustre le diagramme en radar d’une caméra stéréo qui se révèle très
adaptée pour la classification des objets et la détection des contours, avec une résolution
de données très élevée. Cependant, elle présente une efficacité limitée dans des conditions
météorologiques extrêmes [44].

2.7.5 Analyse et Justification des Capteurs Sélectionnés

Le diagramme en radar des capteurs sur un véhicule autonome met en évidence


que la caméra thermique et le radar sont les plus adaptés pour fournir des données
de qualité optimale dans des conditions météorologiques extrêmes tels que la pluie, la
53

Figure 2.10 Diagramme en Radar de la Camera Stéréo

neige ou le brouillard, ainsi que dans des environnements à faible luminosité comme
la nuit. Cependant, bien que le radar soit efficace dans ces conditions, il ne fournit pas
d’informations sur la forme des objets et n’est pas optimal pour la détection des obstacles
dynamiques, ce qui est crucial pour notre étude. Ainsi, la caméra thermique se positionne
comme le choix idéal pour répondre à nos besoins spécifiques [45].

Par ailleurs, le Lidar joue un rôle essentiel en raison de son efficacité remarquable dans
des conditions de faible luminosité et de son excellente capacité à estimer et détecter la
distance jusqu’aux objets. Il peut également être utilisé pour la classification des objets
et offre une résolution optimale grâce à ses multiples points de mesure. En revanche,
la caméra stéréo montre des performances moins satisfaisantes dans des conditions
météorologiques difficiles ou dans des environnements à faible luminosité.

Il est important de noter que, dans le contexte de notre étude, les choix de capteurs
dépendent de la qualité de ces derniers. Les constructeurs s’appuient sur la possibilité
d’utiliser différentes technologies de capteurs complémentaires tout en réduisant les coûts,
54

mais il est crucial de prendre en compte la qualité des capteurs pour assurer la fiabilité et
l’efficacité du système de détection.

Figure 2.11 Diagramme en Radar de l’Ensemble des Capteurs


55

2.8 Système de Perception Optimisé

Dans ce deuxième chapitre, il a été démontré que la génération d’énergie


supplémentaire nécessite plus de temps, ce qui soulève la nécessité d’améliorer le
système de perception pour une détection optimale des objets et une prise de décision
plus efficace. Dans ce projet, l’exploration de la fusion de deux capteurs est entreprise
pour améliorer les performances globales des véhicules autonomes, notamment dans
des conditions météorologiques difficiles. En combinant les capacités de cartographie
précise de l’environnement du Lidar avec la détection d’objets de la caméra thermique, un
système de perception plus robuste est créé, favorisant une détection et une reconnaissance
améliorées des objets dans divers environnements. Cette approche est cruciale pour
surmonter les défis des conditions météorologiques défavorables et pour progresser vers
un niveau plus élevé d’autonomie, offrant ainsi une mobilité autonome plus sécuritaire et
énergétiquement efficace.

2.8.1 Aperçu de la Solution

La figure 2.12 offre une vue d’ensemble des quatre composants principaux de la
solution. Le premier composant est axé sur le traitement des données, où le Lidar 3D
capture une représentation détaillée de l’environnement à travers un nuage de points,
même dans des conditions météorologiques difficiles. En revanche, la caméra thermique
excelle dans la détection thermique 2D des piétons et des véhicules, notamment dans des
conditions de faible luminosité telles que la nuit ou le brouillard.

Pour préparer les données en vue d’une éventuelle fusion, il est essentiel de les traiter;
par exemple en limitant le nuage de points du Lidar à 180° et en corrigeant la distorsion
et l’effet fisheye des données thermiques pour obtenir une représentation plus précise de
56

Figure 2.12 Flux de Données de la Solution

l’environnement.

L’algorithme de fusion joue un rôle central dans l’exploitation des avantages des deux
capteurs. Il assure une intégration des données du Lidar et de la caméra thermique. Une
étape cruciale pour une fusion réussie consiste à calibrer les capteurs et traiter les données
3D et 2D pour associer chaque point du nuage des points 3D à un pixel spécifique
dans la matrice thermique 2D. Cette adaptation facilite la création d’un nouveau type de
données : une représentation thermique 3D de l’environnement, résistante aux conditions
météorologiques.

L’objectif de cette fusion est d’élargir la gamme de détection d’objets dynamiques, en


particulier pour les piétons, et d’améliorer la localisation précise des objets en mouvement,
permettant ainsi une estimation plus précise de la distance de freinage, séparant le véhicule
de l’obstacle, par le système de navigation. Cette perception améliorée est essentielle pour
le système de navigation, offrant un temps supplémentaire pour optimiser les capacités de
récupération d’énergie du système de propulsion. En utilisant la représentation thermique
3D comme entrée pour le réseau PointPillars, conçu pour la détection des piétons, le
système de navigation peut optimiser les capacités de récupération d’énergie en adaptant
les profils de décélération en fonction des distances de détection.
57

2.8.2 Collecte de Données Expérimentales et Description du Matériel

Les défis inhérents à l’obtention d’un ensemble de données complet, couvrant à la


fois des données de nuage de points 3D issus du capteur Lidar et des images thermiques
2D d’un même environnement, sont bien connus. En outre, la difficulté croissante de
trouver un ensemble de données inclusif, notamment contenant des informations sur les
obstacles dynamiques tels que les piétons, ajoute une complexité supplémentaire à cette
tâche. Dans le cadre de cette étude, des données ont été collectées en décembre sur le
campus de l’Université du Québec à Trois-Rivières, offrant ainsi des conditions hivernales
pour une meilleure représentation de divers scénarios, Lors de la collecte de données,
les conditions météorologiques étaient rigoureuses, avec une température extrêmement
basse de -15 degrés Celsius. Les routes et les trottoirs étaient recouverts d’une épaisse
couche de neige, conséquence d’une tempête hivernale récente. Malgré ces conditions
difficiles, la luminosité ambiante était suffisamment élevée, offrant des conditions de
visibilité adéquates. Cependant, le ciel était couvert de nuages, ajoutant une ambiance
grise à l’environnement. À partir de multiples enregistrements de différentes sections de
route, comprenant des piétons, un ensemble de données a été constitué, composé de 1000
images fournies par le capteur thermique et de 1000 nuages de points provenant du capteur
Lidar.

Les données expérimentales hivernales ont été recueillies à l’aide d’un véhicule
électrique KIA SOUL 2017, tel qu’illustré dans la figure 2.13, déployé sur le campus
de l’Université du Québec à Trois-Rivières. La caméra thermique FLIR Promaster [46],
montée le long de la ligne de toit central, est équipée d’une lentille de 4,8 mm offrant
un champ de vision horizontal et vertical de 32 degrés. Les images capturées par cette
caméra ont une résolution de 640 x 512 pixels et sont enregistrées à une fréquence de 16
58

Hz. De plus, le Lidar Robosense RS-16 [47], également positionné sur le toit du véhicule,
effectue des numérisations environnementales, fournissant 16 lignes verticales couvrant
26,8 degrés de données de télémètre laser sur 360 degrés, à une fréquence de 30 Hz. Ce
Lidar présente une portée maximale de détection de 120 mètres, générant ainsi environ 60
920 points 3D dans chaque scan.

Figure 2.13 Configuration des Capteurs sur le Véhicule Électrique KIA


SOUL Utilisé pour la Collecte de Données
Chapitre 3 - Fusion des données, résultats et discussion

Ce chapitre propose une étude sur l’optimisation de la perception des véhicules


autonomes dans des conditions hivernales en fusionnant deux capteurs, à savoir la caméra
thermique et le Lidar 3D. Tout d’abord, la méthode de fusion est examinée en détaillant
les aspects de calibration des capteurs, ainsi que l’acquisition des paramètres intrinsèques
et extrinsèques de ces derniers. Ensuite, le processus de fusion des données est présenté en
détail, accompagné des résultats obtenus. Le réseau de neurones utilisé pour la détection
3D est ensuite décrit, en mettant en lumière son architecture et sa capacité à traiter les
données du nuage de points.

Une description détaillée des jeux de données utilisés et des Indices de performance
(précision de détection, distance de détection) employés pour évaluer le réseau est ensuite
fournie. Trois ensembles de résultats sont utilisés pour cette évaluation : le benchmark
KITTI [48], un ensemble de données Lidar personnalisé, et un ensemble de données
fusionné Lidar et une caméra thermique. Les résultats quantitatifs et qualitatifs de la
méthode sont présentés, comparant la performance de la détection de piétons avec
différents ensembles de données. Une analyse détaillée est fournie, mettant en évidence
les améliorations obtenues avec l’approche de fusion des données.

Enfin, les résultats de l’optimisation énergétique sont exposés, illustrant comment


la fusion des données améliore l’efficacité énergétique en favorisant une meilleure
récupération d’énergie pendant le freinage. Des graphiques illustrant cette corrélation sont
fournis pour différentes distances de freinage.
60

3.1 Calibration des Capteurs pour la Fusion Caméra Thermique-Lidar

Pour faciliter la fusion des capteurs de caméra et de Lidar, la première étape consiste à
obtenir leurs paramètres intrinsèques et extrinsèques. Les deux capteurs sont positionnés
presque au même endroit sur le toit du véhicule, ce qui élimine le besoin de procédures
de calibration complexes. Après avoir acquis ces paramètres, trois matrices sont dérivées
: k pour la longueur focale, r pour les rotations et t pour les translations. La combinaison
de ces matrices donne Tmat , une matrice de transformation. Tmat permet de convertir les
coordonnées mondiales 3D capturées par le capteur Lidar en coordonnées d’image 2D de
la caméra thermique infrarouge.

Selon l’article [49], la relation entre la caméra thermique infrarouge et le capteur Lidar
peut être estimée comme suit:
Sous la transformation géométrique, la coordonnée homogène S(1 × 3) (qui représente
les coordonnées des points 3D dans le repère 2D de l’image) est obtenue en multipliant
la matrice de transformation Tmat (3 × 4) par la coordonnée local L(4 × 1), avec une
représentation graphique suivante :

 
     L
 x
u  fx 0 cx  r11 r12 r13 t1   
 Ly 
    
v =  0
s fy fy  r21 r22 r23 t2  (3.1)
      
 Lz 
    
1 0 0 1 r31 r32 r33 t3  
1

Cette équation représente la relation entre les coordonnées des pixels (u, v) dans
l’image de la caméra thermique, les paramètres intrinsèques de la caméra ( fx , fy , cx , cx ),
61

les paramètres extrinsèques de la transformation (ri j ,ti ), et les coordonnées du système de


coordonnées du capteur Lidar (Lx , Ly , Lz ).

3.2 Prétraitement des Données

Afin de traiter efficacement les données distinctes provenant du Lidar 3D et de


la caméra thermique 2D, des méthodes de synchronisation temporelle et spatiale sont
utilisées.

3.2.1 Synchronisation Temporelle

L’aspect le plus délicat réside dans l’acquisition de données à partir de deux capteurs
simultanément, ce qui s’avère difficile en raison de la différence des fréquences entre la
caméra (16Hz) et le Lidar (30Hz). De plus, l’enregistrement des données Lidar nécessite
plus de temps par rapport à la capture d’images thermiques. Pour résoudre ce problème,
l’écosystème Robot Operating System Robot Operating System (ROS) [50] a été utilisé
pour enregistrer un ROSBAG (qui est un format de fichier qui permet d’enregistrer
les données générées par différents capteurs) en veillant à ce que les différents sujets
(Lidar et images thermiques) aient la même estampille temporelle pendant le processus
d’enregistrement. Cependant, malgré cet effort de synchronisation, de légères différences
subsistent. Par conséquent, un délai délibéré a été introduit dans les enregistrements Lidar
pour obtenir un alignement précis entre la représentation en 3D dans le nuage de points et
l’image thermique.

3.2.2 Synchronisation Spatiale

La figure 3.1 présente en détail les étapes de prétraitement des données de la caméra
thermique ainsi que du Lidar, visant à préparer le terrain en vue d’une éventuelle fusion
de ces données. Pour obtenir une correspondance précise pixel par pixel entre les données,
62

des ajustements doivent être apportés aux coordonnées de l’image u et v, afin de garantir
que chaque point projeté depuis le nuage de points s’aligne avec son pixel correspondant
dans l’image.

Figure 3.1 Les Étapes de la Fusion des Données

Calibration des Données 2D de la Caméra Thermique

Les caméras peuvent présenter des distorsions d’image, telles que la distorsion radiale
et la distorsion tangentielle. La distorsion radiale se caractérise par une courbure de
l’image, plus prononcée vers les bords, tandis que la distorsion tangentielle résulte de
l’objectif de la caméra n’étant pas parfaitement parallèle au plan de l’image, provoquant
un effet de rapprochement dans certaines zones.
63

Pour corriger la distorsion en tonneau des images du capteur thermique, une méthode
de correction a été utilisée, impliquant l’utilisation d’un modèle de distorsion radiale avec
deux coefficients (k1 et k2) et d’un modèle de distorsion tangentielle avec deux autres
coefficients (p1 et p2). Les valeurs de ces coefficients ont été définies comme suit :


k1 = −1.6 × 10−4

(3.2)
k2 = p1 = p2 = 0.0

De plus, une matrice de caméra k, a été définie, c’est une matrice (3x3) qui représente
les paramètres intrinsèques de la caméra, tels que la longueur focale et les coordonnées du
centre qui peut être défini comme suit :
 
 fx 0 cx 
 
k=
0 fy cy 
 (3.3)
 
0 0 1

Où :
• fx : Longueur focale selon l’axe des x.
• fy : Longueur focale selon l’axe des y.
• cx : Coordonnée x du centre de l’image.
• cy : Coordonnée y du centre de l’image.
Pour effectuer la correction de la distorsion comme le montre la figure 3.2, la
bibliothèque OpenCV [51] a été utilisée. En fournissant les coefficients de distorsion
(distcoeff), la matrice de caméra (cam), et l’image originale en tant qu’entrées, l’image
a été précisément redressée.
64

((a)) Image déformée

((b)) Image non déformée

Figure 3.2 Correction de la Distorsion de l’Image Thermique

Étant donné que les paramètres de distorsion tangentielle (p1 et p2 ) sont initialement
fixés à 0 pour minimiser les modifications significatives de l’image d’origine, une
correction de cette distorsion était nécessaire en ajustant directement les pixels pour les
aligner avec les données 3D.

Les ajustements suivants ont été réalisés :


65

u
• u1 = : la coordonnée u normalisée en la divisant par la largeur de l’image w.
w

u2 = 2u−w


w ×0.93 : mise à l’échelle supplémentaire et translation de la coordonnée
u. Tout d’abord, la coordonnée u est mise à l’échelle dans la plage [-1, 1], puis une
factorisation de 0,93 est appliquée.
u3 = (u2 ) × w2 + w2 : assigne la coordonnée u2 à la largeur d’image d’origine


en inversant les opérations de mise à l’échelle et de translation. La coordonnée


u résultante se trouve à nouveau dans la plage [0, w − 1].
co f f = −0.2 et v1 = 2v−h


h + co f f : calcule la coordonnée v normalisée en la
mettant d’abord à l’échelle dans la plage [-1, 1], en soustrayant h (hauteur de
l’image) et en la divisant par la hauteur de l’image h. La valeur co f f est ajoutée
pour ajuster la position verticale.
• v2 = v1 × u1 a: ajuste la coordonnée v en fonction de la valeur u1 . L’ajustement est
une fonction linéaire qui dépend de u1 , avec une pente fixe et un décalage.
v3 = (v2 − co f f ) × 2h + h2 : inverse la normalisation de la coordonnée v2 , la


ramenant à la hauteur d’image d’origine. La coordonnée v3 résultante se trouve


dans la plage [0, h − 1].

Ainsi, les nouvelles coordonnées de chaque pixel de l’image seront (u3 , v3 ).

Calibration des Données 3D du Lidar

Pour s’adapter au champ de vision de la caméra infrarouge thermique sans utiliser


l’ensemble du nuage de points 3D (plus de 50 000 points), le filtrage initial a été axé
sur la conservation uniquement des 180 degrés frontaux. Cela réduit le nuage de points à
environ 25 000 points. La première étape facilite la transformation des points Lidar dans
le système de coordonnées de la caméra, les cartographiant spécifiquement dans l’espace
(u, v, z). Initialement, les points Lidar subissent une transformation à l’aide d’une matrice
66

prédéfinie (Tmat ) pour les convertir en coordonnées de la caméra. Ensuite, les points avec
des coordonnées z négatives sont supprimés de l’ensemble de données :



L(u, v, z) si z > 0

L(u, v, z) = (3.4)

0
 sinon

De plus, les coordonnées u et v des points de caméra résultants sont normalisées en


les divisant par leurs coordonnées z respectives, une étape nécessaire pour convertir les
coordonnées homogènes en coordonnées cartésiennes.

u′ = v


′ ′ z
L(u , v )avec (3.5)
v′ = u


z

En deuxième étape, les valeurs aberrantes sont identifiées en fonction du dépassement


de leurs coordonnées u ou v par la largeur ou la hauteur de l’image, respectivement. Ces
points aberrants sont ensuite exclus de l’ensemble de données, garantissant que seuls les
points pertinents à l’intérieur du cadre de l’image sont conservés. Ce processus contribue
à la cartographie précise des points 3D dans l’espace de la caméra, facilitant la fusion.
L(u′ , v′ ) peut être exprimée comme une fonction morceau par morceau :


L(u′ , v′ ) si u′ < w et v′ < l


L(u, v, z) = (3.6)

0
 sinon

où l et w sont respectivement la largeur et la longueur du cadre d’image 2D.


67

Ensuite, un filtrage secondaire a extrait les données du nuage de points 3D relatives


à la cible de correction en fonction des valeurs de distance, suivi de l’extraction de la
cible de calibration tridimensionnelle en utilisant le filtre Random Sample Consensus
(RANSAC)(Random Sample Consensus) [52] qui est utilisé dans le traitement des
données 3D, y compris les données du Lidar. Cet algorithme est couramment utilisé pour
estimer les paramètres d’un modèle mathématique à partir d’un ensemble de données
bruitées et potentiellement incomplètes. Il permet d’éliminer le plan de sol des points
en ajustant un modèle de régression linéaire, identifiant et éliminant les points aberrants,
réduisant ainsi le nombre de points à environ 3 000 par image.

3.2.3 Projection Inverse des Données et Résultat de la Fusion

Après avoir effectué diverses manipulations sur l’image et le nuage de points, une
projection précise des points sur les pixels correspondants de l’image est obtenue. Cette
projection garantit que chaque point dans le nuage de points correspond à un pixel unique
sur l’image, qui contient une valeur thermique. Pour réaliser cela, une projection inverse
des données est nécessaire afin de transférer les valeurs thermiques de l’image 2D vers
le nuage de points 3D. Pour incorporer cette information, la valeur thermique est ajoutée
comme canal supplémentaire au nuage de points 3D d’origine, le transformant de XYZ
(3 canaux) en XYZT (4 canaux), où la valeur d’intensité est remplacée par la valeur
thermique. Par conséquent, un nuage de points thermique en 3D qui représente avec
précision l’environnement est obtenu.

Ce nouveau type de données, avec l’information thermique intégrée dans le nuage


de points, se révèle robuste et très adapté aux conditions météorologiques difficiles et
aux situations de faible luminosité. Les données thermiques fournissent des informations
précieuses et améliorent les capacités de perception de la voiture autonome.
68

En revanche, pour le deuxième test utilisant uniquement les données Lidar, la projection
sur l’image n’est pas effectuée. Par conséquent, le nuage de points dans ce cas se compose
également de 4 canaux (XYZI), où le canal d’intensité contient une valeur prédéfinie au
lieu d’une valeur thermique. La figure 3.3 illustre les résultats de la projection des points du
nuage de points 3D dans l’image thermique 2D, à travers cette figure, il est souligné qu’il
est essentiel de procéder aux ajustements proposés au sein de ce chapitre pour permettre
une fusion efficace entre les données 3D et 2D. Cela implique tout d’abord la suppression
des points aberrants du nuage de points ainsi que la réduction de ces données au cadre de
l’image. Pour l’image thermique, une attention particulière doit être portée à l’alignement
précis des pixels afin de garantir que chaque pixel corresponde à un point du nuage de
points. Cette étape est cruciale pour pouvoir projeter avec précision les points du nuage
3D sur l’image thermique 2D.

Figure 3.3 Résultat de la Fusion des données


69

3.3 Détection 3D des Obstacles Dynamiques

3.3.1 Un Nuage de Points Thermique 3D

Une fois la fusion des capteurs Lidar et de la caméra thermique achevée, la prochaine
phase de ce projet de recherche implique l’utilisation d’un réseau neuronal de détection
en 3D pour la détection des obstacles dynamiques. Plus précisément, l’algorithme
PointPillars est utilisé à cette fin. PointPillars est un algorithme largement reconnu et
efficace pour la détection d’objets en 3D, et il contribuera à identifier avec précision les
piétons dans l’environnement.

En appliquant l’algorithme PointPillars, le système de perception intégré sera


en mesure de détecter précisément les piétons dans l’espace tridimensionnel. Cette
amélioration de la capacité de détection renforcera la perception globale et les capacités
de détection de la voiture autonome, assurant ainsi un niveau de sécurité plus élevé.

3.3.2 Le Réseau PointPillars

c est un algorithme conçu spécifiquement pour la détection d’objets dans les nuages
de points, particulièrement adapté aux applications de conduite autonome. Publié en 2018
par Alex H. Lang et al. [53], cet algorithme joue un rôle crucial dans le traitement des
données provenant du Lidar, un capteur essentiel pour comprendre l’environnement des
véhicules autonomes.

Voici un aperçu des principales étapes de fonctionnement de PointPillars :


70

Voxelisation

Le nuage de points d’entrée est divisé en petites unités volumétriques appelées voxels.
Chaque voxel contient les points situés à l’intérieur, ce qui permet d’organiser et de
discrétiser le nuage de points.

Encodage des Caractéristiques des Piliers

Dans chaque voxel, des piliers sont construits en regroupant les points le long de la
direction verticale (axe z). Ces piliers fournissent une représentation bidimensionnelle du
nuage de points, et les informations à l’intérieur de chaque pilier sont encodées à l’aide
d’un réseau d’encodeurs de pilier.

Convolution 2D

Les caractéristiques des piliers sont traitées par un réseau de neurones convolutif
2D (CNN), qui prend en compte la clairsemée des données et génère des vecteurs de
caractéristiques de longueur fixe pour chaque pilier.

Réseaux de Proposition de Régions (RPN)

Les caractéristiques des piliers sont ensuite utilisées par un réseau de proposition de
régions pour générer des propositions de boîtes englobantes pour les objets potentiels dans
la scène. Ce réseau prédit les étiquettes de classe, l’orientation et les paramètres de boîte
englobante 3D pour chaque proposition.

Suppression Non Maximale (NMS)

Les propositions de boîtes englobantes subissent une étape de suppression non


maximale pour éliminer les détections redondantes et affiner l’ensemble final d’objets
71

détectés. PointPillars offre plusieurs avantages pour la détection d’objets dans les nuages
de points Lidar. Il traite efficacement les données à grande échelle en exploitant la
clairsemée, permettant des performances en temps réel. De plus, il fournit des prédictions
précises de boîte englobante 3D, ce qui le rend idéal pour des applications telles que la
conduite autonome, où une détection précise des objets est essentielle.

3.3.3 Configuration Expérimentale

Dans toutes les expériences de détection menées dans cette étude, le jeu de données de
référence utilisé est le KITTI pour la détection d’objets [54]. Ce jeu de données comprend
à la fois des nuages de points Lidar et des images RGB. Cependant, l’entraînement des
modèles est basé uniquement sur les nuages de points Lidar.

En suivant les divisions utilisé par les auteurs de la base de données, Le KITTI
d’origine est divisé en 7481 échantillons d’entraînement et 7518 échantillons de test.
Pour les besoins des études expérimentales, des divisions supplémentaires de l’ensemble
d’entraînement officiel sont effectuées en 3712 échantillons d’entraînement et 3769
échantillons de validation [55].

Dans le cadre de cette recherche particulière, le jeu de données KITTI est exploité
comme référence essentielle pour évaluer et comparer les performances des méthodes
novatrices. Étant composé uniquement de nuages de points 3D et dépourvu d’images
thermiques, l’ajout de cette dernière donne une dimension supplémentaire à l’étude. Il
permet de comparer plus précisément l’efficacité des architectures utilisées en se basant
sur une base de données conventionnelle. Cependant, il ne comprend pas d’images
thermiques, qui sont essentielles pour l’approche de fusion étudiée.

En effet, trois ensembles de résultats sont utilisés pour l’évaluation. Le premier


72

ensemble est obtenu en utilisant le jeu de données KITTI comme référence. Le deuxième
ensemble est généré à partir de données Lidar personnalisées, mais sans utiliser de
fusion de capteurs. Enfin, le troisième ensemble de résultats est obtenu à partir de
données personnalisées, en intégrant la fusion des capteurs et de la caméra thermique.
En comparant ces trois ensembles de résultats, l’efficacité de l’approche de fusion et sa
performance peuvent être évaluées par rapport aux méthodes de pointe.

3.4 Analyse des Performances et des Spécifications d’Entraînement

Cette section englobe l’exposition des subtilités de la mise en œuvre et des


spécifications d’entraînement. Elle se termine par une présentation complète de tous
les résultats de détection, expliqués à travers deux tableaux de résultats distincts,
accompagnés de graphiques d’énergie régénérée correspondants.

3.4.1 Architecture et Implémentation du Réseau

Une fois les données préparées, elles sont introduites dans le réseau neuronal
spécifique, en l’occurrence le réseau PointPillars.

L’architecture du réseau [56] comprend plusieurs couches et est présentée à travers


la figure Figure 3.4. Tout d’abord, la couche de dispersion PointPillars Scatter mappe les
points vers une représentation en vue de dessus (BEV) avec 64 caractéristiques BEV. Cette
couche facilite la transformation des données du nuage de points dans un format adapté à
un traitement ultérieur.

Ensuite vient le Backbone BEV de base, qui est un Backbone 2D composé de trois
blocs séquentiels. Chaque bloc contient 12, 18 et 18 couches de convolution 2D, de
normalisations par lots 2D et de fonctions d’activation ReLU. Ce réseau Backbone extrait
des caractéristiques significatives de la représentation BEV.
73

Après le Backbone, il y a une partie chargée de générer des prédictions. Contrairement


à une tête dense conventionnelle composée de couches denses, cette partie utilise trois
couches de convolution. La fonction de perte de classification (clslossfunc) utilisée dans
cette tête est la perte de classification focale Sigmoïde. La fonction de perte de régression
(reglossfunc) est la perte lisse L1 pondérée. Pour l’estimation de la direction, la fonction
de perte (dirlossfunc) utilisée est la perte d’entropie croisée pondérée.

En utilisant cette architecture de réseau et les fonctions de perte associées, les


informations peuvent être efficacement extraites des données préparées et des prédictions
peuvent être faites concernant la classification des objets, la régression et l’estimation de
la direction.

Figure 3.4 Une Vue d’Ensemble de la Structure du Réseau PointPillars


3.4
[56]

3.4.2 Entraînement du Réseau

Pendant le processus d’entraînement, un total de 200 époques ont été réalisées. Pour
chaque époque, un sous-ensemble de 150 images a été sélectionné à partir de l’ensemble
complet de 1000 images.

À mesure que l’entraînement progressait, la perte d’entraînement diminuait


progressivement, passant d’environ 100% à environ 10% pour finalement atteindre un
74

plateau. L’optimiseur utilisé est de type AdamW, commençant à 4 × 10−4 au début de


l’entraînement pour finalement dépasser 0, 0012 vers la fin. La perte d’entraînement a
encore diminué, passant d’environ 10% à environ 4,5%, comme le montre la figure 3.5.
Figure 3.5 Évolution du Taux d’Apprentissage et de la Fonction de Perte du Réseau
75
76

3.4.3 Définition des Métriques

Pour évaluer la performance de la détection de piétons (PD), la métrique définie par la


"Caltech Pedestrian Detection" [57] est utilisée. Cette évaluation se base sur la précision
et le compromis entre le taux de faux négatif (MR) et le nombre de faux positifs (FP).
Ces mesures offrent une analyse complète de l’efficacité de l’algorithme en matière de
détection des piétons.

Une boîte englobante (BB) est considérée comme un vrai positif (TP) si son
Intersection sur Union (IoU) avec une boîte englobante de vérité terrain (GT) est de 0,5
ou plus. Autrement, si la BB et la GT ne se chevauchent pas suffisamment, elles sont
considérées comme discordantes, entraînant un faux négatif (FN), indiquant une détection
manquée.

Le taux de faux négatifs (MR) est calculé comme le rapport entre le nombre de FN et
le nombre total de boîtes GT. C’est-à-dire :

FN GT − T P
MR = = (3.7)
GT GT

D’autre part, la précision de la détection de piétons (PD) est exprimée par :

TP
Precision = (3.8)
GT + FP

Dans cette équation, TP représente les vrais positifs, GT désigne le nombre total de
boîtes de vérité terrain, et FP représente les faux positifs.
77

Ces mesures d’évaluation ont été appliquées à un jeu de données composé de 1000
échantillons de test pour évaluer la performance de l’algorithme de détection de piétons.

3.4.4 Évaluation des Performances

Cette section présente une analyse qualitative et quantitative des performances de la


méthode sur trois ensembles de données : le benchmark KITTI, un ensemble de données
personnalisé contenant uniquement des données Lidar, et un autre ensemble de données
contenant des données fusionnées Lidar et caméra thermique.

Dans le cadre de notre évaluation des résultats de PointPillars, deux autres architectures
sont exploré pour comparer les performances des trois méthodes de détection 3D sur les
mêmes jeux de données. L’une de ces méthodes, nommée SECOND [58], qui est un
réseau de détection 3D spécialisé dans la perception d’objets dans des environnements
tridimensionnels, principalement grâce à l’analyse des données Lidar pour produire des
prédictions de détection précises. SECOND est couramment utilisé dans des applications
telles que la détection d’objets dans des scènes de véhicules autonomes, où la précision
et la fiabilité des détections sont cruciales pour garantir la sécurité et les performances du
système.

D’autre part, PvRCNN [59], étant une autre méthode de détection 3D, se distingue
par son approche différente. Contrairement à SECOND, PvRCNN intègre à la fois
des données Lidar et des images de caméra dans son processus de détection, ce qui
lui permet d’exploiter les informations complémentaires fournies par ces deux sources
de données. Cette approche vise à offrir des performances de détection précises et
robustes, en particulier dans des conditions variées. PvRCNN est également fréquemment
utilisé dans des applications de détection d’objets dans des environnements de véhicules
78

autonomes, où la fiabilité et la précision des détections sont essentielles pour garantir le


bon fonctionnement du système.

Analyse qualitative : Pour évaluer visuellement la performance de la détection, les


boîtes englobantes 3D sont visualisées dans les nuages de points Lidar. Les résultats de
détection montrent que le détecteur reconnaît et localise efficacement les objets dans le
monde réel. De plus, elle détecte efficacement les objets avec une information de structure
géométrique peu dense dans la vue Lidar, grâce à la complémentarité de l’information
sémantique, comme illustrés dans la figure 3.6.

Figure 3.6 Évaluation de la Détection de Piétons sur un Jeu de Données de


Test
79

Analyse quantitative : Une comparaison quantitative entre les données fusionnées


(Lidar et thermique), les données Lidar seules de KITTI et les données Lidar seules
personnalisées est fournie. Les résultats montrent des améliorations comparatives grâce
à l’approche de fusion comme le montre le tableau 3-1. Bien que cette méthode puisse ne
pas atteindre les meilleures performances à tous les niveaux en comparant les mAP (mean
Average Precision), la détection sur le long terme (plus que 40 mètres) surpasse toutes les
approches précédentes, mettant en évidence l’efficacité de la fusion des données 3D.

Comparaison avec la ligne de base : Les nouvelles données fusionnées sont comparées
aux données Lidar seules de la ligne de base. La fusion des modalités de capteurs démontre
une nette amélioration des performances, en particulier pour les objets lointains, comme le
montre la tableau 3-2. Cette différence souligne les limites de la ligne de base Lidar seule
pour détecter efficacement les objets à distance en raison de la sparsité des points Lidar.
Cependant, l’inclusion de la modalité de la caméra thermique compense avec succès cette
limitation, permettant une meilleure détection des objets éloignés.

Tableau 3-1 Comparaison De la Précision de Détection

Méthode 3D AP (%)
KITTI Personnalisées et Fusionnées Personnalisées sans la fusion
SECOND [58] 54.24 54.19 53.18
PointPillars [53] 54.13 56.89 55.37
PvRCNN [59] 60.94 60.32 59.76

Tableau 3-2 Comparaison des Performances en Fonction de la Distance

3D AP (%)
Méthode
0–20m 20–40m 40–60m plus de 60m
Lidar seul 89.86 76.72 30.57 28.07
Lidar + Thermal 89.94 75.93 32.86 32.16
Amélioration +0.8 -0.79 +2.29 +4.09
80

3.4.5 Résultats de l’Optimisation Énergétique

En combinant les données Lidar et thermiques, une légère amélioration de la précision


est constatée. Cependant, ce qui est le plus notable, c’est l’extension de la plage de
détection. Cette fusion permet une détection efficace des objets situés à plus de 40 mètres,
exploitant ainsi la capacité étendue de portée du Lidar, capable de détecter des objets à des
distances dépassant 60 mètres. Cependant, se fier uniquement aux données clairsemées du
Lidar sans l’apport d’informations thermiques réduit son efficacité.

En utilisant la programmation dynamique, le modèle de véhicule décrit dans la


section 2 a été simulé, la vitesse étant maintenue à 60 km/h pour tous les tests, une
vitesse couramment rencontrée sur les routes urbaines et résidentielles, où la plupart
des interactions avec d’autres véhicules, piétons et obstacles se produisent. En fixant la
vitesse à cette valeur, des scénarios de conduite réalistes peuvent être simulés, reflétant
les conditions de circulation typiques. Trois distances d’arrêt différentes proposées par les
algorithmes de détection ont été examinées : 20, 60 et 80 mètres. À travers ces simulations,
les profils de freinage correspondant à chaque plage de détection ont été tracés, comme
illustré dans la figure 3.7. L’analyse a révélé que pour une distance de freinage de 20
mètres, l’énergie régénérée par le freinage était presque nulle, étant donné la très courte
distance de freinage. Pour arrêter le véhicule, une application du frein mécanique a été
nécessaire dès la détection de l’événement (par exemple un piéton situé à 20 mètres
du véhicule). Cependant, pour une distance de freinage de 60 mètres (voir Figure 3.8),
une régénération d’énergie de plus de 20 Wh (80,640 J) a été observée. Le profil de
décélération a permis l’utilisation du freinage régénératif, et l’application du frein par
friction n’a été introduite qu’après 50 mètres. En validant nos hypothèses, pour une
distance de freinage de 80 mètres (voir Figure 3.9), 30 Wh (108,000 J) d’énergie ont
81

été régénérés, et l’application du frein mécanique n’a été introduite qu’après 60 mètres de
régénération.
82

((a)) Énergie régénérée pour 20 mètres

((b)) Profil de freinage pour 20 mètres

Figure 3.7 Énergie Régénérée et Profil de Freinage pour 20 mètres


83

((a)) Énergie régénérée pour 60 mètres

((b)) Profil de freinage pour 60 mètres

Figure 3.8 Énergie Régénérée et Profil de Freinage pour 60 mètres


84

((a)) Énergie régénérée pour 80 mètres

((b)) Profil de freinage pour 80 mètres

Figure 3.9 Énergie Régénérée et Profil de Freinage pour 80 mètres


85

Il convient de noter que l’énergie régénérée a atteint un plateau à 80 mètres, se


stabilisant à 30 Wh (108,000 J) en raison des capacités maximales de régénération de
la puissance du générateur.

La simulation a montré qu’une distance plus longue est nécessaire pour atteindre
une efficacité énergétique plus élevée. En générant plus d’énergie à travers le freinage
régénératif ainsi, il est nécessaire d’avoir un système de perception solide qui permet de
détecter des obstacles à des distances importantes supérieurs à 30 mètres afin d’accorder
plus de distance de freinage.

Figure 3.10 Analyse de la Corrélation entre l’Énergie Régénérée, la


Distance de Freinage et la Précision de la Détection

La figure 3.10 met en évidence que malgré divers facteurs influençant la dispersion
86

des données 3D, comme les objets obstrués et les conditions météorologiques adverses,
ce qui entraîne une diminution de la précision de détection au fil du temps, l’énergie
régénérée reste élevée. Par exemple, pour une distance de 90 mètres, même si la précision
de détection chute à moins de 0,3 (ce qui signifie que sur 10 obstacles observés à plus de
90 mètres, seuls 3 sont détectés avec succès par l’algorithme), l’énergie potentiellement
récupérable reste élevée avec une valeur de 35 Wh (126,000 J).

Il est donc crucial de noter qu’opter pour des détections à longue distance, même avec
une précision de 0,3 pour des distances supérieures à 60 mètres, est plus bénéfique que de
se concentrer sur une haute précision à des distances inférieures à 30 mètres. Par exemple,
l’énergie récupérable selon la détection pour 90 mètres est de 6 Wh (21,600 J) malgré
une précision de détection de 0,3, tandis que pour une distance de 40 mètres, l’énergie
récupérable n’est que de 3 Wh (10,800 J) malgré une précision de détection de 0,6.
Ainsi, il est préférable dans certains scénarios de régénération de privilégier la distance
de détection plutôt que la précision de détection afin de maximiser l’énergie régénérée.
Cependant, il convient de se questionner sur les effets d’une augmentation de la distance
de détection sur la fluidité de la conduite. En effet, une distance de détection accrue
pourrait entraîner une conduite plus saccadée, caractérisée par des freinages légers mais
intermittents inutiles, attribuables au "bruit" introduit par le nouvel horizon de détection
élargi. Certains obstacles en mouvement pourraient sortir du champ avant l’arrivée du
véhicule. Dans ce contexte, il est important de considérer le couplage de ces algorithmes
de détection avec les algorithmes de prédiction des entrées/sorties dans les champs, afin
d’optimiser à la fois la distance de détection et la fluidité de la conduite, tout en maximisant
l’efficacité énergétique

Cette approche permet non seulement d’augmenter la régénération d’énergie, mais


87

également d’améliorer la sécurité globale en assurant un freinage plus efficace sur de plus
longues distances.
Chapitre 4 - Conclusion

Ce projet de maîtrise avait pour objectif de proposer une solution visant à améliorer
la perception des véhicules autonomes dans les conditions hivernales afin de maximiser
leur efficacité énergétique. Pour atteindre cet objectif, nous avons mis en place une
méthodologie bien définie. Nous avons d’abord procédé à une analyse des solutions
existantes visant à améliorer la perception des véhicules autonomes en général, dans le
but de mieux comprendre le fonctionnement global du système de perception, d’identifier
ses limitations et de proposer des solutions adaptées. Une observation importante a
été la détection limitée à courte distance dans la plupart des travaux existants, avec
peu d’attention portée à l’aspect énergétique, malgré le risque que les capteurs utilisés
puissent être énergivores et réduire l’autonomie des véhicules en consommant directement
l’énergie stockée dans la batterie. Nous avons également relevé les difficultés des
conducteurs à assurer à la fois une sécurité routière adéquate et une efficacité énergétique
respectable. Ainsi, l’utilisation d’un système d’aide à la conduite approprié peut constituer
une solution potentielle.

Pour remédier à ces limitations, nous avons proposé une solution basée sur la fusion
d’un Lidar 3D et d’une caméra thermique 2D afin d’obtenir un nouveau type de données
résiliant aux variations des conditions météorologiques, à savoir une représentation
thermique 3D de l’environnement. Après l’établissement d’un modèle du véhicule pour
démontrer que plus de temps de freinage permet de générer plus d’énergie, nous avons
proposé une méthode de fusion des données et mis en œuvre le réseau de neurones
PointPillars pour les détections 3D. Les résultats ont montré une légère amélioration de la
précision pour les détections utilisant les données fusionnées, avec la capacité de détecter
des obstacles à plus de 60 mètres. Nous avons ensuite mis en place un algorithme de
programmation dynamique pour optimiser la décélération du véhicule, ce qui a permis
89

de garantir à la fois une meilleure sécurité routière et une meilleure efficacité énergétique
grâce à des profils de freinage optimisés.

Ce travail souligne le potentiel de la fusion de capteurs et son impact sur l’optimisation


énergétique des véhicules autonomes. En exploitant efficacement les informations
complémentaires des données LiDAR et de la caméra thermique, nous avons démontré
des améliorations en termes de précision et de plage de détection, ouvrant ainsi la voie
à une récupération d’énergie améliorée grâce à des profils de freinage optimisés. Dans
l’ensemble, l’approche proposée ouvre une voie prometteuse pour concilier à la fois
l’efficacité énergétique et la sécurité routière dans les scénarios de conduite autonome
en hiver.

Néanmoins, ce travail de recherche est en cours de développement et pourrait être


amélioré avec de nouvelles perspectives à savoir :
• L’amélioration de la précision des détections en utilisant d’autres architectures de réseau
de détection 3D.
• Intégration d’un système de détection et de proposition de profils de décélération en
temps réel pour tester ses limites sur le terrain.
90

Références
[1] S. Digital, “Prévisions : 745 000 véhicules autonomes en 2023,” Le Siècle
Digital, décembre 2019. [Online]. Available: https://siecledigital.fr/2019/12/18/
previsions-745000-vehicules-autonomes-2023/
[2] J. Fayyad, M. A. Jaradat, D. Gruyer, and H. Najjaran, “Deep learning sensor fusion
for autonomous vehicle perception and localization: A review,” Sensors, vol. 20,
no. 15, p. 4220, 2020.
[3] SAE International, “Sae technical report on automated driving,” http://www.sae.org/
misc/pdfs/automated_driving.pdf, 2023, accessed: 09 25, 2023.
[4] M. Ziadia, S. Kelouwani, A. Amammou, and K. Agbossou, “An adaptive
regenerative braking strategy design based on naturalistic regeneration performance
for intelligent vehicles,” IEEE Access, 2023.
[5] R. Heinzler, P. Schindler, J. Seekircher, W. Ritter, and W. Stork, “Weather influence
and classification with automotive lidar sensors,” in 2019 IEEE intelligent vehicles
symposium (IV). IEEE, 2019, pp. 1527–1534.
[6] M. Kutila, P. Pyykönen, W. Ritter, O. Sawade, and B. Schäufele, “Automotive lidar
sensor development scenarios for harsh weather conditions,” in 2016 IEEE 19th
International Conference on Intelligent Transportation Systems (ITSC). IEEE,
2016, pp. 265–270.
[7] D. Otte, M. Jänsch, and C. Haasper, “Injury protection and accident causation
parameters for vulnerable road users based on german in-depth accident study gidas,”
Accident Analysis & Prevention, vol. 44, no. 1, pp. 149–153, 2012.
[8] I. Husain, B. Ozpineci, M. S. Islam, E. Gurpinar, G.-J. Su, W. Yu, S. Chowdhury,
L. Xue, D. Rahman, and R. Sahu, “Electric drive technology trends, challenges, and
opportunities for future electric vehicles,” Proceedings of the IEEE, vol. 109, no. 6,
pp. 1039–1059, 2021.
[9] G. Zubi, R. Dufo-López, M. Carvalho, and G. Pasaoglu, “The lithium-ion battery:
State of the art and future perspectives,” Renewable and Sustainable Energy Reviews,
vol. 89, pp. 292–308, 2018.
[10] C. Wang, X. Zhang, H. Dong, X. Chen, and W. Hu, “Challenges and emerging
opportunities in high-mobility and low-energy-consumption organic field-effect
transistors,” Advanced Energy Materials, vol. 10, no. 29, p. 2000955, 2020.
[11] F. Wang and B. Zhuo, “Regenerative braking strategy for hybrid electric vehicles
based on regenerative torque optimization control,” Proceedings of the Institution of
Mechanical Engineers, Part D: Journal of Automobile Engineering, vol. 222, no. 4,
pp. 499–513, 2008.
[12] C. Qiu, G. Wang, M. Meng, and Y. Shen, “A novel control strategy of regenerative
braking system for electric vehicles under safety critical driving situations,” Energy,
vol. 149, pp. 329–340, 2018.
91

[13] S. Liu, Z. Li, H. Ji, Z. Hou, and L. Fan, “A novel electric vehicle braking energy
recovery method based on model free adaptive control algorithm with input and
output constraints,” in 2021 IEEE 10th Data Driven Control and Learning Systems
Conference (DDCLS). IEEE, 2021, pp. 1503–1509.
[14] F. Sangtarash, V. Esfahanian, H. Nehzati, S. Haddadi, M. A. Bavanpour, and
B. Haghpanah, “Effect of different regenerative braking strategies on braking
performance and fuel economy in a hybrid electric bus employing cruise vehicle
simulation,” SAE International Journal of Fuels and Lubricants, vol. 1, no. 1, pp.
828–837, 2009.
[15] J. Han, A. Vahidi, and A. Sciarretta, “Fundamentals of energy efficient driving
for combustion engine and electric vehicles: An optimal control perspective,”
Automatica, vol. 103, pp. 558–572, 2019.
[16] F. K. Ayevide, S. Kelouwani, A. Amamou, M. Kandidayeni, and H. Chaoui,
“Estimation of a battery electric vehicle output power and remaining driving range
under subfreezing conditions,” Journal of Energy Storage, vol. 55, p. 105554, 2022.
[17] J. Biao, Z. Xiangwen, W. Yangxiong, and H. Wenchao, “Regenerative braking
control strategy of electric vehicles based on braking stability requirements,”
International Journal of Automotive Technology, vol. 22, pp. 465–473, 2021.
[18] K. Kaya and Y. Hames, “Two new control strategies: For hydrogen fuel saving and
extend the life cycle in the hydrogen fuel cell vehicles,” International Journal of
Hydrogen Energy, vol. 44, no. 34, pp. 18 967–18 980, 2019.
[19] T. Kim, “Regenerative braking control of a light fuel cell hybrid electric vehicle,”
Electric Power Components and Systems, vol. 39, no. 5, pp. 446–460, 2011.
[20] F. Wang and B. Zhuo, “Regenerative braking strategy for hybrid electric vehicles
based on regenerative torque optimization control,” Proceedings of the Institution of
Mechanical Engineers, Part D: Journal of Automobile Engineering, vol. 222, no. 4,
pp. 499–513, 2008.
[21] H. Liu, Y. Lei, Y. Fu, and X. Li, “An optimal slip ratio-based revised regenerative
braking control strategy of range-extended electric vehicle,” Energies, vol. 13, no. 6,
p. 1526, 2020.
[22] K. Min, G. Sim, S. Ahn, M. Sunwoo, and K. Jo, “Vehicle deceleration prediction
model to reflect individual driver characteristics by online parameter learning for
autonomous regenerative braking of electric vehicles,” Sensors, vol. 19, no. 19, p.
4171, 2019.
[23] S. Chen, J. Hu, Y. Shi, Y. Peng, J. Fang, R. Zhao, and L. Zhao, “Vehicle-to-everything
(v2x) services supported by lte-based systems and 5g,” IEEE Communications
Standards Magazine, vol. 1, no. 2, pp. 70–76, 2017.
[24] G. Melotti, C. Premebida, N. M. d. S. Gonçalves, U. J. Nunes, and D. R. Faria,
“Multimodal cnn pedestrian classification: a study on combining lidar and camera
data,” in 2018 21st International Conference on Intelligent Transportation Systems
(ITSC). IEEE, 2018, pp. 3138–3143.
92

[25] Y. Wu, R. Ding, J. Yang, and M. Lin, “3d thermal mapping using a 2d laser
rangefinder and a thermal camera,” in Proceedings of the International Conference
on Video and Image Processing, 2017, pp. 207–211.
[26] C. Schönauer, E. Vonach, G. Gerstweiler, and H. Kaufmann, “3d building
reconstruction and thermal mapping in fire brigade operations,” in Proceedings of
the 4th Augmented Human International Conference, 2013, pp. 202–205.
[27] S. Xu, D. Zhou, J. Fang, J. Yin, Z. Bin, and L. Zhang, “Fusionpainting: Multimodal
fusion with adaptive attention for 3d object detection,” in 2021 IEEE International
Intelligent Transportation Systems Conference (ITSC). IEEE, 2021, pp. 3047–3054.
[28] Y. Cui, R. Chen, W. Chu, L. Chen, D. Tian, Y. Li, and D. Cao, “Deep learning for
image and point cloud fusion in autonomous driving: A review,” IEEE Transactions
on Intelligent Transportation Systems, vol. 23, no. 2, pp. 722–739, 2021.
[29] J. D. Choi and M. Y. Kim, “A sensor fusion system with thermal infrared camera
and lidar for autonomous vehicles and deep learning based object detection,” ICT
Express, vol. 9, no. 2, pp. 222–227, 2023.
[30] D. De Pazzi, M. Pertile, and S. Chiodini, “3d radiometric mapping by means of lidar
slam and thermal camera data fusion,” Sensors, vol. 22, no. 21, p. 8512, 2022.
[31] H. Zhong, H. Wang, Z. Wu, C. Zhang, Y. Zheng, and T. Tang, “A survey of lidar and
camera fusion enhancement,” Procedia Computer Science, vol. 183, pp. 579–588,
2021.
[32] J. Alfred Daniel, C. Chandru Vignesh, B. A. Muthu, R. Senthil Kumar,
C. Sivaparthipan, and C. E. M. Marin, “Fully convolutional neural networks for
lidar–camera fusion for pedestrian detection in autonomous vehicle,” Multimedia
Tools and Applications, pp. 1–24, 2023.
[33] W. Chen, P. Li, and H. Zhao, “Msl3d: 3d object detection from monocular, stereo and
point cloud for autonomous driving,” Neurocomputing, vol. 494, pp. 23–32, 2022.
[34] P. Delaigue and A. Eskandarian, “A comprehensive vehicle braking model for
predictions of stopping distances,” Proceedings of the Institution of Mechanical
Engineers, Part D: Journal of Automobile Engineering, vol. 218, no. 12, pp.
1409–1417, 2004.
[35] A. Fortina, M. Velardocchia, and A. Sorniotti, “Braking system components
modelling,” SAE technical paper, Tech. Rep., 2003.
[36] M. Panagiotidis, G. Delagrammatikas, and D. Assanis, “Development and use of a
regenerative braking model for a parallel hybrid electric vehicle,” SAE transactions,
pp. 1180–1191, 2000.
[37] F. L. Lewis and V. L. Syrmos, “Optimal control,” 1995.
[38] N. Kim, S. Cha, and H. Peng, “Optimal control of hybrid electric vehicles based on
pontryagin’s minimum principle,” IEEE Transactions on control systems technology,
vol. 19, no. 5, pp. 1279–1287, 2010.
93

[39] ——, “Optimal control of hybrid electric vehicles based on pontryagin’s minimum
principle,” IEEE Transactions on control systems technology, vol. 19, no. 5, pp.
1279–1287, 2010.
[40] B. Biswas, S. Chatterjee, S. Mukherjee, and S. Pal, “A discussion on euler method: A
review,” Electronic Journal of Mathematical Analysis and Applications, vol. 1, no. 2,
pp. 2090–2792, 2013.
[41] A. Bapat and S. Jordan, “Bang-bang control as a design principle for classical and
quantum optimization algorithms,” arXiv preprint arXiv:1812.02746, 2018.
[42] R. Gade and T. B. Moeslund, “Thermal cameras and applications: a survey,” Machine
vision and applications, vol. 25, pp. 245–262, 2014.
[43] R. Collis, “Lidar,” Applied optics, vol. 9, no. 8, pp. 1782–1788, 1970.
[44] W. S. Kim, A. I. Ansar, R. D. Steele, and R. C. Steinke, “Performance analysis
and validation of a stereo vision saystem,” in 2005 ieee international conference
on systems, man and cybernetics, vol. 2. IEEE, 2005, pp. 1409–1416.
[45] H. A. Ignatious, M. Khan et al., “An overview of sensors in autonomous vehicles,”
Procedia Computer Science, vol. 198, pp. 736–741, 2022.
[46] “Flir lepton 3 - 25 degree,” https://www.flircameras.com/436-0024-00.htm, consulté
le 23 avril 2024.
[47] RoboSense, “Technical specification of robosense rs-ruby lidar,” 2020, consulté
le 23 avril 2024. [Online]. Available: https://cdn.robosense.cn/20200723161715_
42428.pdf
[48] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving ? the kitti
vision benchmark suite,” in 2012 IEEE conference on computer vision and pattern
recognition. IEEE, 2012, pp. 3354–3361.
[49] J. D. Choi and M. Y. Kim, “A sensor fusion system with thermal infrared camera
and lidar for autonomous vehicles and deep learning based object detection,” ICT
Express, vol. 9, no. 2, pp. 222–227, 2023.
[50] M. Quigley, B. Gerkey, and W. D. Smart, Programming Robots with ROS: a practical
introduction to the Robot Operating System. " O’Reilly Media, Inc.", 2015.
[51] G. Bradski, “The OpenCV Library,” Dr. Dobb’s Journal of Software Tools, vol. 25,
no. 11, pp. 120–123, Nov 2000.
[52] M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for
model fitting with applications to image analysis and automated cartography,”
Communications of the ACM, vol. 24, no. 6, pp. 381–395, 1981.
[53] A. H. Lang, S. Vora, H. Caesar, L. Zhou, J. Yang, and O. Beijbom, “Pointpillars: Fast
encoders for object detection from point clouds,” in Proceedings of the IEEE/CVF
conference on computer vision and pattern recognition, 2019, pp. 12 697–12 705.
[54] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving ? the kitti
vision benchmark suite,” in 2012 IEEE conference on computer vision and pattern
recognition. IEEE, 2012, pp. 3354–3361.
94

[55] X. Chen, K. Kundu, Y. Zhu, A. G. Berneshawi, H. Ma, S. Fidler, and R. Urtasun, “3d
object proposals for accurate object class detection,” Advances in neural information
processing systems, vol. 28, 2015.
[56] J. Stanisz, K. Lis, and M. Gorgon, “Implementation of the pointpillars network for
3d object detection in reprogrammable heterogeneous devices using finn,” Journal
of Signal Processing Systems, vol. 94, 07 2022.
[57] P. Dollár, C. Wojek, B. Schiele, and P. Perona, “Pedestrian detection: A benchmark,”
in 2009 IEEE conference on computer vision and pattern recognition. IEEE, 2009,
pp. 304–311.
[58] Y. Yan, Y. Mao, and B. Li, “Second: Sparsely embedded convolutional detection,”
Sensors, vol. 18, no. 10, p. 3337, 2018.
[59] S. Shi, C. Guo, L. Jiang, Z. Wang, J. Shi, X. Wang, and H. Li, “Pv-rcnn: Point-voxel
feature set abstraction for 3d object detection,” in Proceedings of the IEEE/CVF
conference on computer vision and pattern recognition, 2020, pp. 10 529–10 538.

Vous aimerez peut-être aussi