e Print 11431
e Print 11431
e Print 11431
MÉMOIRE PRÉSENTÉ(E)
COMME EXIGENCE PARTIELLE DU
MAÎTRISE EN INGÉNIERIE-CONCENTRATION GÉNIE MÉCANIQUE
PAR
MOHAMED HEDI OUESLATI
AVRIL 2024
Université du Québec à Trois-Rivières
Service de la bibliothèque
Avertissement
Direction de recherche :
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
Chapitre 1 - Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Contexte Général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Revue Bibliographique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Questions de Recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Objectifs et Contribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Chapitre 4 - Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Liste des tableaux
Tableau 2-1 Paramètres Dynamiques du Véhicule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Tableau 2-2 Tableau des Paramètres λ1 et Ubr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Tableau 2-3 Résumé des distances, de l’énergie requise et régénérée . . . . . . . . . . . . . 41
1. https://fr.wikipedia.org/wiki/MÃľthode_d’Euler
viii
Glossaire
ADAS Advanced Driver Assistance Systems. 2
AEDPS Système d’Adaptation de Planification de Décélération Énergétique. 3
DP Programmation Dynamique. 39
EV véhicule électrique. 6
Ce chapitre vise à fournir une vue d’ensemble du cadre général et des éléments
abordés dans notre étude sur l’optimisation de la perception des véhicules autonomes
afin d’améliorer leur efficacité énergétique en conditions hivernales. Dans cette optique,
le contexte général est présenté, en examinant les défis associés à la détection à longue
distance, notamment dans des conditions extrêmes. Par la suite, les enjeux en matière
d’énergie et de sécurité routière rencontrés par un conducteur humain sont abordés,
soulignant le besoin de systèmes d’aide à la conduite.
L’intérêt croissant pour les véhicules autonomes a ouvert une ère de défis et
d’opportunités dans la recherche contemporaine. Cette exploration s’aligne parfaitement
avec la taxonomie décrite dans le standard SAEJ3016, qui catégorise systématiquement
les termes liés aux systèmes d’automatisation de la conduite pour les véhicules motorisés
sur route [3]. S’étalant sur six niveaux, du niveau 0 où les conducteurs humains assument
2
Par ailleurs, même les conducteurs les plus expérimentés peuvent être confrontés à des
défis lors de conditions hivernales ou météorologiques défavorables [5] [6], susceptibles de
causer des accidents mortels. Dans de telles situations, la priorité est de garantir la sécurité
du conducteur. Toutefois, en ce qui concerne l’efficacité énergétique, les conducteurs
humains ne sont pas toujours très performants. Par exemple, lorsqu’ils sont confrontés
à un panneau d’arrêt à une courte distance, la réponse instinctive des conducteurs
implique généralement l’application des freins, renonçant ainsi à la récupération d’énergie
potentielle lors du freinage régénératif, qui convertit l’énergie cinétique du véhicule en
énergie électrique utilisable pour recharger la batterie.
3
Selon les conclusions de D. Otte, M. Jänsch et C. Haasper [7], les accidents mortels
sur la route surviennent souvent en raison de défaillances dans les facteurs humains,
suivant une séquence chronologique de la perception à l’action dans la conduite concrète.
De nombreuses études ont proposé plusieurs solutions pour améliorer la sécurité des
conducteurs et beaucoup ont visé à améliorer l’efficacité énergétique. Cependant, seul
un nombre limité d’études ont tenté de traiter les deux aspects, s’efforçant de créer un
système robuste garantissant à la fois la sécurité et l’efficacité énergétique.
nouvelles ventes de voitures d’ici 2040. En effet, de plus en plus de pays adoptent des
lois interdisant les véhicules à moteur, favorisant ainsi l’adoption de voitures électriques
ou hybrides, deux scénarios émergent où la régénération devient à la fois possible et
cruciale. L’adoption croissante de véhicules électriques agit comme un catalyseur pour
l’avancement environnemental du secteur des transports, s’alignant sur les initiatives
mondiales visant à lutter contre le changement climatique et à promouvoir la mobilité
durable. Parallèlement, le développement de véhicules autonomes équipés de systèmes
d’aide à la conduite sophistiqués est également en progression.
1.2 Problématique
En réponse au premier volet de notre recherche axée sur l’efficacité énergétique, une
solution proposée implique d’augmenter la densité énergétique en utilisant une chimie de
batterie plus puissante. Cependant, la mise en œuvre d’une telle solution peut nécessiter un
temps considérable, même si les fabricants investissent dans des méga-usines de batteries
pour produire en masse des cellules Li-Ion [9]. Pendant ce temps, des efforts sont en
cours pour optimiser la consommation d’énergie pendant les conditions hivernales en
intégrant des dispositifs à faible consommation d’énergie [10]. Malgré la promesse de
cette approche, sa mise en œuvre généralisée reste entravée par les coûts associés, et le
développement de nouvelles technologies de détection à faible consommation d’énergie
en est encore à ses débuts.
De nombreuses recherches ont été menées sur le sujet du freinage régénératif dans
la littérature scientifique. L’équipe de Han a proposé une stratégie de freinage dans la
référence [15], visant à optimiser l’énergie régénérée lors du freinage régénératif. Un
autre article [16], a présenté un modèle longitudinal du véhicule et examiné les équations
pertinentes pour le freinage régénératif, prenant en compte les diverses forces affectant
la dynamique du véhicule. Dans la référence [17], l’accent a été mis sur le freinage
régénératif dans un véhicule électrique à pile à combustible (VEPC) équipé d’un moteur
à aimant permanent, utilisant un condensateur (UC) pour capturer l’énergie de freinage.
Cependant, l’allocation du freinage régénératif et du freinage par friction était basée sur
un rapport fixe sans tenir compte des préoccupations de sécurité ou de stabilité. De même,
dans l’article [18], un algorithme de contrôle du freinage régénératif a été proposé pour un
VEPC avec un système de freinage électrique et un freinage régénératif sur les roues avant.
L’algorithme utilisait le signal de la pédale de frein comme entrée, enclenchant les freins
à friction uniquement lorsque la demande de décélération dépassait un seuil prédéterminé.
Pour atténuer l’impact négatif des basses vitesses sur l’énergie régénérée et le confort de
conduite, un facteur de poids a été introduit. De plus, dans [19], une analyse détaillée
a été menée sur un bus hybride électrique à pile à combustible à entraînement par roue
arrière, expliquant les stratégies de contrôle pour les opérations de motricité et de freinage
régénératif d’un moteur à aimant permanent.
Le Lidar s’avère particulièrement précieux dans les scénarios où les capteurs basés
sur la vision peuvent rencontrer des difficultés, offrant des données fiables même en cas
de visibilité réduite ou de conditions météorologiques adverses. En complément à cette
capacité, les capteurs thermiques offrent une détection améliorée dans des conditions
environnementales variables [5] [6]. Ces considérations sont cruciales pour maintenir les
9
mesures de sécurité, surtout lorsque les technologies de capteurs classiques montrent des
limites, telles que les caméras qui peuvent rencontrer des difficultés à fonctionner dans des
conditions de faible luminosité (notamment la nuit), ou encore le GPS dont la précision
peut se dégrader lors de tempêtes géomagnétiques.
Le travail réalisé par Melotti, Premebida et leur équipe [24] a introduit un système
de classification de piétons basé sur un réseau de neurones à convolution (CNN) qui
intègre les données Lidar et les données de caméra pour améliorer la sécurité des véhicules
autonomes. L’étude a démontré que l’utilisation de stratégies de fusion aboutissait à
des résultats supérieurs par rapport aux capteurs individuels, renforçant ainsi la sécurité
globale. Dans la référence [25], un effort a été fait pour combiner les données d’une
caméra et d’un télémètre laser afin de reconstruire avec succès un modèle thermique
tridimensionnel de l’environnement. De même, la référence [26] a exploré la faisabilité
de la reconstruction tridimensionnelle en temps réel d’éléments thermiques, en mettant
particulièrement l’accent sur l’amélioration de la sécurité dans les opérations de lutte
contre les incendies. Cependant, il est à noter que ces études n’ont pas pris en compte les
conditions hivernales, car elles reposaient sur une caméra standard qui n’est pas adaptée
aux conditions difficiles.
Dans une étude exhaustive menée par Fayyad et ses collègues [2], les avantages
et les limitations de la fusion des données de capteurs sont explorés, fournissant un
aperçu complet des méthodologies existantes. L’étude identifie deux approches courantes
: les méthodes classiques, illustrées dans la figure 1.1, et les approches de fusion de
capteurs basées sur l’apprentissage profond, illustrées dans la figure 1.2. Les méthodes
classiques rencontrent souvent des défis tels que la complexité computationnelle élevée et
la dépendance aux hypothèses ou connaissances préalables des données.
10
Plusieurs chercheurs ont réalisé des avancées significatives dans le domaine de la fusion
de capteurs en exploitant des algorithmes d’apprentissage profond [27, 28], démontrant
ainsi la faisabilité de cette approche. D’autres chercheurs, en revanche, ont proposé des
solutions plus simples en utilisant les paramètres intrinsèques et extrinsèques des capteurs
pour calibrer ces derniers et établir une matrice de transformation entre le monde 3D
et 2D. Cependant, ces approches n’ont pas encore été évaluées en ce qui concerne les
détections sur une longue distance. En outre l’article [29] a introduit un algorithme robuste
de détection d’objets qui utilise un algorithme de correction de paramètres infrarouges
11
externes directs entre les caméras infrarouges thermiques et les capteurs Lidar. Bien
qu’efficace dans les environnements diurnes et nocturnes pour les véhicules autonomes,
l’algorithme attend toujours une évaluation pour l’estimation de distance ou les détections
à longue portée, ce qui pose des défis pour les capacités de perception du véhicule.
L’article [30] s’est concentré sur les capteurs thermiques et Lidar pour développer
une méthode de cartographie thermique à grande échelle et à longue portée précise. Ils
ont introduit une approche de cartographie de grille d’occupation basée sur des voxels
thermiques stockés dans un objet Octree. Bien que cela puisse améliorer la perception du
véhicule, l’aspect de l’efficacité énergétique nécessite une enquête plus approfondie.
La fusion du Lidar avec des caméras stéréo a également retenu l’attention. L’article [31]
a mené une revue de littérature approfondie sur diverses méthodes de fusion, présentant
des approches diverses et leurs résultats. La précision moyenne de la détection des piétons
est de 50% ; la méthode de fusion ponctuelle donnant la précision la plus élevée de
60.85%. Il existe un potentiel d’amélioration supplémentaire en explorant et en modifiant
les modalités de fusion. De plus, la référence [32] s’est concentrée sur l’amélioration de la
détection des piétons et des systèmes de perception globaux en fusionnant un capteur
12
Lidar avec une caméra 3D, proposant un algorithme entièrement fonctionnel pour la
détection et l’identification des piétons dans la plage de 10 à 30 mètres. Cependant,
l’aspect énergétique reste non résolu, et dans le contexte des véhicules autonomes, cette
portée de détection se révèle insuffisante.
À travers ce mémoire, une démarche est entreprise pour présenter une solution visant à
optimiser l’efficacité énergétique des voitures autonomes en conditions hivernales. Face
à la contrainte inhérente à la capacité limitée de stockage des batteries des véhicules
autonomes, qui requiert des recharges fréquentes lors de trajets prolongés, ainsi qu’au
fonctionnement simultané des caméras, radars, Lidar, GPS et autres capteurs nécessaires
à l’autonomie du véhicule, la question de l’efficacité énergétique demeure un défi majeur.
L’approche explorée est celle exploitant le principe du freinage régénératif.
Pour concrétiser cette approche, des efforts sont entrepris pour améliorer la perception
globale du véhicule. L’objectif est d’optimiser la détection des éléments environnants,
renforçant ainsi la sécurité du véhicule et permettant un laps de temps accru pour l’action
de freinage. De plus, l’objectif est d’établir une base de perception plus robuste, sécuritaire
et résiliente face aux variations environnementales.
1.6 Méthodologie
(a) Projection pixel par pixel des points 3D du Lidar vers la trame 2D de l’image en
exploitant les paramètres intrinsèques et extrinsèques des capteurs afin d’établir
les transformations nécessaires pour la projection. Suivi d’une projection
inverse pour récupérer les données de la trame 2D en 3D.
Dans l’article [16], un modèle physique est utilisé pour décrire la consommation
d’énergie de la batterie, lequel repose sur la dynamique longitudinale du véhicule. De
même, le modèle dynamique longitudinal du véhicule est présenté par l’équation 2.1.
Ce modèle est en accord avec la deuxième loi de Newton, et peut être exprimé comme
suit :
M v̇ = Ft − Froll − Faero − Fgrade − Fbr (2.1)
Il y a aussi le Faero qui est l’action globale de l’air sur le véhicule et qui peut être
exprimé comme suit :
1
Faero = .ρ.A.Cd .v2 (2.3)
2
Et enfin, Fgrade , qui est l’influence de la force gravitationnelle sur le véhicule, est
exprimé comme suit :
Fgrade = M.g. sin(θ ) (2.4)
Les valeurs des paramètres dynamiques du véhicule expérimental, qui sera présenté par la
suite, sont répertoriées dans le tableau suivant 2-1.
Paramètre Valeur
ρ 1.2
Cd 0.3
A 2.2 m2
M 1500 kg
Décélération maximale 8 m/s2
Accélération maximale 2.65 m/s2
µ 0.02
Rayon de la roue (Wheel radius ) 0.57 m
19
Dans la littérature, plusieurs travaux ont tenté de proposer des modèles de freinage
pour prédire les distances d’arrêt possibles [34]. D’autres ont cherché à modéliser tous
les composants du système de freinage [35]. Cependant, cette étude se concentre sur le
freinage régénératif, qui suscite un intérêt particulier parmi les chercheurs, notamment
pour les véhicules électriques [36]. Notre approche dans cette étude consiste à proposer
un modèle plus simple en se basant sur les forces appliquées lors du freinage.
La force de freinage exercée sur les véhicules est désignée par Fbr et peut être trouvée
dans l’équation 2.1. où Fbr est la combinaison de deux forces :
• La force de friction, qui est la force mécanique appliquée par le freinage sur le
véhicule et est exprimée comme Ffr .
• La force de freinage régénératif, limitée par la puissance maximale du
moteur/générateur, désignée par Frg .
La force de freinage peut être exprimée comme suit :
L’objectif du freinage est d’atteindre une énergie cinétique nulle, ce qui peut être
représenté par l’équation suivante :
Z tf
1 2
Mv = Fbr (t) · v(t)dt (2.6)
2 initial t0
où vinitial est la vitesse initiale de la voiture, t0 est le début du freinage, t f est la fin du
freinage, et Fbr (t) est la force de freinage appliquée à un instant t.
Avec :
1
Mvt20 > 0
2 (2.7)
1 Mv2 = 0
2 tf
Cette équation exprime que l’énergie cinétique initiale 12 Mv2initial est dissipée par la force
de freinage sur la période de temps de t0 à t f , ce qui conduit à une énergie cinétique nulle
à la fin du freinage.
En réalité, l’énergie cinétique est la somme des intégrales des forces appliquées, ce qui
implique :
Z tf Z tf Z tf
1
Mv(t)2 dt = Ffr (t)v(t)dt + Frg (t)v(t)dt + Floss (t)v(t)dt (2.8)
2 t0 t0 t0
21
avec :
Cependant, étant donné que la force de freinage mécanique (Ffr ) est limitée par
la contrainte mécanique de la pédale de freinage, le temps de freinage (TB ) doit être
considérablement prolongé (t2 > t1 ) pour atteindre une énergie cinétique nulle, comme
exprimé par :
Z tf
1
lim Mv2 dt → 0 (2.10)
t1 →tB t0 2
Dans le cadre d’un freinage régénératif, l’objectif est de dissiper le maximum d’énergie
cinétique avec l’énergie régénérée à la fin du processus, ce qui peut être exprimé par :
Z tf
E= Frg (t)v(t)dt (2.11)
t0
Pour obtenir une fonction de coût appropriée, toutes les forces mentionnées ci-dessus
seront intégrées. En divisant ensuite l’équation 2.1 par la masse M, l’équation peut être
22
1
Ut = v′ + ρCx v2 + gµ cos(θ ) + sin(θ ) +Ubr (2.12)
2M
Où :
F
Ut = t
M (2.13)
U = Fbr
br
M
Où :
1
α =
ρCx
2M (2.15)
β = gµ cos(θ ) + sin(θ )
Ainsi, les deux équations d’état peuvent être exprimées comme suit :
23
s′ = v
(2.17)
v′ = −αv2 − β −Ubr
Z tf
J0 = (Av)2 +Ubr
2
dt (2.18)
t0
En théorie du contrôle optimal, l’Hamiltonien est une fonction qui représente le coût
total d’un système dynamique soumis à un certain contrôle dans un intervalle de temps
donné. Il est défini comme la somme du coût instantané (ou coût local) et du coût
futur (ou coût terminal). Selon Lewis et Syrmos [37], l’Hamiltonien pour le problème
d’optimisation donné peut être défini comme suit :
Où L(x, u,t) est la fonction de coût à minimiser et g(x, u,t) représente l’ensemble des
contraintes. Le vecteur d’état est défini comme x = [s, v̇], l’entrée de contrôle comme u =
[Ubr ], et t représentes le temps.
Après avoir obtenu la formulation hamiltonienne du problème donné ainsi que les
25
3. L’Hamiltonien est minimisé par le contrôle optimal : H(x, u∗ , λ̇ ,t) ≤ H(x, u, λ̇ ,t)
pour tout contrôle u(t)
∂H
4. La condition d’optimalité : u̇ = ∂u =0
∂H
x˙1 =
= −αv2 − β −Ubr
∂λ1
(2.22)
∂H
x˙2 =
=v
∂λ2
∂H
λ̇1 =
= 2Av − 2αλ1 v − λ2
∂v (2.23)
λ˙ = ∂ H = 0
2
∂s
26
∂H
0 =
= Ubr − λ1
∂u (2.24)
U ∗ = λ1
br
2
Dans la spécification des conditions aux limites pour notre problème d’optimisation
du freinage régénératif, plusieurs choix ont été faits pour garantir des conditions initiales
et finales appropriées. Tout d’abord, la vitesse initiale du véhicule est fixée à 60 km/h
(kilomètres par heure). Cette valeur correspond à une situation typique de conduite sur
route où le véhicule circule à une vitesse constante avant le début du freinage. Ensuite,
la condition finale de vitesse est fixée à zéro, représentant l’arrêt complet du véhicule, ce
qui est essentiel pour garantir un arrêt sûr et efficace. De plus, la distance de freinage
est spécifiée comme étant de 100 mètres. Cette distance représente la distance totale
parcourue par le véhicule pendant le processus de freinage, depuis le début jusqu’à l’arrêt
complet. Enfin, une contrainte est imposée sur la commande de freinage régénératif,
avec une valeur comprise entre 0 et 2, assurant ainsi une régulation appropriée de la
puissance de freinage régénératif tout au long du processus. Ces choix de conditions aux
limites sont essentiels pour définir de manière précise et cohérente les paramètres de notre
problème d’optimisation du freinage régénératif, garantissant ainsi des résultats pertinents
et applicables dans le contexte des véhicules électriques.
• V (t0 ) = 60
• V (t f ) = 0
• s(t0 ) = 100
27
• s(t f ) = 0
• 0 ≤ Ubr ≤ 2
Afin de simplifier l’étude, nous considérons seulement une liste de commandes pour 5
valeurs différentes de λ1 , comme le montre le tableau 2-2 :
Tableau 2-2 Tableau des Paramètres λ1 et Ubr
3. Tracé des profils de décélération : Une fois que la fonction de vitesse est
28
La méthode d’Euler [40] est une méthode numérique de base pour résoudre des
équations différentielles du premier ordre de la forme : pour tout x dans l’intervalle I,
u′ (x) = f (x, u(x)).
u(xi+1 ) − u(xi )
u′ (xi+1 ) ≈ (2.25)
xi+1 − xi
La décision de basculer entre ces deux états est généralement basée sur des seuils
30
les valeurs prealablement choisies pour Ubr sont respectees telles qu’illustrees dans la
figure 2.2.
31
Discrétisation de la Vitesse
Ensuite, l’objectif est de développer une fonction qui discrétise la vitesse v et calcule
sa valeur en se basant sur les équations d’état. La méthode d’Euler est employée pour
approximer la solution de l’équation différentielle suivante :
dv(t)
= −αv2 −Ubr − β (2.26)
dt
Après simulation et traçage, des profils de décélération résultants de v(t) ont été
obtenus, comme présenté dans la figure 2.3
for i ← 0 to longueur de v − 1 do
H[i] ← v[i]2 + ubr[i]2 + λ1 [i] − ubr[i] − β (v[i]2 ) − h + λ2 · v[i]
return H
Validation de la Théorie
Pour ce faire, 50 profils de décélération aléatoires sont générés et H est calculé pour
chaque profil obtenu. Les différents profils présentent des valeurs variables de Ubr et de a
(le point où la valeur devient nulle) comme le montre la figure 2.5.
Figure 2.5 Génération de 50 Profils de Décélération Aléatoires
35
36
Z tf
J= PRGN (v(t), a(t), Θ(d(t))) dt (2.28)
t0
Z tf
PRGN = Frg (t) × v(t) dt (2.29)
t0
Une trajectoire de vitesse optimale v∗ (t) est générée par le problème de planification de
décélération pour maximiser la régénération d’énergie, tandis qu’une trajectoire d’entrée
d’accélération a∗ (t) est trouvée sur un intervalle de temps de planification de vitesse
t0 ≤ t ≤ t f qui maximise le critère de performance de récupération d’énergie donné dans
l’équation 2.28. Ainsi le problème d’optimisation en temps discret est formulé comme suit
:
N−1
max ∑ PRGN (v(k), a(k), Θ(d(k)))∆t
a(k)∈ξ k=0
(2.30)
Où ∆t est l’intervalle de temps d’échantillonnage et d(k) est la distance mise à jour par
la valeur de v(k). L’ensemble de contraintes ξ est donné par :
Pour k ∈ [0, N]. L’équation du système est calculée et mise à jour dans le domaine
temporel, tandis que les entrées sont évaluées pour le même domaine. Le nombre de
nœuds à traverser dans l’algorithme de programmation dynamique (DP) est fixé à trois.
Pour suivre l’environnement de manière plus réaliste, ∆t est fixé à 1/30 s et la commande
contrôlée par DP est répétée jusqu’à ce que l’étape de temps DP soit atteinte. La vitesse
optimale v∗ (k) déterminée à chaque nœud est utilisée pour mettre à jour le déplacement :
Où d(k) est la distance restante avant la cible, mise à jour par la vitesse optimale au temps
k.
Résultats de simulation
Le tableau 2-3 met en évidence le fait qu’une distance plus longue est synonyme d’une
meilleure régénération énergétique, prouvant ainsi la théorie.
Une découverte essentielle de cette étude réside dans la corrélation entre la fonction
de coût et la disponibilité du temps de freinage, influençant directement la quantité
d’énergie régénérable. Pour confirmer cette approche, différents profils de décélération
ont été évalués en analysant leurs valeurs respectives. Les résultats ont démontré que la
∗ , maximisait la réduction du Hamiltonien par
stratégie de contrôle optimale, appelée Ubr
rapport à d’autres profils aléatoires, permettant d’optimiser le temps de freinage. Ainsi, en
améliorant la détection, notamment sur une période prolongée, et en allongeant la phase
de freinage, il est possible d’augmenter la quantité d’énergie régénérée. Ces conclusions
renforcent l’efficacité de l’approche proposée et soulignent l’importance cruciale de la
détection améliorée pour maximiser la régénération d’énergie pendant les phases de
freinage.
41
Distance Énergie nécessaire pour arrêter le véhicule Énergie régénérée Pourcentage (%)
0m - - -
40m 451438.45 J 98272.31 J 21.76%
50m 447264.14 J 122328.65 J 27.35%
60m 443121.33 J 146184.35 J 32.98%
70m 440311.23 J 161953.55 J 36.78%
80m 434942.47 J 193307.76 J 44.44%
90m 432602.06 J 206615.91 J 47.76%
100m 426896.46 J 239661.17 J 56.14%
110m 423293.46 J 260488.16 J 61.53%
120m 418971.16 J 285256.96 J 68.08%
140m 413798.35 J 315274.73 J 76.19%
160m 407376.99 J 352326.04 J 86.48%
170m+ 399277.32 J 399277.32 J 100.00%
Pour éclaircir le choix des diagrammes en radar, les dispositifs sont évalués selon les
critères suivants :
Principe de fonctionnement
Les objets et les êtres vivants émettent tous une signature thermique unique, une
forme d’énergie infrarouge spécifique à chaque entité. Les caméras thermiques exploitent
cette caractéristique en mesurant, enregistrant et convertissant les différents rayonnements
43
de chaleur émis par ces corps en une image électronique. Ces caméras comportent un
système optique qui concentre l’énergie infrarouge sur une puce de détection spéciale,
contenant des milliers de pixels organisés dans une grille. Ces pixels capturent l’intensité
du rayonnement, ce qui permet d’estimer la température de chaque point de l’image. Le
processeur de la caméra traite ensuite le signal de chaque pixel, appliquant des calculs
mathématiques pour générer une carte en couleurs représentant la température apparente
de l’objet. Cette technologie trouve une large application dans divers domaines, de la
surveillance des bâtiments à la médecine, en passant par la maintenance industrielle et
l’observation de la faune. Elle offre une vision thermique précieuse, permettant de détecter
les anomalies thermiques, d’identifier les sources de chaleur et de surveiller les variations
de température avec une grande sensibilité et précision.
• Résolution de la caméra :
— Capacité à produire une image détaillée
— Mesurée en pixels
— Caractérisée par son champ de vision vertical et horizontal exprimé en degrés
• Résolution thermique :
— Indique la capacité de la caméra à détecter de petites variations de température
• Plage de température :
— Définis l’étendue des températures que la caméra peut mesurer avec précision
— Généralement entre -30°C et +350°C
• Fréquence d’images :
— Représente le nombre d’images thermiques que la caméra peut capturer par
44
seconde
— Une fréquence plus élevée peut être nécessaire pour des applications nécessitant
une surveillance en temps réel ou pour capturer des mouvements rapides
Les Caméras thermiques présentent plusieurs avantages significatifs. Tout d’abord, leur
fonctionnement ne dépend pas de sources lumineuses, ce qui les rend particulièrement
adaptés pour détecter la chaleur émise par divers objets. Ils se distinguent également
par leur capacité à localiser avec précision des objets situés dans un rayon de 30 à 200
mètres, offrant ainsi un avertissement précoce au conducteur par exemple afin d’anticiper
des évènements de freinage. En outre, ils se révèlent efficaces dans des environnements
difficiles et sont capables de mesurer le profil thermique d’un objet.
Cependant, il est important de noter certains inconvénients associés à ces dispositifs. Ils
ont une fréquence de fonctionnement relativement basse, ce qui peut limiter leur utilisation
dans certaines applications. De plus, leur coût est souvent élevé, ce qui peut constituer
un frein à leur adoption généralisée. Enfin, la mise en place d’algorithmes de détection
spécifiques peut s’avérer complexe et exigeante en termes de développement.
2.7.2 Le Lidar
Le Lidar acronyme de "Light Detection and Ranging", est une technologie de détection
à distance qui repose sur l’émission de faisceaux laser et l’analyse du temps qu’ils mettent
pour revenir après avoir interagi avec une surface. Cette méthode permet d’obtenir des
informations détaillées et précises sur la topographie, la structure et la distance des
objets environnants. Le Lidar trouve une grande diversité d’applications, allant de la
cartographie topographique de haute précision, à la modélisation 3D pour des applications
en urbanisme, en gestion forestière, et même en robotique et conduite autonome [43].
Ce qui le distingue, c’est sa capacité à fournir des données à une échelle fine et
à opérer dans des conditions environnementales variées. L’évolution constante de cette
technologie a ouvert de nouvelles perspectives dans de nombreux domaines, en faisant un
outil essentiel pour la recherche scientifique et les applications industrielles. En résumé,
le Lidar est une technologie d’une importance capitale dans le domaine de la télédétection
et de l’analyse de l’environnement.
46
Principe de fonctionnement
Le Lidar enregistre ensuite le temps qu’il faut au faisceau laser pour effectuer un
aller-retour entre l’émetteur et la surface en mesurant le délai entre l’émission et la
réception du signal de retour. En utilisant la vitesse de la lumière (environ 299,792,000
m/s), le Lidar calcule avec grande précision la distance qui le sépare de la surface en
multipliant le temps de vol par la moitié de cette vitesse.
Les paramètres de performance d’un Lidar sont essentiels pour évaluer son efficacité
dans la collecte de données tridimensionnelles.
• Portée : Distance maximale à laquelle le Lidar peut détecter des objets.
• Résolution spatiale : Capacité à distinguer les détails et les contours des objets dans
la scène.
47
• Densité de points : Nombre de points de mesure générés par le Lidar par unité de
surface ou de volume.
• Précision de la mesure : Fiabilité et précision des mesures de distance effectuées
par le Lidar.
• Fréquence de balayage : Nombre d’acquisitions de données tridimensionnelles
réalisées par le Lidar par unité de temps.
Le Lidar est reconnu pour sa capacité à fournir des données géospatiales d’une
précision et d’une résolution exceptionnelles, essentielles pour diverses applications telles
que la cartographie et la modélisation 3D. Son indépendance à l’égard des conditions
lumineuses en fait un outil polyvalent, utilisable de jour comme de nuit pour la collecte de
données. Il excelle également dans la pénétration à travers la canopée végétale, facilitant
la cartographie forestière et la mesure de la biomasse végétale. Sa haute résolution
temporelle lui permet de mesurer les distances avec une grande précision, utile notamment
pour la détection d’objets en mouvement. Cependant, son coût élevé peut constituer un
obstacle à son adoption, tandis que des conditions atmosphériques défavorables peuvent
altérer la qualité des mesures. Le traitement des données brutes et la portée horizontale
limitée peuvent également poser des défis pour certains utilisateurs.
La figure 2.8 présente le diagramme en radar du Lidar [43], qui est efficace à faible
luminosité, et lors de l’estimation des distances
48
2.7.3 Le Radar
Principe de fonctionnement
Les radars sont largement utilisés dans divers domaines tels que la navigation, la
surveillance, le contrôle du trafic aérien et la météorologie en raison de leur grande
polyvalence. Leur capacité à fonctionner efficacement, quelles que soient les conditions
météorologiques constitue un avantage majeur par rapport à d’autres systèmes de
détection. Certains radars sont même capables de détecter des objets à des distances
remarquablement éloignées. Cependant, il convient de noter quelques inconvénients.
Les radars à longue portée peuvent avoir une consommation d’énergie considérable,
ce qui peut être une considération importante lors de notre cas d’études. De plus, la
conception, la fabrication et l’entretien de radars sophistiqués peuvent engendrer des coûts
élevés. En outre, ils peuvent être sujets à des interférences et des brouillages provenant
d’autres systèmes électroniques. Malgré ces considérations, les radars demeurent des
outils incontournables, offrant des avantages significatifs en termes de détection et de suivi
d’objets, et jouant ainsi un rôle crucial dans de nombreuses applications.
ainsi que dans l’estimation de la distance de détection c. Cependant, il n’est pas approprié
pour la classification des objets.
Principe de fonctionnement
Les caméras stéréo offrent plusieurs avantages significatifs. Elles permettent une
perception tridimensionnelle de la scène, ce qui est précieux dans des domaines comme la
robotique, la vision par ordinateur et la réalité augmentée. De plus, une fois correctement
calibrées, elles fournissent des mesures de profondeur précises. En outre, elles sont
souvent plus abordables que d’autres systèmes de perception 3D.
Malgré ces considérations, les caméras stéréo restent largement utilisées dans des
domaines comme la vision par ordinateur, la robotique et la réalité augmentée.
La figure 2.10 illustre le diagramme en radar d’une caméra stéréo qui se révèle très
adaptée pour la classification des objets et la détection des contours, avec une résolution
de données très élevée. Cependant, elle présente une efficacité limitée dans des conditions
météorologiques extrêmes [44].
neige ou le brouillard, ainsi que dans des environnements à faible luminosité comme
la nuit. Cependant, bien que le radar soit efficace dans ces conditions, il ne fournit pas
d’informations sur la forme des objets et n’est pas optimal pour la détection des obstacles
dynamiques, ce qui est crucial pour notre étude. Ainsi, la caméra thermique se positionne
comme le choix idéal pour répondre à nos besoins spécifiques [45].
Par ailleurs, le Lidar joue un rôle essentiel en raison de son efficacité remarquable dans
des conditions de faible luminosité et de son excellente capacité à estimer et détecter la
distance jusqu’aux objets. Il peut également être utilisé pour la classification des objets
et offre une résolution optimale grâce à ses multiples points de mesure. En revanche,
la caméra stéréo montre des performances moins satisfaisantes dans des conditions
météorologiques difficiles ou dans des environnements à faible luminosité.
Il est important de noter que, dans le contexte de notre étude, les choix de capteurs
dépendent de la qualité de ces derniers. Les constructeurs s’appuient sur la possibilité
d’utiliser différentes technologies de capteurs complémentaires tout en réduisant les coûts,
54
mais il est crucial de prendre en compte la qualité des capteurs pour assurer la fiabilité et
l’efficacité du système de détection.
La figure 2.12 offre une vue d’ensemble des quatre composants principaux de la
solution. Le premier composant est axé sur le traitement des données, où le Lidar 3D
capture une représentation détaillée de l’environnement à travers un nuage de points,
même dans des conditions météorologiques difficiles. En revanche, la caméra thermique
excelle dans la détection thermique 2D des piétons et des véhicules, notamment dans des
conditions de faible luminosité telles que la nuit ou le brouillard.
Pour préparer les données en vue d’une éventuelle fusion, il est essentiel de les traiter;
par exemple en limitant le nuage de points du Lidar à 180° et en corrigeant la distorsion
et l’effet fisheye des données thermiques pour obtenir une représentation plus précise de
56
l’environnement.
L’algorithme de fusion joue un rôle central dans l’exploitation des avantages des deux
capteurs. Il assure une intégration des données du Lidar et de la caméra thermique. Une
étape cruciale pour une fusion réussie consiste à calibrer les capteurs et traiter les données
3D et 2D pour associer chaque point du nuage des points 3D à un pixel spécifique
dans la matrice thermique 2D. Cette adaptation facilite la création d’un nouveau type de
données : une représentation thermique 3D de l’environnement, résistante aux conditions
météorologiques.
Les données expérimentales hivernales ont été recueillies à l’aide d’un véhicule
électrique KIA SOUL 2017, tel qu’illustré dans la figure 2.13, déployé sur le campus
de l’Université du Québec à Trois-Rivières. La caméra thermique FLIR Promaster [46],
montée le long de la ligne de toit central, est équipée d’une lentille de 4,8 mm offrant
un champ de vision horizontal et vertical de 32 degrés. Les images capturées par cette
caméra ont une résolution de 640 x 512 pixels et sont enregistrées à une fréquence de 16
58
Hz. De plus, le Lidar Robosense RS-16 [47], également positionné sur le toit du véhicule,
effectue des numérisations environnementales, fournissant 16 lignes verticales couvrant
26,8 degrés de données de télémètre laser sur 360 degrés, à une fréquence de 30 Hz. Ce
Lidar présente une portée maximale de détection de 120 mètres, générant ainsi environ 60
920 points 3D dans chaque scan.
Une description détaillée des jeux de données utilisés et des Indices de performance
(précision de détection, distance de détection) employés pour évaluer le réseau est ensuite
fournie. Trois ensembles de résultats sont utilisés pour cette évaluation : le benchmark
KITTI [48], un ensemble de données Lidar personnalisé, et un ensemble de données
fusionné Lidar et une caméra thermique. Les résultats quantitatifs et qualitatifs de la
méthode sont présentés, comparant la performance de la détection de piétons avec
différents ensembles de données. Une analyse détaillée est fournie, mettant en évidence
les améliorations obtenues avec l’approche de fusion des données.
Pour faciliter la fusion des capteurs de caméra et de Lidar, la première étape consiste à
obtenir leurs paramètres intrinsèques et extrinsèques. Les deux capteurs sont positionnés
presque au même endroit sur le toit du véhicule, ce qui élimine le besoin de procédures
de calibration complexes. Après avoir acquis ces paramètres, trois matrices sont dérivées
: k pour la longueur focale, r pour les rotations et t pour les translations. La combinaison
de ces matrices donne Tmat , une matrice de transformation. Tmat permet de convertir les
coordonnées mondiales 3D capturées par le capteur Lidar en coordonnées d’image 2D de
la caméra thermique infrarouge.
Selon l’article [49], la relation entre la caméra thermique infrarouge et le capteur Lidar
peut être estimée comme suit:
Sous la transformation géométrique, la coordonnée homogène S(1 × 3) (qui représente
les coordonnées des points 3D dans le repère 2D de l’image) est obtenue en multipliant
la matrice de transformation Tmat (3 × 4) par la coordonnée local L(4 × 1), avec une
représentation graphique suivante :
L
x
u fx 0 cx r11 r12 r13 t1
Ly
v = 0
s fy fy r21 r22 r23 t2 (3.1)
Lz
1 0 0 1 r31 r32 r33 t3
1
Cette équation représente la relation entre les coordonnées des pixels (u, v) dans
l’image de la caméra thermique, les paramètres intrinsèques de la caméra ( fx , fy , cx , cx ),
61
L’aspect le plus délicat réside dans l’acquisition de données à partir de deux capteurs
simultanément, ce qui s’avère difficile en raison de la différence des fréquences entre la
caméra (16Hz) et le Lidar (30Hz). De plus, l’enregistrement des données Lidar nécessite
plus de temps par rapport à la capture d’images thermiques. Pour résoudre ce problème,
l’écosystème Robot Operating System Robot Operating System (ROS) [50] a été utilisé
pour enregistrer un ROSBAG (qui est un format de fichier qui permet d’enregistrer
les données générées par différents capteurs) en veillant à ce que les différents sujets
(Lidar et images thermiques) aient la même estampille temporelle pendant le processus
d’enregistrement. Cependant, malgré cet effort de synchronisation, de légères différences
subsistent. Par conséquent, un délai délibéré a été introduit dans les enregistrements Lidar
pour obtenir un alignement précis entre la représentation en 3D dans le nuage de points et
l’image thermique.
La figure 3.1 présente en détail les étapes de prétraitement des données de la caméra
thermique ainsi que du Lidar, visant à préparer le terrain en vue d’une éventuelle fusion
de ces données. Pour obtenir une correspondance précise pixel par pixel entre les données,
62
des ajustements doivent être apportés aux coordonnées de l’image u et v, afin de garantir
que chaque point projeté depuis le nuage de points s’aligne avec son pixel correspondant
dans l’image.
Les caméras peuvent présenter des distorsions d’image, telles que la distorsion radiale
et la distorsion tangentielle. La distorsion radiale se caractérise par une courbure de
l’image, plus prononcée vers les bords, tandis que la distorsion tangentielle résulte de
l’objectif de la caméra n’étant pas parfaitement parallèle au plan de l’image, provoquant
un effet de rapprochement dans certaines zones.
63
Pour corriger la distorsion en tonneau des images du capteur thermique, une méthode
de correction a été utilisée, impliquant l’utilisation d’un modèle de distorsion radiale avec
deux coefficients (k1 et k2) et d’un modèle de distorsion tangentielle avec deux autres
coefficients (p1 et p2). Les valeurs de ces coefficients ont été définies comme suit :
k1 = −1.6 × 10−4
(3.2)
k2 = p1 = p2 = 0.0
De plus, une matrice de caméra k, a été définie, c’est une matrice (3x3) qui représente
les paramètres intrinsèques de la caméra, tels que la longueur focale et les coordonnées du
centre qui peut être défini comme suit :
fx 0 cx
k=
0 fy cy
(3.3)
0 0 1
Où :
• fx : Longueur focale selon l’axe des x.
• fy : Longueur focale selon l’axe des y.
• cx : Coordonnée x du centre de l’image.
• cy : Coordonnée y du centre de l’image.
Pour effectuer la correction de la distorsion comme le montre la figure 3.2, la
bibliothèque OpenCV [51] a été utilisée. En fournissant les coefficients de distorsion
(distcoeff), la matrice de caméra (cam), et l’image originale en tant qu’entrées, l’image
a été précisément redressée.
64
Étant donné que les paramètres de distorsion tangentielle (p1 et p2 ) sont initialement
fixés à 0 pour minimiser les modifications significatives de l’image d’origine, une
correction de cette distorsion était nécessaire en ajustant directement les pixels pour les
aligner avec les données 3D.
u
• u1 = : la coordonnée u normalisée en la divisant par la largeur de l’image w.
w
u2 = 2u−w
•
w ×0.93 : mise à l’échelle supplémentaire et translation de la coordonnée
u. Tout d’abord, la coordonnée u est mise à l’échelle dans la plage [-1, 1], puis une
factorisation de 0,93 est appliquée.
u3 = (u2 ) × w2 + w2 : assigne la coordonnée u2 à la largeur d’image d’origine
•
prédéfinie (Tmat ) pour les convertir en coordonnées de la caméra. Ensuite, les points avec
des coordonnées z négatives sont supprimés de l’ensemble de données :
L(u, v, z) si z > 0
L(u, v, z) = (3.4)
0
sinon
L(u′ , v′ ) si u′ < w et v′ < l
L(u, v, z) = (3.6)
0
sinon
Après avoir effectué diverses manipulations sur l’image et le nuage de points, une
projection précise des points sur les pixels correspondants de l’image est obtenue. Cette
projection garantit que chaque point dans le nuage de points correspond à un pixel unique
sur l’image, qui contient une valeur thermique. Pour réaliser cela, une projection inverse
des données est nécessaire afin de transférer les valeurs thermiques de l’image 2D vers
le nuage de points 3D. Pour incorporer cette information, la valeur thermique est ajoutée
comme canal supplémentaire au nuage de points 3D d’origine, le transformant de XYZ
(3 canaux) en XYZT (4 canaux), où la valeur d’intensité est remplacée par la valeur
thermique. Par conséquent, un nuage de points thermique en 3D qui représente avec
précision l’environnement est obtenu.
En revanche, pour le deuxième test utilisant uniquement les données Lidar, la projection
sur l’image n’est pas effectuée. Par conséquent, le nuage de points dans ce cas se compose
également de 4 canaux (XYZI), où le canal d’intensité contient une valeur prédéfinie au
lieu d’une valeur thermique. La figure 3.3 illustre les résultats de la projection des points du
nuage de points 3D dans l’image thermique 2D, à travers cette figure, il est souligné qu’il
est essentiel de procéder aux ajustements proposés au sein de ce chapitre pour permettre
une fusion efficace entre les données 3D et 2D. Cela implique tout d’abord la suppression
des points aberrants du nuage de points ainsi que la réduction de ces données au cadre de
l’image. Pour l’image thermique, une attention particulière doit être portée à l’alignement
précis des pixels afin de garantir que chaque pixel corresponde à un point du nuage de
points. Cette étape est cruciale pour pouvoir projeter avec précision les points du nuage
3D sur l’image thermique 2D.
Une fois la fusion des capteurs Lidar et de la caméra thermique achevée, la prochaine
phase de ce projet de recherche implique l’utilisation d’un réseau neuronal de détection
en 3D pour la détection des obstacles dynamiques. Plus précisément, l’algorithme
PointPillars est utilisé à cette fin. PointPillars est un algorithme largement reconnu et
efficace pour la détection d’objets en 3D, et il contribuera à identifier avec précision les
piétons dans l’environnement.
c est un algorithme conçu spécifiquement pour la détection d’objets dans les nuages
de points, particulièrement adapté aux applications de conduite autonome. Publié en 2018
par Alex H. Lang et al. [53], cet algorithme joue un rôle crucial dans le traitement des
données provenant du Lidar, un capteur essentiel pour comprendre l’environnement des
véhicules autonomes.
Voxelisation
Le nuage de points d’entrée est divisé en petites unités volumétriques appelées voxels.
Chaque voxel contient les points situés à l’intérieur, ce qui permet d’organiser et de
discrétiser le nuage de points.
Dans chaque voxel, des piliers sont construits en regroupant les points le long de la
direction verticale (axe z). Ces piliers fournissent une représentation bidimensionnelle du
nuage de points, et les informations à l’intérieur de chaque pilier sont encodées à l’aide
d’un réseau d’encodeurs de pilier.
Convolution 2D
Les caractéristiques des piliers sont traitées par un réseau de neurones convolutif
2D (CNN), qui prend en compte la clairsemée des données et génère des vecteurs de
caractéristiques de longueur fixe pour chaque pilier.
Les caractéristiques des piliers sont ensuite utilisées par un réseau de proposition de
régions pour générer des propositions de boîtes englobantes pour les objets potentiels dans
la scène. Ce réseau prédit les étiquettes de classe, l’orientation et les paramètres de boîte
englobante 3D pour chaque proposition.
détectés. PointPillars offre plusieurs avantages pour la détection d’objets dans les nuages
de points Lidar. Il traite efficacement les données à grande échelle en exploitant la
clairsemée, permettant des performances en temps réel. De plus, il fournit des prédictions
précises de boîte englobante 3D, ce qui le rend idéal pour des applications telles que la
conduite autonome, où une détection précise des objets est essentielle.
Dans toutes les expériences de détection menées dans cette étude, le jeu de données de
référence utilisé est le KITTI pour la détection d’objets [54]. Ce jeu de données comprend
à la fois des nuages de points Lidar et des images RGB. Cependant, l’entraînement des
modèles est basé uniquement sur les nuages de points Lidar.
En suivant les divisions utilisé par les auteurs de la base de données, Le KITTI
d’origine est divisé en 7481 échantillons d’entraînement et 7518 échantillons de test.
Pour les besoins des études expérimentales, des divisions supplémentaires de l’ensemble
d’entraînement officiel sont effectuées en 3712 échantillons d’entraînement et 3769
échantillons de validation [55].
Dans le cadre de cette recherche particulière, le jeu de données KITTI est exploité
comme référence essentielle pour évaluer et comparer les performances des méthodes
novatrices. Étant composé uniquement de nuages de points 3D et dépourvu d’images
thermiques, l’ajout de cette dernière donne une dimension supplémentaire à l’étude. Il
permet de comparer plus précisément l’efficacité des architectures utilisées en se basant
sur une base de données conventionnelle. Cependant, il ne comprend pas d’images
thermiques, qui sont essentielles pour l’approche de fusion étudiée.
ensemble est obtenu en utilisant le jeu de données KITTI comme référence. Le deuxième
ensemble est généré à partir de données Lidar personnalisées, mais sans utiliser de
fusion de capteurs. Enfin, le troisième ensemble de résultats est obtenu à partir de
données personnalisées, en intégrant la fusion des capteurs et de la caméra thermique.
En comparant ces trois ensembles de résultats, l’efficacité de l’approche de fusion et sa
performance peuvent être évaluées par rapport aux méthodes de pointe.
Une fois les données préparées, elles sont introduites dans le réseau neuronal
spécifique, en l’occurrence le réseau PointPillars.
Ensuite vient le Backbone BEV de base, qui est un Backbone 2D composé de trois
blocs séquentiels. Chaque bloc contient 12, 18 et 18 couches de convolution 2D, de
normalisations par lots 2D et de fonctions d’activation ReLU. Ce réseau Backbone extrait
des caractéristiques significatives de la représentation BEV.
73
Pendant le processus d’entraînement, un total de 200 époques ont été réalisées. Pour
chaque époque, un sous-ensemble de 150 images a été sélectionné à partir de l’ensemble
complet de 1000 images.
Une boîte englobante (BB) est considérée comme un vrai positif (TP) si son
Intersection sur Union (IoU) avec une boîte englobante de vérité terrain (GT) est de 0,5
ou plus. Autrement, si la BB et la GT ne se chevauchent pas suffisamment, elles sont
considérées comme discordantes, entraînant un faux négatif (FN), indiquant une détection
manquée.
Le taux de faux négatifs (MR) est calculé comme le rapport entre le nombre de FN et
le nombre total de boîtes GT. C’est-à-dire :
FN GT − T P
MR = = (3.7)
GT GT
TP
Precision = (3.8)
GT + FP
Dans cette équation, TP représente les vrais positifs, GT désigne le nombre total de
boîtes de vérité terrain, et FP représente les faux positifs.
77
Ces mesures d’évaluation ont été appliquées à un jeu de données composé de 1000
échantillons de test pour évaluer la performance de l’algorithme de détection de piétons.
Dans le cadre de notre évaluation des résultats de PointPillars, deux autres architectures
sont exploré pour comparer les performances des trois méthodes de détection 3D sur les
mêmes jeux de données. L’une de ces méthodes, nommée SECOND [58], qui est un
réseau de détection 3D spécialisé dans la perception d’objets dans des environnements
tridimensionnels, principalement grâce à l’analyse des données Lidar pour produire des
prédictions de détection précises. SECOND est couramment utilisé dans des applications
telles que la détection d’objets dans des scènes de véhicules autonomes, où la précision
et la fiabilité des détections sont cruciales pour garantir la sécurité et les performances du
système.
D’autre part, PvRCNN [59], étant une autre méthode de détection 3D, se distingue
par son approche différente. Contrairement à SECOND, PvRCNN intègre à la fois
des données Lidar et des images de caméra dans son processus de détection, ce qui
lui permet d’exploiter les informations complémentaires fournies par ces deux sources
de données. Cette approche vise à offrir des performances de détection précises et
robustes, en particulier dans des conditions variées. PvRCNN est également fréquemment
utilisé dans des applications de détection d’objets dans des environnements de véhicules
78
Comparaison avec la ligne de base : Les nouvelles données fusionnées sont comparées
aux données Lidar seules de la ligne de base. La fusion des modalités de capteurs démontre
une nette amélioration des performances, en particulier pour les objets lointains, comme le
montre la tableau 3-2. Cette différence souligne les limites de la ligne de base Lidar seule
pour détecter efficacement les objets à distance en raison de la sparsité des points Lidar.
Cependant, l’inclusion de la modalité de la caméra thermique compense avec succès cette
limitation, permettant une meilleure détection des objets éloignés.
Méthode 3D AP (%)
KITTI Personnalisées et Fusionnées Personnalisées sans la fusion
SECOND [58] 54.24 54.19 53.18
PointPillars [53] 54.13 56.89 55.37
PvRCNN [59] 60.94 60.32 59.76
3D AP (%)
Méthode
0–20m 20–40m 40–60m plus de 60m
Lidar seul 89.86 76.72 30.57 28.07
Lidar + Thermal 89.94 75.93 32.86 32.16
Amélioration +0.8 -0.79 +2.29 +4.09
80
été régénérés, et l’application du frein mécanique n’a été introduite qu’après 60 mètres de
régénération.
82
La simulation a montré qu’une distance plus longue est nécessaire pour atteindre
une efficacité énergétique plus élevée. En générant plus d’énergie à travers le freinage
régénératif ainsi, il est nécessaire d’avoir un système de perception solide qui permet de
détecter des obstacles à des distances importantes supérieurs à 30 mètres afin d’accorder
plus de distance de freinage.
La figure 3.10 met en évidence que malgré divers facteurs influençant la dispersion
86
des données 3D, comme les objets obstrués et les conditions météorologiques adverses,
ce qui entraîne une diminution de la précision de détection au fil du temps, l’énergie
régénérée reste élevée. Par exemple, pour une distance de 90 mètres, même si la précision
de détection chute à moins de 0,3 (ce qui signifie que sur 10 obstacles observés à plus de
90 mètres, seuls 3 sont détectés avec succès par l’algorithme), l’énergie potentiellement
récupérable reste élevée avec une valeur de 35 Wh (126,000 J).
Il est donc crucial de noter qu’opter pour des détections à longue distance, même avec
une précision de 0,3 pour des distances supérieures à 60 mètres, est plus bénéfique que de
se concentrer sur une haute précision à des distances inférieures à 30 mètres. Par exemple,
l’énergie récupérable selon la détection pour 90 mètres est de 6 Wh (21,600 J) malgré
une précision de détection de 0,3, tandis que pour une distance de 40 mètres, l’énergie
récupérable n’est que de 3 Wh (10,800 J) malgré une précision de détection de 0,6.
Ainsi, il est préférable dans certains scénarios de régénération de privilégier la distance
de détection plutôt que la précision de détection afin de maximiser l’énergie régénérée.
Cependant, il convient de se questionner sur les effets d’une augmentation de la distance
de détection sur la fluidité de la conduite. En effet, une distance de détection accrue
pourrait entraîner une conduite plus saccadée, caractérisée par des freinages légers mais
intermittents inutiles, attribuables au "bruit" introduit par le nouvel horizon de détection
élargi. Certains obstacles en mouvement pourraient sortir du champ avant l’arrivée du
véhicule. Dans ce contexte, il est important de considérer le couplage de ces algorithmes
de détection avec les algorithmes de prédiction des entrées/sorties dans les champs, afin
d’optimiser à la fois la distance de détection et la fluidité de la conduite, tout en maximisant
l’efficacité énergétique
également d’améliorer la sécurité globale en assurant un freinage plus efficace sur de plus
longues distances.
Chapitre 4 - Conclusion
Ce projet de maîtrise avait pour objectif de proposer une solution visant à améliorer
la perception des véhicules autonomes dans les conditions hivernales afin de maximiser
leur efficacité énergétique. Pour atteindre cet objectif, nous avons mis en place une
méthodologie bien définie. Nous avons d’abord procédé à une analyse des solutions
existantes visant à améliorer la perception des véhicules autonomes en général, dans le
but de mieux comprendre le fonctionnement global du système de perception, d’identifier
ses limitations et de proposer des solutions adaptées. Une observation importante a
été la détection limitée à courte distance dans la plupart des travaux existants, avec
peu d’attention portée à l’aspect énergétique, malgré le risque que les capteurs utilisés
puissent être énergivores et réduire l’autonomie des véhicules en consommant directement
l’énergie stockée dans la batterie. Nous avons également relevé les difficultés des
conducteurs à assurer à la fois une sécurité routière adéquate et une efficacité énergétique
respectable. Ainsi, l’utilisation d’un système d’aide à la conduite approprié peut constituer
une solution potentielle.
Pour remédier à ces limitations, nous avons proposé une solution basée sur la fusion
d’un Lidar 3D et d’une caméra thermique 2D afin d’obtenir un nouveau type de données
résiliant aux variations des conditions météorologiques, à savoir une représentation
thermique 3D de l’environnement. Après l’établissement d’un modèle du véhicule pour
démontrer que plus de temps de freinage permet de générer plus d’énergie, nous avons
proposé une méthode de fusion des données et mis en œuvre le réseau de neurones
PointPillars pour les détections 3D. Les résultats ont montré une légère amélioration de la
précision pour les détections utilisant les données fusionnées, avec la capacité de détecter
des obstacles à plus de 60 mètres. Nous avons ensuite mis en place un algorithme de
programmation dynamique pour optimiser la décélération du véhicule, ce qui a permis
89
de garantir à la fois une meilleure sécurité routière et une meilleure efficacité énergétique
grâce à des profils de freinage optimisés.
Références
[1] S. Digital, “Prévisions : 745 000 véhicules autonomes en 2023,” Le Siècle
Digital, décembre 2019. [Online]. Available: https://siecledigital.fr/2019/12/18/
previsions-745000-vehicules-autonomes-2023/
[2] J. Fayyad, M. A. Jaradat, D. Gruyer, and H. Najjaran, “Deep learning sensor fusion
for autonomous vehicle perception and localization: A review,” Sensors, vol. 20,
no. 15, p. 4220, 2020.
[3] SAE International, “Sae technical report on automated driving,” http://www.sae.org/
misc/pdfs/automated_driving.pdf, 2023, accessed: 09 25, 2023.
[4] M. Ziadia, S. Kelouwani, A. Amammou, and K. Agbossou, “An adaptive
regenerative braking strategy design based on naturalistic regeneration performance
for intelligent vehicles,” IEEE Access, 2023.
[5] R. Heinzler, P. Schindler, J. Seekircher, W. Ritter, and W. Stork, “Weather influence
and classification with automotive lidar sensors,” in 2019 IEEE intelligent vehicles
symposium (IV). IEEE, 2019, pp. 1527–1534.
[6] M. Kutila, P. Pyykönen, W. Ritter, O. Sawade, and B. Schäufele, “Automotive lidar
sensor development scenarios for harsh weather conditions,” in 2016 IEEE 19th
International Conference on Intelligent Transportation Systems (ITSC). IEEE,
2016, pp. 265–270.
[7] D. Otte, M. Jänsch, and C. Haasper, “Injury protection and accident causation
parameters for vulnerable road users based on german in-depth accident study gidas,”
Accident Analysis & Prevention, vol. 44, no. 1, pp. 149–153, 2012.
[8] I. Husain, B. Ozpineci, M. S. Islam, E. Gurpinar, G.-J. Su, W. Yu, S. Chowdhury,
L. Xue, D. Rahman, and R. Sahu, “Electric drive technology trends, challenges, and
opportunities for future electric vehicles,” Proceedings of the IEEE, vol. 109, no. 6,
pp. 1039–1059, 2021.
[9] G. Zubi, R. Dufo-López, M. Carvalho, and G. Pasaoglu, “The lithium-ion battery:
State of the art and future perspectives,” Renewable and Sustainable Energy Reviews,
vol. 89, pp. 292–308, 2018.
[10] C. Wang, X. Zhang, H. Dong, X. Chen, and W. Hu, “Challenges and emerging
opportunities in high-mobility and low-energy-consumption organic field-effect
transistors,” Advanced Energy Materials, vol. 10, no. 29, p. 2000955, 2020.
[11] F. Wang and B. Zhuo, “Regenerative braking strategy for hybrid electric vehicles
based on regenerative torque optimization control,” Proceedings of the Institution of
Mechanical Engineers, Part D: Journal of Automobile Engineering, vol. 222, no. 4,
pp. 499–513, 2008.
[12] C. Qiu, G. Wang, M. Meng, and Y. Shen, “A novel control strategy of regenerative
braking system for electric vehicles under safety critical driving situations,” Energy,
vol. 149, pp. 329–340, 2018.
91
[13] S. Liu, Z. Li, H. Ji, Z. Hou, and L. Fan, “A novel electric vehicle braking energy
recovery method based on model free adaptive control algorithm with input and
output constraints,” in 2021 IEEE 10th Data Driven Control and Learning Systems
Conference (DDCLS). IEEE, 2021, pp. 1503–1509.
[14] F. Sangtarash, V. Esfahanian, H. Nehzati, S. Haddadi, M. A. Bavanpour, and
B. Haghpanah, “Effect of different regenerative braking strategies on braking
performance and fuel economy in a hybrid electric bus employing cruise vehicle
simulation,” SAE International Journal of Fuels and Lubricants, vol. 1, no. 1, pp.
828–837, 2009.
[15] J. Han, A. Vahidi, and A. Sciarretta, “Fundamentals of energy efficient driving
for combustion engine and electric vehicles: An optimal control perspective,”
Automatica, vol. 103, pp. 558–572, 2019.
[16] F. K. Ayevide, S. Kelouwani, A. Amamou, M. Kandidayeni, and H. Chaoui,
“Estimation of a battery electric vehicle output power and remaining driving range
under subfreezing conditions,” Journal of Energy Storage, vol. 55, p. 105554, 2022.
[17] J. Biao, Z. Xiangwen, W. Yangxiong, and H. Wenchao, “Regenerative braking
control strategy of electric vehicles based on braking stability requirements,”
International Journal of Automotive Technology, vol. 22, pp. 465–473, 2021.
[18] K. Kaya and Y. Hames, “Two new control strategies: For hydrogen fuel saving and
extend the life cycle in the hydrogen fuel cell vehicles,” International Journal of
Hydrogen Energy, vol. 44, no. 34, pp. 18 967–18 980, 2019.
[19] T. Kim, “Regenerative braking control of a light fuel cell hybrid electric vehicle,”
Electric Power Components and Systems, vol. 39, no. 5, pp. 446–460, 2011.
[20] F. Wang and B. Zhuo, “Regenerative braking strategy for hybrid electric vehicles
based on regenerative torque optimization control,” Proceedings of the Institution of
Mechanical Engineers, Part D: Journal of Automobile Engineering, vol. 222, no. 4,
pp. 499–513, 2008.
[21] H. Liu, Y. Lei, Y. Fu, and X. Li, “An optimal slip ratio-based revised regenerative
braking control strategy of range-extended electric vehicle,” Energies, vol. 13, no. 6,
p. 1526, 2020.
[22] K. Min, G. Sim, S. Ahn, M. Sunwoo, and K. Jo, “Vehicle deceleration prediction
model to reflect individual driver characteristics by online parameter learning for
autonomous regenerative braking of electric vehicles,” Sensors, vol. 19, no. 19, p.
4171, 2019.
[23] S. Chen, J. Hu, Y. Shi, Y. Peng, J. Fang, R. Zhao, and L. Zhao, “Vehicle-to-everything
(v2x) services supported by lte-based systems and 5g,” IEEE Communications
Standards Magazine, vol. 1, no. 2, pp. 70–76, 2017.
[24] G. Melotti, C. Premebida, N. M. d. S. Gonçalves, U. J. Nunes, and D. R. Faria,
“Multimodal cnn pedestrian classification: a study on combining lidar and camera
data,” in 2018 21st International Conference on Intelligent Transportation Systems
(ITSC). IEEE, 2018, pp. 3138–3143.
92
[25] Y. Wu, R. Ding, J. Yang, and M. Lin, “3d thermal mapping using a 2d laser
rangefinder and a thermal camera,” in Proceedings of the International Conference
on Video and Image Processing, 2017, pp. 207–211.
[26] C. Schönauer, E. Vonach, G. Gerstweiler, and H. Kaufmann, “3d building
reconstruction and thermal mapping in fire brigade operations,” in Proceedings of
the 4th Augmented Human International Conference, 2013, pp. 202–205.
[27] S. Xu, D. Zhou, J. Fang, J. Yin, Z. Bin, and L. Zhang, “Fusionpainting: Multimodal
fusion with adaptive attention for 3d object detection,” in 2021 IEEE International
Intelligent Transportation Systems Conference (ITSC). IEEE, 2021, pp. 3047–3054.
[28] Y. Cui, R. Chen, W. Chu, L. Chen, D. Tian, Y. Li, and D. Cao, “Deep learning for
image and point cloud fusion in autonomous driving: A review,” IEEE Transactions
on Intelligent Transportation Systems, vol. 23, no. 2, pp. 722–739, 2021.
[29] J. D. Choi and M. Y. Kim, “A sensor fusion system with thermal infrared camera
and lidar for autonomous vehicles and deep learning based object detection,” ICT
Express, vol. 9, no. 2, pp. 222–227, 2023.
[30] D. De Pazzi, M. Pertile, and S. Chiodini, “3d radiometric mapping by means of lidar
slam and thermal camera data fusion,” Sensors, vol. 22, no. 21, p. 8512, 2022.
[31] H. Zhong, H. Wang, Z. Wu, C. Zhang, Y. Zheng, and T. Tang, “A survey of lidar and
camera fusion enhancement,” Procedia Computer Science, vol. 183, pp. 579–588,
2021.
[32] J. Alfred Daniel, C. Chandru Vignesh, B. A. Muthu, R. Senthil Kumar,
C. Sivaparthipan, and C. E. M. Marin, “Fully convolutional neural networks for
lidar–camera fusion for pedestrian detection in autonomous vehicle,” Multimedia
Tools and Applications, pp. 1–24, 2023.
[33] W. Chen, P. Li, and H. Zhao, “Msl3d: 3d object detection from monocular, stereo and
point cloud for autonomous driving,” Neurocomputing, vol. 494, pp. 23–32, 2022.
[34] P. Delaigue and A. Eskandarian, “A comprehensive vehicle braking model for
predictions of stopping distances,” Proceedings of the Institution of Mechanical
Engineers, Part D: Journal of Automobile Engineering, vol. 218, no. 12, pp.
1409–1417, 2004.
[35] A. Fortina, M. Velardocchia, and A. Sorniotti, “Braking system components
modelling,” SAE technical paper, Tech. Rep., 2003.
[36] M. Panagiotidis, G. Delagrammatikas, and D. Assanis, “Development and use of a
regenerative braking model for a parallel hybrid electric vehicle,” SAE transactions,
pp. 1180–1191, 2000.
[37] F. L. Lewis and V. L. Syrmos, “Optimal control,” 1995.
[38] N. Kim, S. Cha, and H. Peng, “Optimal control of hybrid electric vehicles based on
pontryagin’s minimum principle,” IEEE Transactions on control systems technology,
vol. 19, no. 5, pp. 1279–1287, 2010.
93
[39] ——, “Optimal control of hybrid electric vehicles based on pontryagin’s minimum
principle,” IEEE Transactions on control systems technology, vol. 19, no. 5, pp.
1279–1287, 2010.
[40] B. Biswas, S. Chatterjee, S. Mukherjee, and S. Pal, “A discussion on euler method: A
review,” Electronic Journal of Mathematical Analysis and Applications, vol. 1, no. 2,
pp. 2090–2792, 2013.
[41] A. Bapat and S. Jordan, “Bang-bang control as a design principle for classical and
quantum optimization algorithms,” arXiv preprint arXiv:1812.02746, 2018.
[42] R. Gade and T. B. Moeslund, “Thermal cameras and applications: a survey,” Machine
vision and applications, vol. 25, pp. 245–262, 2014.
[43] R. Collis, “Lidar,” Applied optics, vol. 9, no. 8, pp. 1782–1788, 1970.
[44] W. S. Kim, A. I. Ansar, R. D. Steele, and R. C. Steinke, “Performance analysis
and validation of a stereo vision saystem,” in 2005 ieee international conference
on systems, man and cybernetics, vol. 2. IEEE, 2005, pp. 1409–1416.
[45] H. A. Ignatious, M. Khan et al., “An overview of sensors in autonomous vehicles,”
Procedia Computer Science, vol. 198, pp. 736–741, 2022.
[46] “Flir lepton 3 - 25 degree,” https://www.flircameras.com/436-0024-00.htm, consulté
le 23 avril 2024.
[47] RoboSense, “Technical specification of robosense rs-ruby lidar,” 2020, consulté
le 23 avril 2024. [Online]. Available: https://cdn.robosense.cn/20200723161715_
42428.pdf
[48] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving ? the kitti
vision benchmark suite,” in 2012 IEEE conference on computer vision and pattern
recognition. IEEE, 2012, pp. 3354–3361.
[49] J. D. Choi and M. Y. Kim, “A sensor fusion system with thermal infrared camera
and lidar for autonomous vehicles and deep learning based object detection,” ICT
Express, vol. 9, no. 2, pp. 222–227, 2023.
[50] M. Quigley, B. Gerkey, and W. D. Smart, Programming Robots with ROS: a practical
introduction to the Robot Operating System. " O’Reilly Media, Inc.", 2015.
[51] G. Bradski, “The OpenCV Library,” Dr. Dobb’s Journal of Software Tools, vol. 25,
no. 11, pp. 120–123, Nov 2000.
[52] M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for
model fitting with applications to image analysis and automated cartography,”
Communications of the ACM, vol. 24, no. 6, pp. 381–395, 1981.
[53] A. H. Lang, S. Vora, H. Caesar, L. Zhou, J. Yang, and O. Beijbom, “Pointpillars: Fast
encoders for object detection from point clouds,” in Proceedings of the IEEE/CVF
conference on computer vision and pattern recognition, 2019, pp. 12 697–12 705.
[54] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving ? the kitti
vision benchmark suite,” in 2012 IEEE conference on computer vision and pattern
recognition. IEEE, 2012, pp. 3354–3361.
94
[55] X. Chen, K. Kundu, Y. Zhu, A. G. Berneshawi, H. Ma, S. Fidler, and R. Urtasun, “3d
object proposals for accurate object class detection,” Advances in neural information
processing systems, vol. 28, 2015.
[56] J. Stanisz, K. Lis, and M. Gorgon, “Implementation of the pointpillars network for
3d object detection in reprogrammable heterogeneous devices using finn,” Journal
of Signal Processing Systems, vol. 94, 07 2022.
[57] P. Dollár, C. Wojek, B. Schiele, and P. Perona, “Pedestrian detection: A benchmark,”
in 2009 IEEE conference on computer vision and pattern recognition. IEEE, 2009,
pp. 304–311.
[58] Y. Yan, Y. Mao, and B. Li, “Second: Sparsely embedded convolutional detection,”
Sensors, vol. 18, no. 10, p. 3337, 2018.
[59] S. Shi, C. Guo, L. Jiang, Z. Wang, J. Shi, X. Wang, and H. Li, “Pv-rcnn: Point-voxel
feature set abstraction for 3d object detection,” in Proceedings of the IEEE/CVF
conference on computer vision and pattern recognition, 2020, pp. 10 529–10 538.