Chapitre I

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 15

CHAPITRE I : Concepts et généralités

I. Introduction
La sécurité routière a pour objectif de réduire les risques qu’un accident de la route ne
survienne en faisant évoluer les règles et les obligations associées aux conducteurs, aux
véhicules et aux aménagements des voies afin de réduire les risques que les accidents de la
route ne se produisent. Les solutions intelligentes et automatisées de contrôle de la circulation
sont utilisées de manière omniprésente, pour la détection de violation de feu de signalisation,
la détection de violation de vitesse, pour la détection de violation de ceinture de sécurité etc.

Pour commencer il nous faut tout d’abord définir les notions importantes liées à l’application
du l’apprentissage profond « Deep Learning » sur la détection des plaques d’immatriculation
des véhicules qui grillent le feu de signalisation.

Revoir sa position

Dans ce chapitre, nous allons présenter une généralité sur la détection d’objet dans une image,
un bref aperçu sur les concepts relatifs au deep Learning et aux réseaux de neurones, ainsi
qu’une introduction aux systèmes de détection des plaques d’immatriculation, la
reconnaissance des formes et suivi d’une conclusion.

II. Détection d’objets dans une image


En vision par ordinateur on désigne par détection d'objet (ou classification d'objet) une
méthode permettant de détecter la présence d'une instance (reconnaissance d'objet) ou
d'une classe d'objets dans une image numérique. Une attention particulière est portée à
la détection de visage et la détection de personne. Ces méthodes font souvent appel à
l'apprentissage supervisé et ont des applications dans de multiples domaines, tels la recherche
d'image par le contenu ou la vidéo surveillance.

L'approche générale pour détecter un objet dans une image (sans connaissance a priori sur les
conditions de prise de vue) consiste en trois étapes :

 Déterminer les localisations potentielles de l'objet, soit au moyen d'une fenêtre


glissante sur l'image, soit directement en détectant les points d'intérêt en son sein.
 Extraire des caractéristiques dans l'image permettant d'identifier la classe d'objet visée
 Classifier automatiquement chaque sous fenêtre comme contenant l'objet recherché ou
pas ou bien apparier les caractéristiques extraites avec celles d'un modèle de référence.

La détection d’objets est souvent abordée dans le domaine de l’apprentissage automatique


(machine learning). Il existe plusieurs techniques et implémentations dans ce domaine,
chacune, présentant ses avantages et ses inconvénients. Toujours dans le contexte de la
détection d’objets, nous verrons dans les parties suivantes quelques notions générales autour
du machine learning.
III. Apprentissage automatique
Il faut être bref sur cette partie

L'apprentissage automatique (en anglais : machine learning) est un champ d'étude de


l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour
donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer
leurs performances à résoudre des tâches sans être explicitement programmés pour chacune.
Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et
l'implémentation de telles méthodes. On parle d'apprentissage statistique car l'apprentissage
consiste à créer un modèle dont l'erreur statistique moyenne est la plus faible possible.

L'apprentissage automatique comporte généralement deux phases. La première consiste à


estimer un modèle à partir de données, appelées observations, qui sont disponibles et en
nombre fini, lors de la phase de conception du système. L'estimation du modèle consiste à
résoudre une tâche pratique, telle que traduire un discours, estimer une densité de probabilité,
reconnaître la présence d'un chat dans une photographie ou participer à la conduite d'un
véhicule autonome. Cette phase dite « d'apprentissage » ou « d'entraînement » est
généralement réalisée préalablement à l'utilisation pratique du modèle. La seconde phase
correspond à la mise en production : le modèle étant déterminé, de nouvelles données peuvent
alors être soumises afin d'obtenir le résultat correspondant à la tâche souhaitée. En pratique,
certains systèmes peuvent poursuivre leur apprentissage une fois en production, pour peu
qu'ils aient un moyen d'obtenir un retour sur la qualité des résultats produits. [30]

Trois principaux types d'algorithmes de machine l’apprentissage automatique sont utilisés


aujourd'hui : l'apprentissage supervisé, l'apprentissage non supervisé et l’apprentissage par
renforcement. La différence entre les trois se définit par la méthode employée pour traiter les
données afin de faire des prédictions.

 Apprentissage supervisé : Les algorithmes de l’apprentissage supervisé sont


les plus couramment utilisés. Avec ce modèle, un data scientist sert de guide et
enseigne à l’algorithme les conclusions qu’il doit tirer. Tout comme un enfant apprend
à identifier les fruits en les mémorisant dans un imagier, en apprentissage supervisé,
l’algorithme apprend grâce à un jeu de données déjà étiqueté et dont le résultat est
prédéfini.
 Apprentissage non supervisé : L’apprentissage non supervisé utilise une
approche plus indépendante dans laquelle un ordinateur apprend à identifier des
processus et des schémas complexes sans un quelconque guidage humain constant et
rigoureux. Le machine learning non supervisé implique une formation basée sur des
données sans étiquette ni résultat spécifique défini. [31]
 L’apprentissage par renforcement : est une partie de l’apprentissage automatique
qui s'intéresse à la prise de décision, dans ce type d’apprentissage, un ensemble de
données d’entrées non étiquetées sera utilisé, afin de laisser l’algorithme à trouver tout
seul les points communs parmi cet ensemble de données. Etant une branche de
l’apprentissage automatique, dans l’apprentissage par renforcement un agent
intelligent apprend directement à partir d’expériences basées sur les données sans être
exclusivement modélisé par un modèle statistique. [1.1]
Fig2 : Processus d’autoapprentissage [2]
1. Les réseaux de neurones artificiels
a. Le neurone formel(artificiel)
Le neurone artificiel s’inspire grossièrement d’un neurone biologique, il désigne le nœud,
l’unité de base ou l’unité de calcul élémentaire d’un réseau de neurones artificiels (neural
network). Le neurone artificiel reçoit généralement plusieurs valeurs d’entrée et calcule une
valeur de sortie en appliquant une fonction d’activation (transformation non linéaire) à une
somme pondérée des valeurs d’entrée.[35]

Fig4 : Modèle d'un neurone artificiel. [4]

La figure ci-dessus montre la structure d’un neurone artificiel qui est composé de :

 Entrées : Un neurone artificiel reçoit généralement plusieurs valeurs d’entrée x. Ces entrées
peuvent provenir de données externes ou des sorties d’autres neurones dans le réseau.
 Poids : Les entrées x sont multipliées par les poids w, ils représentent les paramètres
internes du perceptron.

 Somme : Toutes les multiplications sont sommées avec ajout d’un biais.

 Activation : La somme pondérée passe ensuite à travers une fonction d’activation pour
produire la sortie du neurone

 Sortie : La sortie sera donc le résultat de la fonction d’activation

b. Les réseaux de neurones


Les réseaux de neurones artificiels sont des modèles mathématiques inspirés de la biologie.
La brique de base de ces réseaux, le neurone artificiel, était issu au départ d'une volonté de
modélisation du fonctionnement d'un neurone biologique.

Un réseau de neurones est un assemblage de neurones connectés entre eux qui permet de
résoudre de nombreux problèmes d'intelligence artificielle.

La figure ci-dessous représente la structure d’un réseau de neurones

Fig5 : Structure d'un réseau de neurones

Schématiquement, le fonctionnement est le suivant :

• Les neurones sont organisés en couches successives : chaque neurone reçoit une information
(une entrée) issue des neurones de la couche qui précède.

• Chacune de ces informations est pondérée : elle est multipliée par une valeur qui lui confère
un "poids" w particulier.

• Les entrées ainsi pondérées sont additionnées.

• Elles sont traitées par une fonction objective dont le but est d'adapter la valeur de sortie à
une plage de valeurs.

• La valeur de sortie issue de cette fonction constitue l'entrée de l'ensemble des neurones de la
couche suivante.[34]
c. Apprentissage d’un réseau de neurone
L'apprentissage est une phase du développement d'un réseau de neurones durant laquelle le
comportement du réseau est modifié jusqu'à l'obtention du comportement désiré.
L'apprentissage neuronal fait appel à des exemples de comportement.

Dans le cas des réseaux de neurones artificiels, on ajoute souvent à la description du modèle
l'algorithme d'apprentissage. Le modèle sans apprentissage présente en effet peu d'intérêt.
Dans la majorité des algorithmes actuels, les variables modifiées pendant l'apprentissage sont
les poids des connexions. L'apprentissage est la modification des poids du réseau dans
l'optique d'accorder la réponse du réseau aux exemples et à l'expérience. Il est souvent
impossible de décider à priori des valeurs des poids des connexions d'un réseau pour une
application donnée. A l'issu de l'apprentissage, les poids sont fixés : c'est alors la phase
d'utilisation. Certains modèles de réseaux sont improprement dénommés à apprentissage
permanent. Dans ce cas il est vrai que l'apprentissage ne s'arrête jamais, cependant on peut
toujours distinguer une phase d'apprentissage (en fait de remise à jour du comportement) et
une phase d'utilisation. Cette technique permet de conserver au réseau un comportement
adapté malgré les fluctuations dans les données d'entrées. [37]

Au niveau des algorithmes d'apprentissage, il a été défini deux grandes classes selon que
l'apprentissage est dit supervisé ou non supervisé. Cette distinction repose sur la forme des
exemples d'apprentissage. Dans le cas de l'apprentissage supervisé, les exemples sont des
couples (Entrée, Sortie associée) alors que l'on ne dispose que des valeurs (Entrée) pour
l'apprentissage non supervisé. Remarquons cependant que les modèles à apprentissage non
supervisé nécessitent avant la phase d'utilisation une étape de labélisation effectuée
l'opérateur, qui n'est pas autre chose qu'une part de supervision. [37]

La règle d'apprentissage du Perceptron :

1. Initialisation des poids et du seuil S à des valeurs (petites) choisies au hasard.


2. Présentation d'une entrée E1 = (e1, ... e1) de la base d'apprentissage.
3. Calcul de la sortie obtenue x pour cette entrée :

4. Si la sortie x du Perceptron est différente de la sortie désirée d 1 pour cet exemple


d'entrée E1 alors modification des poids (µ le pas de modification) :

Rappel : d1 = +1 si E est de la classe 1, d1 = -1 si E est de la classe 2 et (d1 - x) est une


estimation de l'erreur.

5. Tant que tous les exemples de la base d'apprentissage ne sont pas traités correctement
(modification des poids), retour à l'étape 2. [37]
IV. L’apprentissage profond
1. Définition
L’apprentissage profond (en anglais deep learning )est un type d'intelligence artificielle
dérivé du machine learning (apprentissage automatique) où la machine est capable
d'apprendre par elle-même, contrairement à la programmation où elle se contente d'exécuter à
la lettre des règles prédéterminées. [33]

2. Fonctionnement du deep learning


Le deep learning se base sur un réseau de neurones artificiels imitant le cerveau humain. Cette
structure est disposée en plusieurs couches, interconnectées entre elles.
La première couche correspond aux neurones d'entrée et la dernière transmet les résultats de
sortie. Entre les deux se trouvent plusieurs couches intermédiaires par lesquelles l'information
est traitée. Cette architecture est propre au deep learning et permet que chaque couche analyse
de manière plus précise les données d'entrée.
Ainsi, plus le réseau de neurones artificiels est profond et donc contient plusieurs
couches, plus le système peut effectuer des tâches complexes. Il est capable de déterminer par
lui-même une représentation de ce qu'il reçoit, que ce soit une image ou un texte. [32]

Par exemple, le modèle de deep learning connu sous le nom de réseau neuronal convolutif
peut être entraîné à l'aide d'un grand nombre (des millions) d'images, des images représentant
des chats par exemple. Ce type de réseau neuronal tire son apprentissage des pixels contenus
dans les images reçues. Il peut classer des groupes de pixels en fonction des caractéristiques
du chat telles que les griffes, les oreilles, les yeux indiquant la présence de l'animal dans
l'image.

Le deep learning est très différent du machine learning classique. Dans cet exemple, un expert
dans ce domaine passerait un temps considérable à mettre au point un système de machine
learning capable de détecter les caractéristiques représentatives du chat. Avec le deep
learning, il suffit de fournir au système un très grand nombre d'images de chats pour qu'il en
retienne de façon autonome les caractéristiques. [33]
Fig2 : Processus d’autoapprentissage [2]
3. Quelques algorithmes de deep learning
Plusieurs types d'algorithmes sont utilisés en apprentissage profond. Chaque algorithme
possède ses propres spécificités et applications.

 Réseaux neuronaux convolutifs (CNN)


Également appelés ConvNets, les CNN sont constitués d'une multitude de couches chargées
de traiter et d'extraire les caractéristiques des données. De manière spécifique, les réseaux
neuronaux convolutifs sont utilisés pour l'analyse et la détection d'objets. Ils peuvent donc
servir par exemple à reconnaître des images satellites, traiter des images médicales, détecter
des anomalies ou prédire des séries chronologiques.

 Réseaux neuronaux récurrents (RNN)


Les réseaux neuronaux récurrents possèdent des connexions qui constituent des cycles dirigés.
Cela permet aux sorties du LSTM d'être exploitées comme entrées au niveau de la phase
actuelle. La sortie du LSTM se transforme en une entrée pour la phase actuelle. Elle peut donc
mémoriser les entrées précédentes à l'aide de sa mémoire interne. Dans la pratique, les RNN
sont utilisés pour le sous-titrage d'images, le traitement du langage naturel et la traduction
automatique.

 Réseaux de fonction de base radiale (RBFN)


Ces algorithmes sont des réseaux neuronaux feedforward assez particuliers. Ils exploitent des
fonctions de base radiales en tant que fonctions d'activation. Ils sont constitués d'une couche
d'entrée, d'une couche cachée et d'une couche de sortie. Généralement, les RBFN sont utilisés
dans la classification, la prédiction des séries temporelles et la régression linéaire.

 Réseaux de mémoire à long et court terme (LSTM)


Les LSTM sont des dérivés de RNN. Ils peuvent apprendre et mémoriser des dépendances sur
une longue durée. Les LSTM conservent ainsi les informations mémorisées sur le long terme.
Ils sont particulièrement utiles pour prédire des séries chronologiques, car ils se rappellent
des entrées précédentes. Outre ce cas d'utilisation, les LSTM sont également utilisés pour
composer des notes de musique et reconnaître des voix.

 Réseaux adversariaux génératifs (GAN)


Les GAN créent de nouvelles instances de données qui s'apparentent aux données
d'apprentissage profond. Ils possèdent deux principaux composants : un générateur et un
discriminateur. Si le générateur apprend à produire des informations erronées, le
discriminateur, quant à lui, apprend à exploiter ces fausses informations. Les GAN sont
généralement utilisés par les créateurs de jeux vidéo pour améliorer les textures 2D. [38]
4. Les Réseaux de neurones convolutifs (CNNs)
Les réseaux de neurones convolutifs ont une méthodologie similaire à celle des méthodes
traditionnelles d'apprentissage supervisé : ils reçoivent des images en entrée, détectent les
features automatiquement de chacune d'entre elles, puis entraînent un classifieur dessus. Donc
les CNN réalisent eux-mêmes tout le boulot fastidieux d'extraction et description de features.
L'extraction et la hiérarchisation automatiques des features, qui s'adaptent au problème donné,
constituent une des forces des réseaux de neurones convolutifs.

Aujourd'hui, les réseaux de neurones convolutifs, aussi appelés CNN ou ConvNet pour
Convolutional Neural Network, sont toujours les modèles les plus performants pour la
détection et la classification d'images.

Comme pour les réseaux de neurones ordinaires, les paramètres des couches sont déterminés
par rétropropagation du gradient : l'entropie croisée est minimisée lors de la phase
d'entraînement. Mais dans le cas des CNN, ces paramètres désignent en particulier les features
des images. Il existe quatre types de couches pour un réseau de neurones convolutif : la
couche de convolution, la couche de pooling, la couche de correction ReLU et la couche
fully-connected.

a. Architecture de réseaux de neurone convolutionnel


Une architecture CNN est formée par un empilement de couches de traitement
indépendantes :

 La couche de convolution (CONV) qui traite les données d'un champ récepteur
 La couche de pooling (POOL), qui permet de compresser l'information en réduisant la
taille de l'image intermédiaire (souvent par sous-échantillonnage)
 La couche de correction (ReLU), souvent appelée par abus 'ReLU' en référence à la
fonction d'activation (Unité de rectification linéaire)
 La couche "entièrement connectée" (FC), qui est une couche de type perceptron.
 La couche de perte (LOSS)
Figure 6 : Architecture CNN [3]

5. Fonctionnement d’un CNN


Un CNN est composé de plusieurs couches d'opérations, chacune avec sa propre fonction. Le
CNN prend une image en entrée et la transmet à la première couche. Les informations sur les
entités sont propagées à travers les couches cachées. Pour chaque couche, les fonctions
d'activation effectuent une activation élément par élément à la sortie produite par la couche
précédente. La sortie de la couche finale est ensuite comparée à la sortie cible.

a. Couche de convolution (CONV)


La couche convolutionnelle joue un rôle important dans le fonctionnement des CNN. La
convolution est une opération mathématique comme l’addition et la multiplication, il est très
utile de simplifier des équations plus complexes, cette opération est largement utilisée dans le
traitement du signal numérique. Lorsque on applique la convolution aux le traitement
d’image, on convoler (combiner) l’image d’entrée avec une sous-région de cette image
(filtre). Le filtre est aussi connu sous le nom du noyau de convolution, il consiste en des poids
de cette sous-région. La sortie de cette couche est l’image entrée avec des modifications qui
est souvent appelée une carte de caractéristique (feature Map). [1.2]

Figure 7 : L'opération de convolution [4]

par son nombre N de cartes de convolution M ij (j ∈ {1, . . ., N}), la taille des noyaux de
En terme mathématique, Une couche de convolution C i (couche i du réseau) est paramétrée

convolution Kx × Ky (souvent carrée), et le schéma de connexion à la couche précédente L i-1.


Chaque carte de convolution Mij est le résultat d’une somme de convolution des cartes de la
couche précédente Mi-1j par son noyau de convolution respectif. Un biais b ij est ensuite ajouté
et le résultat est passé à une fonction de transfert non-linéaire φ. Dans le cas d’une carte
complètement connectée aux cartes de la couche précédente, le résultat est alors calculé par :
[1.2]

b. Couche de sous-échantillonnage (Pooling)

Dans les architectures classiques de réseaux de neurones convolutionnels, les couches de


convolution sont suivies par des couches de sous échantillonnage (couche d’agrégation). Cette
dernière réduit la taille des cartes de caractéristique pour but de diminuer la taille de
paramètre, et renvoie les valeurs maximales des régions rectangulaires de son entrée. [1.2]

c. Couche entièrement connectée


Les paramètres des couches de convolution et de max agrégation sont choisis de sorte que les
cartes d’activation de la dernière couche soient de taille 1, ce qui résulte en un vecteur 1D
d’attributs. Des couches classiques complètement connectées composées de neurones sont
alors ajoutées au réseau pour réaliser la classification. La dernière couche, dans le cas d’un
apprentissage supervisé, contient autant de neurones que de classes désirées. Cette dernière
couche contient N neurones (nombre des classes dans la base), et une fonction d’activation de
type sigmoïde est utilisée afin d’obtenir des probabilités d’appartenance à chaque classe. [1.2]

La fonction d'activation 𝜑 est appliquée à la sortie d'une couche de convolution pour limiter
d. Fonctions d'activation

la sortie de chaque neurone et pour introduire des non-linéarités aux activations linéaires
générées par une couche de convolution. Quelques exemples de certaines des fonctions
d'activation populaires utilisées dans les réseaux de neurones pour les tâches de classification
et de détection sont donnés comme suit :

 Unité linéaire rectifiée (ReLU)

La couche d'unité linéaire rectifiée (en anglais rectified linear unit layer) est l'une des
fonctions d'activation les plus couramment utilisées dans l'apprentissage en profond, qui est
calculée comme suit:

𝑓(𝑥) = max(0, 𝑥).

Les fonctions d'activation ReLU sont très populaires pour la création d'un réseau non linéaire
car il est plus facile de se différencier pour la rétropropagation du gradient. Même si la
fonction ReLU n'est pas différenciable à zéro contrairement à la fonction d'activation
sigmoïdale, qui a des dérivées lisses, elle converge toujours plus rapidement que la fonction
tangente sigmoïde et hyperbolique.

 Unité linéaire rectifiée Leaky (Leaky ReLU)

La fonction d'activation Leaky ReLU est similaire à la fonction ReLU avec une différence clé:
elle permet un petit gradient positif lorsque l'unité est inactive. Un Leaky ReLU est calculé
comme suit :

𝑓(𝑥) = max(𝑥, 𝑎𝑥).


 La fonction sigmoïde

La fonction Sigmoïde était la fonction d'activation la plus utilisée avant ReLU, qui prend les
valeurs réelles en entrée et sort les valeurs dans l’intervalle [0, 1]. La fonction sigmoïde est
définie comme suit :

Les valeurs d'entrée négatives plus grandes ont tendance à être plus proches de 0 tandis que
les entrées positives plus grandes sont plus proches de 1. La fonction sigmoïde est rarement
utilisée maintenant car elle souffre des problèmes de saturation de gradient et d'un calcul plus
lent. En plus n'est pas centré en zéro.

 La fonction tangente hyperbolique

La fonction tangente hyperbolique ou tanh est similaire à la fonction sigmoïde avec une
différence de sortie, variant dans l'intervalle [−1, 1] au lieu de [0, 1]. Il est défini comme :

e. L’entrainement d’un CNN


L’entrainement d'un CNN pour une tâche de traitement d'image signifie le calcul d'une perte
en comparant les prédictions de sortie avec les sorties ciblées. Pendant l'entraînement, le
passage en arrière est calculé. Le passage en arrière peut simplement être décrit comme la
sensibilité de la perte par rapport aux changements des paramètres du réseau. L'objectif
principal de l’entrainement d'un CNN est de minimiser la fonction de perte dans l'ensemble de
données d’entrainement en modifiant les paramètres entraînables du réseau, tels que les poids
et les biais, à l'aide de passage en arrière.

Fonction de perte (Loss Function)

Les fonctions de perte sont les fonctions différenciables utilisées pour guider le processus
d'apprentissage d'un réseau neuronal. Pour s’entrainer un CNN pour une tâche de détection

régression. Mathématiquement, la fonction de perte mappe la sortie du réseau 𝑦 et la sortie


d'objets, les réseaux sont généralement optimisés pour les éléments de classification et de

ciblée 𝑦̂ sur une valeur réelle représentant la pénalité pour l'inexactitude des prédictions. Les
fonctions de perte les plus utilisées pour les problèmes de classification sont l'erreur
quadratique moyenne totale (perte TMSE ou L2), entropie croisée (CEL) et la perte Softmax.
Pour un problème de régression, les fonctions de perte peuvent varier d'un réseau à l'autre.
[1.3]

pour la sortie réseau 𝑦 et la sortie cible 𝑦̂ est définie comme suit :


 Erreur quadratique moyenne (TMSE) : L'erreur quadratique moyenne totale (TMSE)
Où 𝑛 et 𝑙 représentent respectivement le nombre d'échantillons d'apprentissage et le
nombre de neurones de sortie. Le terme ‖𝑦𝑖 − 𝑦̂𝑖‖ est la distance euclidienne entre 𝑦
et 𝑦̂.
La perte d'entropie croisée (CEL) : La perte d'entropie croisée pour la sortie réseau 𝑦
et la sortie cible 𝑦̂ est définie comme suit :

[1.3]
 La perte Softmax : La perte Softmax est l'une des fonctions de perte les plus
couramment utilisées dans les CNN. Il prend un vecteur N-dimensionnel de valeurs

que la somme soit égale à 1. Étant donné une matrice d'entrée 𝑋𝑛,𝑘, la perte Softmax
réelles et le transforme en vecteur de valeurs réelles dans un intervalle [0,1] de sorte

est définie comme suit :

Et la perte est calculée comme :

Où N est la taille du batch et K est le nombre d'identités (c'est-à-dire les étiquettes de


classe).

V. La reconnaissance des formes


La reconnaissance des formes (également appelée classification ou classification des
formes) est un dans le domaine de l’intelligence artificielle et peut être défini comme
« l’acte de la prise en compte des données brutes et la prise d’une action basée sur la
catégorie des données ». Il utilise méthodes de statistiques, d’apprentissage automatique et
d’autres domaines.

1. Les applications typiques


Les applications typiques de la reconnaissance de formes sont :
 Reconnaissance automatique de la parole.
 Classification du texte en plusieurs catégories (par exemple, spam/non-spam
messages).
 La reconnaissance automatique des codes postaux manuscrits sur les enveloppes
postales.
 La reconnaissance automatique d’images de visages humains, etc.
Les trois derniers exemples forment le sous-thème de l’analyse d’image de la
reconnaissance de formes qui traite des images numériques en tant qu’entrée dans les
systèmes de reconnaissance de formes. [48]
2. Les domaines d’application et les techniques populaires de RDF
Certaines techniques populaires pour la reconnaissance des formes comprennent :

 Réseaux de neurones
 Modèles de Markov cachés
 Réseaux bayésiens
Les domaines d’application de la reconnaissance des formes sont les suivants :
 Vision par ordinateur
 Cachine Vision
 Analyse d’images médicales
 Reconnaissance optique de caractères
 Notation de crédit [48]
3. Reconnaissance optique de caractères
La reconnaissance optique de caractères (OCR) est la traduction
mécanique ou électronique / lecture d’images de texte manuscrit,
dactylographié ou imprimé (généralement capturé par un scanner) en
texte modifiable par machine.
Tous les systèmes OCR comprennent un scanner optique pour la lecture
de texte et sophistiqué logiciel d’analyse d’images. La plupart des
systèmes OCR utilisent une combinaison de matériel (circuits imprimés
spécialisés) et des logiciels pour reconnaître les caractères, bien que
certains
Les systèmes peu coûteux le font entièrement par logiciel. OCR romain
avancé Les systèmes peuvent lire du texte dans une grande variété de
polices, mais ils ont encore des difficultés avec texte manuscrit. [48]

VI. Plaque d’immatriculation


Une plaque d’immatriculation de véhicule (figure1), est une plaque de métal ou de plastique
fixée à un véhicule à moteur ou à une remorque à des fins d’identification officielle. Tous les
pays exigent des plaques d’immatriculation pour les véhicules routiers tels que les voitures,
les camions et les motos. L’identifiant d’enregistrement est un identifiant numérique ou
alphanumérique qui identifie de manière unique le véhicule ou le propriétaire du véhicule
dans le registre des véhicules de la région émettrice. Dans certains pays, l’identifiant est
unique dans tous les pays tandis que dans d’autres, il est unique dans un état ou une province.
Le fait que l’identifiant soit associé à un véhicule ou à une personne varie également selon
l’agence émettrice. Les plaques d’immatriculation peuvent avoir des formats, des couleurs,
des polices et des modes de fixation différents, selon les normes et les législations en vigueur
dans chaque pays.[39]
Figure1 : Plaque d’immatriculation a travers le monde

Conclusion
Dans ce chapitre, nous avons montré les principales notions autour du domaine de la détection
d’objet, de la machine Learning, et aussi les réseaux de neurones convolutifs qui permettent
de résoudre de nombreux problèmes d’intelligence artificiel, tels que la détection d’objets
dans les images. Ainsi que nous avons présenté les plaques d’immatriculations.

Dans le prochain chapitre, nous allons détailler les différentes méthodes de l’apprentissage
profond dans le domaine de la détection d’objet et la reconnaissance des caractères, ainsi
qu’un état de l’art.
Détection d'objet — Wikipédia (wikipedia.org) [20 ]

https://blog.hubspot.fr/marketing/deep-learning [32]

https://www.netapp.com/fr/artificial-intelligence/what-is-deep-learning/ [33]

http://staff.univ-batna2.dz/sites/default/files/merzougui_ghalia/files/support_de_cours_-
deep_learning-chapitre2-rn.pdf [34]

https://datafranca.org/wiki/Neurone_artificiel [35]

https://wikipredia.net/fr/Vehicle_registration_plates_of_Chad [36]

https://amu.hal.science/hal-01338010/file/Les_reseaux_de_neurones_artificiels.pdf [37]

https://www.jedha.co/formation-ia/algorithmes-deep-learning[38]

https://needemand.com/wp-content/uploads/2020/03/deep-learning.jpg [2]

https://www.researchgate.net/figure/Convolutional-Neural-Network-NN-architecture-
Kemker-et-al-2018_fig1_357533261 [3]

https://www.researchgate.net/figure/Convolution-operation_fig1_330880103 [4]

https://www.researchgate.net[4]

[39] https://fr.wikipedia.org/wiki/Plaque_d%27immatriculation

Vous aimerez peut-être aussi