These CHAMEKH
These CHAMEKH
These CHAMEKH
THÈSE
1
En cotutelle
Spécialité :
GÉNIE MÉCANIQUE
Présentée par :
CHAMEKH ABDESSALEM
Soutenue le 16-02-2007
Devant la Commission d’Examen
JURY :
1
Cette thèse s’est déroulée dans le cadre d’une cotutelle entre l’École Nationale d’Ingénieurs de Monastir
(TUNISIE) et l’Institut des Sciences et Techniques de l’Ingénieur d’Angers (FRANCE).
OPTIMISATION DES PROCEDES DE MISE EN FORME PAR LES
RESEAUX DE NEURONES ARTFICIELS
RESUME :
Ce travail concerne la modélisation et l’optimisation des procédés de mise en forme par les
Réseaux de Neurones Artificiels. Etant donnée que les méthodes classiques sont très
coûteuses en temps de calcul et divergentes pour des problèmes présentant beaucoup des
paramètres à contrôler, notre contribution consiste à développer une méthode de modélisation
et d’optimisation plus rapide et efficace. Nous avons fait appel à une étude paramétrique pour
coupler un programme basé sur la technique des RNA avec un code de calcul par la méthode
des éléments finis. Néanmoins pour être viable, la méthode de modélisation et d’optimisation
développé a été appliquée avec succès à des procédés de mise en forme complexes et variés.
Elle a été testée en premier lieu pour la modélisation et l’optimisation du procédé
d’emboutissage d’un flan circulaire et dans un second lieu pour l’identification des paramètres
du matériau à partir du procédé d’hydroformage. La méthode a été aussi comparée avec une
méthode d’optimisation classique de plusieurs points de vue. Il a été constaté le long de cette
étude que notre démarche présente une grande potentialité à modéliser des relations qui sont
difficile à les décrire avec des modèles mathématiques simple. Elle est aussi, rapide et
parallélisable. La qualité des résultats obtenus est convaincante. Ce travail mène à des
perspectives plus prometteuses. Elles peuvent être vulgarisées et exploitées dans d’autres
applications.
ABSTRACT:
Sheet metal forming continues to be a significant industrial activity. The numerical
simulation and the optimization startegy of these processes are extremely useful tools for the
control of such technology. But these tools are based on mathematical models. On one hand,
these models must take in account differents constraints during deformation and take account
of all the process parameters. On the other hand they must be simple, in order to facilitate
their identification and their implementation in computer codes.
To cure at the long computing time that a finite element simulation or an optimization
procedure can take and with the insufficiency of these mathematical models to take into
account all the parameters in a sheet metal forming, alternatives are sought in other methods
like responses surfaces, genetic algorithms, etc. In this work a method of modeling and
optimization based on the ANN was proposed. The ANN method, judged very fast in
computing times. It was exploited for modeling as well as for optimization. This procedure of
modeling and optimization was tested in the first time for the modeling and the optimization
of a deep drawing process of a cylindrical cup and in the second time for the identification of
the materials parameters starting from the experimental bulge test. The quality of the results
obtained is convincing. This work leads to more promising prospects. They can be
popularized and exploited in other applications.
KEY WORDS: Artificiel Neural Networks, Finite element, Sheet metal forming,
Optimisation, Identification
Remerciements
Introduction générale 8
1
2.4.3.1 Notation et définitions . . . . . . . . . . . . . . . . . . . . . 41
2.4.3.2 Fonctionnement d’un réseau . . . . . . . . . . . . . . . . . 42
2.4.3.3 L’algorithme de rétro-propagation des erreurs . . . . . . . . 43
2.4.3.4 L’algorithme du gradient total . . . . . . . . . . . . . . . . . 46
2.4.3.5 L’algorithme du gradient stochastique LMS . . . . . . . . . 47
2.5 Principaux travaux dans le domaine de la mécanique . . . . . . . . . . . . . 47
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2
4.4.2 Identification des coefficients d’anisotropie . . . . . . . . . . . . . . . 89
4.4.3 Identification de la fonction d’écrouissage . . . . . . . . . . . . . . . . 91
4.5 Optimisation du procédé d’emboutissage cylindrique . . . . . . . . . . . . . . 92
4.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.5.2 Problématique liée au phénomène du retour élastique . . . . . . . . . 92
4.5.3 Modélisation numérique . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.5.4 Plan d’expériences . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5.5 Modélisation neuronale . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5.6 Influence du rayon de la matrice . . . . . . . . . . . . . . . . . . . . . 96
4.5.7 Influence du rayon du poinçon . . . . . . . . . . . . . . . . . . . . . . 96
4.5.8 Influence du jeu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.5.9 Optimisation du retour élastique . . . . . . . . . . . . . . . . . . . . 98
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Références 132
3
Liste des tableaux
4
Table des figures
5
3.7 Illustration du phénomène de sur-apprentissage . . . . . . . . . . . . . . . . 62
3.8 Validation du modèle RNA avec des fonctions analytiques à une seule variable 64
3.9 Validation du modèle RNA avec des fonctions analytiques à plusieurs variables 65
3.10 Comparaison de la réponse simulée par PONN pour différents nombres d’epochs 67
3.11 Influence de nombre de neurones cachés sur la réponse . . . . . . . . . . . . 68
3.12 Influence de nombre de neurones cachés sur l’erreur quadratique moyenne . . 68
3.13 Effet du coefficient α sur la réponse . . . . . . . . . . . . . . . . . . . . . . . 69
3.14 Effet du coefficient α sur l’erreur quadratique moyenne . . . . . . . . . . . . 70
3.15 Oganigramme de l’algorithme d’optimisation automatique . . . . . . . . . . 71
3.16 Modèle schématique de la frappe de la balle sur la raquette. . . . . . . . . . 73
3.17 Différentes étapes de l’analyse . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.18 Réaction de la raquette en fonction du temps . . . . . . . . . . . . . . . . . . 74
3.19 Structure du modèle RNA conçu . . . . . . . . . . . . . . . . . . . . . . . . 74
3.20 La moyenne de l’erreur quadratique RMSE en fonction de nombre d’epochs . 76
6
5.1 Principe de l’essai de gonflement hydraulique . . . . . . . . . . . . . . . . . . 104
5.2 Découpage de la tôle en forme d’éprouvette . . . . . . . . . . . . . . . . . . . 104
5.3 Dispositif de mise en place des grilles . . . . . . . . . . . . . . . . . . . . . . 105
5.4 Outil d’emboutissage des joncs de retenu . . . . . . . . . . . . . . . . . . . . 105
5.5 a- Matrice circulaire, b- Matrice elliptique . . . . . . . . . . . . . . . . . . . 106
5.6 Cellule de gonflement hydraulique munie de tous les équipements . . . . . . 106
5.7 Pression en fonction de la hauteur au pôle : (a) Cas d’une matrice circulaire,
(b) Cas d’une matrice elliptique . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.8 Profil de la pièce après mise en forme pour une pression de 160 bars : Cas
d’une matrice circulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.9 Epaisseur le long d’un méridien pour une pression de 160 bars : Cas d’une
matrice circulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.10 Modèle géométrique EF de l’essai : (a) Cas d’une matrice circulaire , (b) Cas
d’une matrice elliptique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.11 Courbe d’écrouissage de l’acier inox . . . . . . . . . . . . . . . . . . . . . . . 110
5.12 Représentation de la forme déformée : (a) Cas d’une matrice circulaire, (b)
Cas d’une matrice elliptique . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.13 Isovaleurs de déplacement à l’increment final (P=24MPa) : (a) Cas d’une
matrice circulaire, (b) Cas d’une matrice elliptique . . . . . . . . . . . . . . . 111
5.14 Contrainte équivalente de Von Mises : (a) Cas d’une matrice circulaire, (b)
Cas d’une matrice elliptique . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.15 Déformation plastique équivalente : (a) Cas d’une matrice circulaire, (b) Cas
d’une matrice elliptique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.16 Pression en fonction de la hauteur au pôle : (a) Cas d’une matrice circulaire,
(b) Cas d’une matrice elliptique . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.17 Nœuds choisis sur la partie utile du flan. . . . . . . . . . . . . . . . . . . . . 113
5.18 Contraintes au pôle : A droite cas anisotrope et à gauche cas isotrope . . . . 113
5.19 Déformations plastiques au pôle : A droite cas anisotrope et à gauche cas
isotrope . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.20 Rapport des déformations au pôle : A doite cas anisotrope et à gauche cas
isotrope . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.21 Rapport des contraintes au pôle : A droite cas anisotrope et à gauche cas
isotrope . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.22 Equilibre du tronçon de la calotte sphérique . . . . . . . . . . . . . . . . . . 116
5.23 Courbes d’écrouissage issues de la traction simple et de l’essai equibiaxiale . 117
5.24 Comparaison entre les réponses pression-déplacement . . . . . . . . . . . . . 117
5.25 Procédure d’identification . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.26 Pression en fonction de la hauteur au pôle : Matrice circulaire . . . . . . . . 120
5.27 Pression en fonction de la hauteur au pôle : Matrice elliptique . . . . . . . . 121
5.28 Procédure d’identification par RNA . . . . . . . . . . . . . . . . . . . . . . . 122
5.29 Pression en fonction de la hauteur au pôle : Cas d’une matrice circulaire . . 125
5.30 Pression en fonction de la hauteur au pôle : cas d’une matrice Elliptique à 0° 125
5.31 Pression en fonction de la hauteur au pôle : Cas d’une matrice Elliptique à 45° 126
7
Introduction générale
Mais la simulation numérique se base sur des modèles mathématiques et des lois de com-
portement qui doivent satisfaire aux principes généraux de la mécanique et qui soient phy-
siquement acceptables. Ces modèles mathématiques doivent d’une part, tenir en compte des
sollicitations que subissent les matériaux au cours de leur déformation et rendent compte
de tous les paramètres intervenant dans un procédé et d’autre part, ils doivent être simples,
afin de faciliter leur identification et leur implémentation dans les codes de calcul. En effet,
la simulation numérique d’un procédé de mise en forme est un processus complexe durant
lequel un grand nombre de phénomènes physiques interviennent. La prise en compte de tous
ces phénomènes, même de manière simple, exige un temps de calcul trop long.
Pour remédier d’une part, au temps de calcul long qu’une simulation numérique ou une
procédure d’optimisation peut prendre et d’autre part, à l’insuffisance des modèles mathé-
matiques, des outils basés sur l’intelligence artificielle sont en cours de développement. Le
but de ce travail est de développer une méthode, de modélisation et d’optimisation de pro-
cédés de mise en forme de métaux basée sur les Réseaux de Neurones Artificiels couplée à
un code de calcul par éléments finis. En effet, les Réseaux de Neurones Artificiels ont émergé
comme une nouvelle branche de calcul, qui permet de conduire à la résolution des problèmes
rencontrés dans la modélisation et l’optimisation de plusieurs processus. Ils ont montré une
remarquable performance pour la modélisation des relations linéaires et non linéaires com-
plexes. Cet outil mathématique est particulièrement utile pour la simulation de n’importe
quelle corrélation qui est difficile à décrire avec des modèles physiques et mathématiques en
raison de la capacité d’apprendre par des exemples. Il a été développé pour résoudre des
problèmes en automatique et il sera transféré dans notre cas pour résoudre des problèmes
en modélisation et en optimisation des procédés de mise en forme.
8
Dans ce travail nous proposons donc, de définir et d’utiliser les réseaux de neurones artifi-
ciels couplés au code de calcul par éléments finis Abaqus. Le desir est de construire un outil
de modélisation et d’optimisation "rapide et efficace". Il sera utilisé pour substituer un cal-
cul éléments finis (problèmes directs) et/ou pour recaler des paramètres d’entrée (problèmes
inverses). Il permet donc d’optimiser les procédés de mise en forme dans un temps très court.
En définitive, la contribution du présent travail est de donner des solutions à des problèmes
liés à :
1. La modélisation des problèmes complexes en mise en forme,
2. L’optimisation de procédés de mise en forme.
Le premier chapitre présente des généralités sur l’optimisation des procédés de mise en
forme. Une première partie a été consacrée à une étude bibliographique sur les deux procé-
dés de mise en forme par emboutissage et par hydroformage. On s’intéresse à la description
de ces différents procédés et aux problèmes rencontrés lors de la mise en forme des pièces.
Dans une deuxième partie, une analyse bibliographique a été menée sur les différentes mé-
thodes d’optimisation qui ont été appliquées dans ce domaine. Une attention particulière
a été accordée lors de cette étude, pour situer les méthodes d’optimisation stochastiques
par rapport aux méthodes d’optimisation classiques. Nous conclurons sur les objectifs et les
techniques utilisées dans notre travail.
9
cas, un plan d’expériences, par une variation automatique des variables de conception a été
construit. Dans bien des cas ce phénomène est associé aux propriétés du matériau cependant
dans ce cas, nous faisons le contrôle de procédé en agissant sur les paramètres géométriques
de celui-ci.
Le cinquième chapitre est dédié à l’application de cet algorithme neuronal comme stratégie
d’identification des modèles de comportement anisotrope à partir des essais expérimentaux.
Nous commençons ce chapitre par une présentation d’un essai d’hydroformage ainsi que
les résultats expérimentaux. Etant donnée l’écart enregistré entre les réponses numérique
et expérimentale, trois approches ont été proposées pour l’identification des paramètres de
l’acier AISI304 : Analytique, inverse classique et neuronale. Une synthèse et une comparaison
entre les deux dernières approches ont été illustrées à la fin de ce chapitre.
10
Chapitre 1
1.1 Introduction
Les impératifs économiques, obligent les entreprises de réduire les coûts, de produire ra-
pidement et de maîtriser la production. L’amélioration de la qualité technique des pièces
mécaniques nécessite l’optimisation de leurs procédés de fabrication. La qualité des pièces
fabriquées dépend d’un certain nombre de facteurs qui affectent leurs caractéristiques mé-
caniques et géométriques au cours de la fabrication. Pour améliorer cette qualité, des outils
d’optimisation sont des plus en plus utilisés.
11
1.2 Généralités et historique
Avant 1940, les méthodes numériques d’optimisation de fonction à plusieurs variables
étaient peu connues. En effet, les premières tentatives de minimisation de fonctions sont
attribuées à Cauchy, en 1847, qui a utilisé une méthode dite de la plus grande pente. Cette
méthode a été largement modifiée par la suite. En 1959, Davidson [Kha2004] introduit la no-
tion de "variables métriques", lui permettant de minimiser des fonctions à plusieurs variables
en un temps record. C’est le début de la période ou sont développés les outils applicables à
des domaines très variés comme les sciences, l’ingénierie, les mathématiques, l’économie. . ..
Ces techniques d’optimisation ont une grande importance dans les applications technolo-
giques, entre autre la mécanique. Au stade de la modélisation et du calcul, l’optimisation est
un outil essentiel qui permet d’améliorer les résultats d’une étude et d’aboutir à la meilleure
solution possible. Fletcher, en 1975 [Fle1975] a définit l’optimisation comme étant la science
qui détermine la "meilleure" solution d’un problème mathématique (figure 1.1).
12
Les méthodes du gradient sont classiques en optimisation, comprenant principalement
les méthodes de la plus grande pente (ou méthode du gradient à pas optimal), du gra-
dient conjugué, de Gauss-Newton [Gav1995][Gav1996] et de Levenberg-Marquardt [Gil1995],
[Gou1998][Gou1999]. Les méthodes dites de Newton nécessitent la détermination de la ma-
trice Jacobienne et la matrice Hessienne de la fonction à minimiser. La matrice Hessienne
n’est pas toujours facile à inverser, pour cette raison, ils existent essentiellement deux mé-
thodes dites de Quasi-Newton. La première est celle de BFGS, qui a été utilisée par Batoz
et al. [Bat1998], par exemple pour optimiser les paramètres matériels dans un procédé de
mise en forme industriel. La deuxième méthode dite DFP qui a été utilisée par Jin et al.
[Jin2000], pour identifier les paramètres matériels d’alliages d’aluminium . Ces méthodes de
Quasi-Newton sont des méthodes d’ordre 1 qui tentent, par des approximations successives
de la matrice Hessienne, de retrouver la méthode de Newton.
La méthode des réseaux de neurones artificiels, constitue une technique d’optimisation ap-
partenant aux méthodes d’exploration directe. Elle est très efficace pour des cas où le nombre
de variables est relativement important. Elle apparaît bien adaptée au type de problème que
nous envisageons de résoudre. Une analyse détaillée de cette méthode sera présentée dans le
deuxième chapitre.
13
de l’embouti, des rayons de congé faible des outillages peuvent provoquer une forte concen-
tration de contrainte et une mauvaise utilisation des lubrifiants peut causer un frottement
intensif entre les outils. Pour remédier à ces difficultés et éviter des ajustements ultérieurs des
variables de conceptions, il est intéressant de rechercher la meilleure combinaison possible de
ces variables dès la phase de conception de la gamme de fabrication en faisant appel à des
outils d’optimisation et de simulation numérique.
En mise en forme le concepteur dispose d’un grand nombre de variables à régler, que l’on
peut regrouper en trois familles :
– Les variables liées à la forme, telles que les rayons de raccordement, les nervures, la
géométrie du flan, etc.
– Les variables liées au procédé, telles que le coefficient de frottement, le jeu entre les outils,
etc.
– Les variables liées au matériau, telles que le coefficient d’anisotropie, le coefficient d’écrouis-
sage, etc.
Il est donc, très difficile et coûteux de modifier l’une des ces variables et de voir son
influence par des essais réels. C’est pourquoi il est très utile de faire appel à des essais
virtuels. Ces derniers prennent de plus en plus de succès dans la phase de définition des
gammes de fabrication. Des conférences internationales consacrées entièrement à ce sujet
témoignent de l’intérêt scientifique de ce domaine.
Parmi les procédés de mise en forme on s’intéresse particulièrement, aux deux procédés
suivants : l’emboutissage et l’hydroformage. Ils seront présentés dans les deux prochains
paragraphes.
1.3.1 Emboutissage
Emboutir : " Travailler une plaque de métal au marteau et sur une enclume, de manière
à la rendre concave d’un coté et convexe de l’autre " [Mer1998].
Par cette définition, nous sommes à même d’imaginer qu’il y’a fort longtemps qu’on em-
boutit des tôles. L’emboutissage consiste alors à fabriquer, à partir d’un flan plan de faible
épaisseur, une pièce de forme complexe généralement non développable (Figure 1.2). Le flan
étant plaqué contre la matrice avec une certaine force par l’intermédiaire d’un serre-flan, et
mis en forme par avancée du poinçon à l’aide d’une presse.
14
Au cours de sa déformation, le métal est soumis simultanément à deux modes de sollici-
tations :
– Des déformations en expansion sur le nez du poinçon qui s’effectuent au détriment de
l’épaisseur.
– Des déformations en retreint qui résultent d’un écoulement de matière sous serre-flan
convergeant vers l’intérieur de la matrice et auxquelles s’associe un champ de contraintes
compressif dans le plan de la tôle.
Déplacement
Effort Effort
Poinçon
Serre_
Flan
Matrice
La réalisation d’un emboutissage s’avère donc complexe, et sa réussite est souvent liée à
l’expérience. En effet, l’emboutissage se définit par une transformation permanente d’une
feuille de métal en une forme tridimensionnelle sous l’effet des efforts appliqués par les
outillages. Ce qui permet de mettre en exergue les aspects suivants :
– Les grandes transformations géométriques d’une structure mince.
– Le comportement élastoplastique anisotrope du matériau.
– Les contacts et les frottements entre les outils et la tôle.
Les principaux paramètres intervenant dans ce procédé peuvent être résumés comme suit :
– L’épaisseur initiale de la tôle,
– La loi de comportement du matériau,
– La position du flan initial,
– le dimensionnement du contour initial,
– La force de serrage, les coefficients du frottement ainsi que la forme et la position de
joncs.
15
a) Plissement b) Déchirure
Fig. 1.3 – Problèmes rencontrés dans les procédés de mise en forme particulièrement par
emboutissage
Ainsi, de nombreux chercheurs ont désiré mieux connaître le processus afin de l’améliorer.
En effet, il y’a eu le développement d’outils d’aide à la décision et d’autres outils d’ana-
lyse, de simulation et d’optimisation. Des codes de calcul par la méthode des éléments finis
sont développés constituant une évolution technologique importante, et qui sont dédiés à la
simulation numérique d’emboutissage.
L’intérêt de la simulation numérique de l’emboutissage par des essais virtuels apporte les
avantages suivants :
– Elle peut substituer en partie l’expérimentation coûteuse en argent et en temps.
– Elle est utilisée en amont dans le processus de conception permettant, ainsi de réduire
les délais de mise au point.
– Elle permet également de comparer entre différentes configurations afin d’optimiser la
solution. Dans beaucoup des cas, cela permet une amélioration notable de la qualité de
la pièce, un gain important de la matière et par conséquent une réduction du coût de
produit.
16
Ainsi, dès le stade du bureau d’études et tout au long de la phase de conception, la
simulation numérique se comporte comme un outil d’analyse et d’aide à la conception. Elle
permet d’évaluer de manière qualitative les difficultés de faisabilité des pièces, par rapport
au cahier de charge.
A ce niveau, l’optimisation par simulation numérique des procédés est un outil qui permet
de prévoir l’influence de la variation d’un paramètre donné au cours de la déformation de la
matière. Il permet de tester et de dimensionner ces procédés dès la phase de conception du
produit par recours à des essais expérimentaux et virtuels.
En effet, plusieurs travaux ont été menés sur l’optimisation du procédé en utilisant diffé-
rentes méthodes d’optimisation. Ces travaux visent à déterminer les paramètres optimaux
du matériau à géométrie connue ou de déterminer une géométrie optimale pour un matériau
donné. Comme exemple, pour le premier cas, citons les travaux de Naceur et al. [Nac2004] qui
portent sur le développement d’une approche inverse simplifiée combinée avec un algorithme
de BFGS pour la recherche des paramètres matériels optimaux dans le cas d’une opération
d’emboutissage. Cette approche inverse tient compte de la connaissance à priori de la forme
d’objet et comporte une discrétisation de la surface 3D par des éléments triangulaires de
la facette membrane/shell et le calcul du gradient inverse du tenseur de déformation pour
estimer les contraintes. Comme exemple, pour le deuxième cas nous pouvons citer les travaux
de Park et al. [Par1999] qui portent sur l’optimisation de la forme du flan initial par calcul
d’erreur entre le flan obtenu numériquement et celui désiré (figure 1.4).
!
"
N
L’expression de l’erreur est donnée par :Erreur = 1
N
d2i
i
17
Fig. 1.4 – Optimisation de la forme intiale du flan
1.3.2 Hydroformage
L’hydroformage est un procédé de mise en forme, actuellement très utilisé puisqu’il pré-
sente plusieurs avantages par rapport à d’autres procédés. Cette technique de mise en forme
utilise la pression d’un fluide pour mettre en forme la tôle. Donc par rapport au procédé
d’emboutissage par exemple le liquide peut jouer le rôle du poinçon ou de la matrice. Cette
technologie trouve, aujourd’hui, de plus en plus d’applications pour les pièces automobiles
telles que les longerons, les collecteurs d’échappement, les berceaux support moteur, . . ..
(figure 1.5).
18
à la zone déformée (figure 1.6). Cet apport a pour effet de compenser l’amincissement
du tube et d’améliorer sa formabilité [Ben2005].
2. L’hydroformage de flan simple : Il consiste à appliquer une pression sur une tôle pouvant
se gonfler suivant la forme de la matrice. Ainsi la tôle est formée contre une matrice
qui lui donne la forme finale [Ben2005]. La tôle peut être aussi formée sous l’action
conjuguée d’un poinçon en déplacement et d’un liquide sous pression (figure 1.7).
19
– Plus léger (Moins de joints de soudure, Moins de pièces),
– Grande rigidité (utilisation de matériaux moins épais, écrouissage inhérent du procédé),
– Jusqu’à 27% d’économie par rapport au poids comparé à l’emboutissage (Coûts d’outils
moins élevés, économie de production des pièces creuses qui nécessitent un plus grand
rapport résistance/poids, les changements de matériaux ne requièrent pas d’outils neufs).
– Qualité de pièce améliorée. La distribution uniforme de la déformation peut amener :
– Moins de retour élastique,
– Moins de distorsion des surfaces,
– Meilleure tolérance des dimensions extérieures,
– Pas de frottement entre outils et tôle.
En dépit des avantages cités ci-dessus, l’hydroformage présente certaines limitations aussi
bien d’ordre technologique qu’économique :
– Procédé lent et cadence de production peu élevée,
– Nécessite des matrices de haute qualité (polies),
– Les forces de frottements augmentent avec la rugosité des matrices,
– Les matrices rugueuses peuvent causer l’amincissement des parois et la rupture des
pièces.
Les principaux problèmes dans ce procédé que les chercheurs tentent d’éviter ou les mini-
miser sont analogues aux problèmes rencontrés dans le procédé d’emboutissage. En effet, on
peut citer (figure 1.8) :
– Striction
– Rupture
– Plissement
Les travaux réalisés dans le domaine de l’optimisation et du contrôle des procédés d’embou-
tissage et d’hydroformage sont basés sur une forte demande du secteur industriel, automobile
en particulier, et correspondent aux avancées scientifiques actuelles dans le domaine de la
simulation et du prototypage numérique.
20
L’optimisation des opérations d’emboutissage ou d’hydroformage consiste à rechercher, par
voie de modélisation et de simulation numérique, des formes géométriques, des propriétés
matérielles et des paramètres de procédés. Cela permet d’aboutir, après opération de mise
en forme, à des composants de qualités bien déterminées, tant au niveau géométrique qu’au
niveau propriétés matérielles ou encore intégrité des composants.
21
Fig. 1.9 – Problème direct et problème inverse
L’étape qui nous occupera plus dans les chapitres qui suivent, est l’identification des para-
mètres du modèle proposé. Celle-ci consiste à calculer la valeur de ces paramètres qui fournit
le meilleur modèle possible, c’est-à-dire qui conduit à un écart minimum entre le résultat
obtenu par l’expérience et celui fourni par sa simulation.
Il convient avant tout de se fixer une définition mathématique de l’écart entre la courbe
expérimentale et le résultat de la simulation.
Où x est le vecteur des valeurs des paramètres matériels, n est le nombre de points expéri-
mentaux, uexp
i est l’ordonnée du i
ieme
point obtenu expérimentalement, et uEFi est l’ordonnée
du iieme
point obtenu par simulation.
22
Fig. 1.10 – Calcul de l’écart entre la courbe numérique et la courbe expérimentale
1
F (xk + ∆x) = F (xk ) + ∇F T (xk )∆x + ∆xT ∇2 (F (xk )∆x = F̃ (x) (1.2)
2
Pour simplifier la notation, soit :
∆x = s
∇F T (xk ) = (g k )T
23
∇2 (F (xk ) = H k
L’équation précédente (1.2) s’écrit alors sous la forme suivante :
1
F (xk + s) = F (xk ) + (g k )T s + sT H k s (1.3)
2
Avec H k est la matrice Hessienne. La direction de descente s est alors, choisie de façon à
minimiser l’approximation précédente au point xk + sk . On obtient alors :
H k sk = −g k (1.4)
Cette méthode est bien reconnue par son efficacité. Mais le principal inconvénient réside
dans le calcul des dérivées secondes de F qui s’avère le plus souvent coûteux et très difficile à
réaliser. Un certain nombre d’algorithmes se proposent ainsi de contourner cette difficulté en
utilisant des approximations de la matrice Hessienne. On peut mentionner le cas particulier
où F peut s’écrire sous forme de moindres carrés. On obtient alors une approximation de
la matrice Hessienne en ne considérant que les produits des gradients. Ceci sera utilisé dans
notre travail par la suite pour l’identification des paramètres du matériau à partir d’un
essai d’hydroformage. L’objectif est d’être comparer avec une méthode stochastique. Cette
approximation, qui est à la base des algorithmes de Gauss-Newton ou Levenberg-Marquardt,
est largement utilisée en identification de paramètres rhéologiques. Cette méthode est bien
adaptée surtout pour les problèmes de petites dimensions puisque le calcul de la matrice
Hessienne est facile. Alors que si le problème présente un grand nombre de variables, il
est généralement conseillé de coupler celle-ci avec la méthode du gradient conjugué ou une
méthode de Quasi-Newton. Ou bien, lorsque l’amélioration relative de la fonction objectif
devient trop faible, on passe automatiquement à la méthode du gradient conjugué.
24
Et on remplace ces deux dernières expressions dans (1.5) pour obtenir :
y (k) = H (k) s(k) (1.9)
Pour une nouvelle approximation des paramètres x k+1
telle que g (k+1)
est nul, on déduit que :
y k = −g (k) (1.10)
En remplaçant dans l’équation précédente il vient que :
s(k) = (H (k) )−1 y k = −(H (k) )−1 g (k) (1.11)
Cette dernière équation est identique à celle formulée dans le cas de la méthode de Newton
décrite dans le paragraphe précédent. Le principe, donc des méthodes de Quasi-Newton est
de remplacer l’inverse de la matrice Hessienne par une matrice par exemple S (k) qui sera
actualiser pour chaque itération et que celle ci soit une approximation de l’inverse de la ma-
trice Hessienne. Pour cela, on distingue deux techniques d’actualisation selon qu’on travaille
avec celle proposés par Broyden, Fletcher, Goldfarb et Shanno nommée BFGS [Kle2000] ou
bien par celle proposée par Davidon, Fletcher et Powell nommée DFP [Kle2000]. Le principe
de deux techniques est basé sur une actualisation au cours des itérations de la forme :
S (k) = S (k−1) + δ (k) (1.12)
En utilisant l’équation décrite en (1.11) :
S (k) y k−1 = s(k−1) (1.13)
Il s’agit donc de calculer S (k) à partir de S (k−1) et de y k−1, tout en respectant la condition
exprimée dans (1.13) ci-dessus.
25
1.5.1.5 Méthode GCMMA
La méthode GCMMA (Globally Convergent Method of Moving Asymptotes) fait partie
des méthodes appelées méthodes d’approximations convexes [Kle2003] dont le principe est
de remplacer le problème non convexe implicite de base par une succession de problèmes
explicites convexes simples. Ainsi, à chaque itération, une fonction objectif approchée est
calculée (pas d’approximation des contraintes vu que celles-ci sont de type linéaire). Celle-ci
est d’ordre 1, c’est-à-dire qu’elle respecte la valeur exacte de la fonction objectif au point
de départ de l’itération en cours, ainsi que la valeur de la dérivée en ce point. Le problème
simple ainsi formé est résolu aisément pour obtenir le minimum de cette fonction approchée.
Ce point constituera la nouvelle approximation des paramètres optimaux recherchés et servira
de point de départ pour une nouvelle itération et une nouvelle approximation de la fonction
objectif.
avec :
(k) (k) (k) ∂F (x(k) ) ρ(k) (k) (k)
pi = (Ui − xi )2 (( )+ + ( )(Ui − Li )) (1.15)
∂xi 2
Si on prend le cas d’un problème à une seule variable. La figure 1.11 montre la fonction
F (x) et son approximation convexe au point A. F̃ (x) présente ainsi un minimum entre les
deux asymptotes verticales U et L.
26
Fig. 1.11 – Approximation convexe utilisant le GCMMA
De même, afin d’assurer la qualité des approximations réalisées, il est important d’actua-
liser efficacement les positions des asymptotes mobiles. Le principe de la "méthode à deux
points" [Zha1994][Zha1997]est d’ajuster automatiquement les asymptotes, de façon à ce que
l’approximation réalisée à l’itération k passe par le point x(k − 1) (figure 1.12).
27
Cette dernière méthode a été implémentée par Kleinermann [Kle2000] en vue de résoudre
des problèmes d’identification paramétrique. Celle-ci a donné, pour certaines itérations, une
convergence très rapide. Par contre, d’autres itérations conduisaient à une divergence tout
aussi importante. C’est pourquoi il a tenté de mettre au point des méthodes se basant sur
les combinaisons des méthodes illustrées ci-dessus.
28
Pour un problème de minimisation J, un algorithme génétique simple sera exécuté de la
manière suivante :
1. Génération aléatoire d’une population de N individus ;
2. Evaluation de la qualité du phénotype de chaque individu ;
3. Sélection d’un couple de parents au moyen d’une procédure appropriée ;
4. Croisement des deux individus avec une probabilité Pc pour générer deux enfants ;
5. Mutation des deux enfants avec une probabilité Pm ;
6. Répéter les étapes 3, 4, et 5 jusqu’à ce que la nouvelle population contienne N individus
7. Itérer à partir de l’étape (2) jusqu’à ce que l’algorithme converge.
Dans ce modèle, un processus de sélection retient les individus les mieux adaptés et les
transmet à un processus d’exploration qui les utilisera pour créer de nouveaux individus. La
figure 1.13 représente le schéma de fonctionnement d’un algorithme génétique simple. Après
le processus de sélection intervient un processus de création qui s’inspire également de la
génétique puisqu’il fait intervenir les notions de reproduction, de croisement et de mutation.
Le croisement correspond à la création de deux enfants en combinant les gènes de deux
parents choisis par le processus de sélection. Alors que la mutation revient à introduire une
modification aléatoire dans le génotype d’un individu.
29
Ces méthodes sont maintenant très utilisées en optimisation numérique, lorsque les fonc-
tions à optimiser sont complexes, irrégulières, mal connues ou en optimisation combinatoire.
Ces méthodes diffèrent des méthodes illustrées ci-dessus (Levenberg-Marquardt, GCMMA,
Gradient Conjugué, Newton...) par trois principaux aspects :
1. Elles ne nécessitent pas le calcul de gradient
2. Elles étudient une population dans un ensemble alors que les méthodes déterministes
traitent un individu qui évoluera vers l’optimum.
3. Elles font intervenir des opérations aléatoires.
Elles ont été appliquées pour la résolution des plusieurs problèmes de type physique, méca-
nique,... Citons à titre d’exemples l’optimisation de structures mécaniques [Tro1993] [Ler1993]
[Ham2002] de profils d’ailes d’avion, de tuyères de réacteurs ou de processus chimiques indus-
triels. L’expérience prouve aussi que si les composantes ainsi que les paramètres de l’évolution
sont soigneusement réglés, il est possible d’obtenir des algorithmes extrêmement efficaces et
rapides [Bou2001]. Mais cette étape de réglage peut être très délicate. Donc, parmi les incon-
vénients de ces méthodes est le réglage des paramètres. En effet, des approches qui permettra
de proposer des techniques d’ajustement de paramètres et aussi de comprendre plus finement
quand et pourquoi un AE est efficace [Gol1989].
Un plan d’expériences peut être utilisé comme une méthode d’optimisation, pour trouver
une ou des solutions au problème posé, mais aussi comme une étape préliminaire à l’optimi-
sation et a, alors, pour objectif le choix des variables à optimiser et des fonctions à prendre
en compte dans une formulation mathématique classique pour résoudre le problème par
une méthode de gradient ou par une méthode a exploration directe par exemple [Gou2001].
Notre intérêt s’est porté sur les plans d’expérience permettant de préparer une base de don-
nées en fonction des variables intervenant dans un procédé de mise en forme. On distingue
essentiellement les plans d’expériences suivants :
– Plans de criblage : Pour trouver les facteurs les plus influents sur une réponse.
– Plans de modélisation = plans pour surfaces de réponse : modèles du 1ier ou 2ieme degré
– Plans de mélanges : Adaptés aux facteurs dépendants
– Plans complets/fractionnaires :
– Plans factoriels complets : Toutes les combinaisons des niveaux de facteurs sont pré-
sentes
30
Fig. 1.14 – Plan Factoriel complet
– Plans factoriels fractionnaires : Tous les niveaux de chaque facteur sont présents, mais
pas toutes les combinaisons possibles de facteurs
Les plans d’expériences ne font pas tous appel à des surfaces de réponse : les plus simples
utilisent seulement 2 niveaux (réponse linéaire), et la notion de surface de réponse n’apparaît
pas explicitement. Les approximations les plus utilisées sont des polynômes de degré 1 ou
2. Si un modèle est insuffisant (pas assez précis), il sera possible d’ajouter des termes au
polynôme et des points au P.E. pour obtenir une meilleure approximation.
Nous intéressons plus au plan de type factoriel complet étant donné que nous le utilisons
dans les chapitres qui suivent. Un plan factoriel complet, 3n par exemple permet 3 niveaux
par facteur mais il est très grand en nombre d’expériences ce qui alourdi son traitement.
En contre partie, il permet une meilleure représentation du problème étudié. En effet, un
balayage total de l’intervalle de conception est effectué. Ce type de plan trouve surtout son
intérêt dans le cas d’un problème industriel. La figure 1.14 présente l’architecture de ce
plan. Ce type des plans sera utilisé dans nos applications en amont d’un modèle basé sur les
Réseaux de Neurones Artificiels pour la préparation des données. Parmi les travaux récents,
qui témoignent sur l’intérêt de cet outil, on peut citer ceux de Roux et al. [Rou2002] qui ont
utilisés les techniques de plan d’expériences dans le domaine d’optimisation des structures
et ceux de Delamizière et al. en 2001 qui ont proposé une approche d’optimisation par
plan d’expériences, des propriétés du matériau pour des pièces obtenues par emboutissage
[Del2001].
31
– Réponse : Grandeur à laquelle on s’intéresse (y)
– Facteurs : Variables qui peuvent être continues ou discrètes (x1 , x2 , . . . xn ), qualitatives
(pas de logique de classement) ou quantitatives.
– Niveaux : Valeurs prises par un facteur dans les expériences
Cette méthode consiste, donc, à construire une expression approchée f˜ de la fonction coût
f explicite en fonction des variables de conception. Cette fonction notée f˜ est réalisée à
partir du calcul préalable de la fonction f pour un nombre limité d’évaluations choisis par
l’utilisateur en fonction de la méthode d’approximation utilisée (splines, moindres carrés. . .).
L’approximation f˜ est ensuite minimisée, et non la fonction réelle. L’intérêt de cette dé-
marche est d’utiliser, pour la recherche de minimum une méthode rapide à évaluer, puisque
l’approximation est explicite. De plus il est possible de séparer l’étape de minimisation et
l’étape de simulation du procédé, ce qui facilite le contrôle de la convergence des analyses
non linéaires.
Plusieurs travaux en optimisation des procédés de mise en forme ont été réalisés en utili-
sant la méthode des surfaces de réponse avec des stratégies et d’approximation plus au moins
différentes. Citons a titre d’exemple, l’optimisation des paramètres du procédé d’emboutis-
sage par combinaison de l’approche inverse améliorée et la méthode de surface de réponse
qui a été développé dans les travaux de thèse de ben Elechi [Ben2004]. Aussi, les travaux de
Bahloul et al. [Bah2006-a]qui portent sur l’optimisation des paramètres du procédé de pliage
par surface de réponse . Nous utilisons, les surfaces de réponse, par la suite, en conjonction
avec les réseaux de neurone artificiels pour l’analyse des résultats en aval d’un modèle RNA.
Actuellement, l’intérêt de transférer des méthodes développées dans une discipline pour
l’analyse des problèmes dans d’autres disciplines a évidemment augmenté. En effet, les ré-
seaux de neurones qui ont été développés pour la résolution des problèmes en automatique
32
ont été, transférés, actuellement, pour la résolution des problèmes mécaniques. Cette tech-
nique est appliquée, en particulier, sur les procédés de mise en forme. Une étude détaillée sur
le fondement de cette méthode ainsi qu’un aperçu sur les différents travaux dans le domaine
de la mécanique seront exposés dans le deuxième chapitre.
1.6 Conclusion
Dans ce chapitre nous avons présenté des généralités sur l’optimisation des procédés de
mise en forme. Nous avons commencé par un historique sur l’application des techniques
d’optimisation en mise en forme. Puis parmi ces procédés, nous étions intéressés à l’embou-
tissage et l’hydroformage. Ces deux procédés vont constituer le champ d’application de notre
algorithme d’optimisation par la suite. Une présentation succincte des deux procédés a été
faite. Ensuite nous avons présenté les méthodes d’optimisation. Dans ce paragraphe nous
avons distingué les méthodes d’optimisation classiques (qui utilise le calcul de gradient) et
les méthodes stochastiques. Une étude bibliographique détaillée sur l’application de la mé-
thode d’optimisation à base de RNA sera présentée dans le deuxième chapitre. Cette dernière
constitut la base de notre algorithme d’optimisation.
33
Chapitre 2
En 1949, le psychologue Donald Hebb a introduit le terme connexionisme pour parler des
modèles massivement parallèles et connectés . Il a proposé de nombreuses règles de mise à
jour des poids dont la plus connue à cette époque est la "règle de Hebb" [Dav1993].
Les travaux se sont ralentis considérablement jusqu’aux années 80. En 1982, Hopfield a fini
par démontrer l’intérêt des réseaux entièrement connectés [Dav1993]. Parallèlement, Werbos
a conçu un mécanisme d’apprentissage pour les réseaux multicouches de type perceptron : la
rétropropagation (Back-Propagation). Cet algorithme qui permet de propager l’erreur vers
les couches cachées sera popularisé en 1986 dans un livre "Parallel Distributed Processing"
par Rumelhart et al. [Rum1986].
Depuis ces travaux, les applications des réseaux de neurones n’ont cessé de croître. Il a
d’ailleurs été démontré qu’un réseau MLP (Multi Layer perceptron) avec seulement deux
couches peut approximer n’importe quelle fonction de Rn dans Rm avec une précision arbi-
traire [Wat1987].
34
Dans ce chapitre, une introduction sur l’intérêt d’utilisation des réseaux de neurones arti-
ficiels est décrite ainsi qu’en quoi cet outil mathématique peut nous en servir. On présente
ensuite quelques notions de bases sur les réseaux de neurones. Puis, nous présentons la phase
d’apprentissage d’un réseau de neurones. Nous intéresserons par la suite au réseau de type
MLP et nous expliquerons la démarche de calcul des erreurs par la technique de retropropa-
gation. Ce chapitre sera terminé par une présentation des diverses applications destinées à
montrer la variété des domaines où les réseaux de neurones sont susceptibles d’apporter des
solutions efficaces.
Toute fonction bornée suffisamment régulière peut être approchée avec une précision arbi-
traire dans un domaine fini de l’espace de ses variables, par un réseau de neurones comportant
une couche de neurones cachés en nombre fini, possédant tous la même fonction d’activation
et un neurone de sortie linéaire [Hor1989].
En plus, les réseaux de neurones nécessitent moins de paramètres ajustables (les poids des
connexions) que d’autres outils mathématiques couramment utilisés. Dans la pratique, on
n’utilise pas les réseaux de neurones pour réaliser des approximations de fonctions connues.
Le plus souvent, le problème qui se pose est de trouver une relation entre un ensemble de
sorties dans un processus donné, et l’ensemble des entrées correspondant à travers les mesures
effectuées. On suppose que cette relation existe malgré que :
– Les mesures sont en nombre fini,
– Elles sont certainement entachées de bruit,
– Toutes les variables qui déterminent le résultat du processus ne sont pas forcément me-
surées.
En d’autres termes, l’ingénieur cherche un modèle du processus qu’il étudie à partir des
mesures dont il dispose : on dit qu’il effectue une modélisation "boîte noire" [Per1999]. Dans
la "syntaxe" des réseaux de neurones, les données à partir desquelles on cherche à construire
le modèle s’appellent des exemples. Donc la raison pour laquelle les réseaux de neurones sont
jugés d’être une bonne alternative est qu’on peut trouver une approximation à partir des
mesures disponibles par un modèle RNA.
De manière générale, un réseau de neurones permet de faire un meilleur usage des mesures
disponibles que les méthodes d’approximation non linéaires conventionnelles [Moz2000]. Ce
gain peut être considérable lorsque le processus à modéliser dépend de plusieurs variables
tel que dans le cas des procédés de mise en forme là où il intervient plusieurs types de
non-linéarités et plusieurs paramètres matériels et technologiques.
35
2.3 Notions de base sur les réseaux de neurones artificiels
2.3.1 Du Neurone biologique au neurone artificiel
Un neurone biologique est une cellule vivante consacrée au traitement de l’information
(figure 2.1). De son corps cellulaire ou soma, rayonnent de nombreuses dendrites (jusqu’à
100000) qui reçoivent des signaux provenant d’autres neurones ou cellules sensorielles. Ces
signaux sont traités par le neurone qui transmet à son tour un signal, si certaines conditions
sont réunies le long de son axone à d’autres neurones ou à de cellules effectrices (cellule
musculaire par exemple) : On dit que le neurone est alors activé.
La figure 2.2 montre la structure d’un neurone artificiel. Chaque neurone artificiel est un
processeur élémentaire. Il reçoit un nombre variable d’entrées en provenance de neurones
amont. A chacune de ces entrées est associée un poids w représentatif de la force de la
connexion. Chaque processeur élémentaire est doté d’une sortie unique qui se ramifie ensuite
pour alimenter un nombre variable de neurones avals. A chaque connexion est associé un
poids.
36
Fig. 2.2 – Mise en correspondance neurone biologique / neurone artificiel
Définition : Un neurone est une fonction algébrique non linéaire, paramétrée à valeurs
bornées [Dre2002].
37
Fig. 2.3 – a-Fonction de Heaviside, b-Fonction signe
On distingue deux types de réseaux de neurones : Les réseaux non bouclés et les réseaux
bouclés.
Les réseaux non bouclés à couche sont structurés tel que les neurones qui appartiennent
à une même couche ne soient pas connectés entre eux, chacune des couches recevant des
signaux de la couche précédente, et transmettant le résultat de ses traitements à la couche
suivante. Les deux couches extrêmes correspondent à la couche d’entrée qui reçoit ses entrées
du milieu extérieur d’une part, et à la couche de sortie qui fournit le résultat des traitements
effectués d’autre part. Les couches intermédiaires sont appelées couches cachées, leur nombre
est variable.
Les réseaux de neurones non bouclés à couches dont les neurones cachés ont une fonc-
tion d’activation sigmoïde, sont souvent appelés des perceptrons multicouche (ou MLP pour
Multi-Layer Perceptron) [Dre2002].
38
Fig. 2.5 – Structure d’un réseau de neurones non bouclé.
Un réseau de neurones bouclé est schématisé par un graphe des connexions qui est cyclique.
Lorsqu’on se déplace dans le réseau en suivant le sens des connexions, il est possible de trouver
au moins un chemin qui revient à son point de départ (un tel chemin est désigné sous le terme
de "cycle"). Ainsi, un retard entier multiple de l’unité de temps choisie est attaché à chaque
connexion d’un réseau de neurones bouclé (ou à chaque arrête de son graphe). Une grandeur
à un instant donné ne peut pas être fonction de sa propre valeur au même instant. Tout
cycle du graphe du réseau doit avoir un retard non nul.
La figure 2.6 représente un exemple de réseau de neurones bouclé. Les chiffres dans les
carrés indiquent le retard attaché à chaque connexion, exprimé en multiple de l’unité de
temps. Ce réseau contient un cycle, qui part du neurone 3 et revient à celui-ci en passant
par le neurone 4. La connexion de 4 vers 3 ayant un retard d’une unité de temps.
39
2.4.1 L’apprentissage supervisé
L’apprentissage "supervisé" pour les réseaux de neurones formels, consiste à calculer les
coefficients synaptiques de telle manière que les sorties du réseau soient, pour les exemples
utilisés lors de l’apprentissage, aussi proches que possibles des sorties "désirées". Ils peuvent
être la classe d’appartenance de :
– La forme que l’on veut classer,
– La valeur de la fonction que l’on veut approcher,
– La sortie du processus que l’on veut modéliser,
– La sortie souhaitée du processus à commander.
On connaît donc, en tout point ou seulement en quelques points les valeurs que doit avoir la
sortie du réseau en fonction des entrées correspondantes : C’est en ce sens que l’apprentissage
est "supervisé". Cela signifie qu’un "professeur" peut fournir au réseau des "exemples" de ce
que celui-ci doit faire. Ce type d’apprentissage sera adopté par la suite dans notre algorithme
d’optimisation.
La plupart des algorithmes d’apprentissage des réseaux de neurones formels sont des al-
gorithmes d’optimisation : Ils cherchent à minimiser par des méthodes d’optimisation non
linéaire (Premier chapitre) une fonction coût qui constitue une mesure de l’écart entre les
réponses réelles du réseau et ses réponses désirées. Cette optimisation se fait de manière
itérative, en modifiant les poids en fonction du gradient de la fonction coût : Le gradient
est estimé par une méthode spécifique aux réseaux de neurones, dite méthode de rétropro-
pagation, puis il est utilisé par l’algorithme d’optimisation proprement dit. Les poids sont
initialisés aléatoirement avant l’apprentissage, puis modifiés itérativement jusqu’à obtention
d’un compromis satisfaisant entre la précision de l’approximation sur l’ensemble d’apprentis-
sage et la précision de l’approximation sur un ensemble de validation disjoint du précédent.
Ce type d’apprentissage sera adopté dans notre programme RNA dans le chapitre suivant.
40
2.4.3 Calcul d’erreur
2.4.3.1 Notation et définitions
Si l’on considère un réseau de n neurones numérotés de 0 à n−1 (soit ν = n−1), on définit
le vecteur colonne des états, le vecteur potentiels V et la matrice synaptique W . L’état du
réseau est défini par le vecteur d’états. Le coefficient wij est la valeur du poids synaptique
associé à la connexion qui lie la sortie du neurone j à une entrée du neurone i. La iieme ligne
de la matrice W contient ainsi tous les coefficients synaptiques du neurone i. La matrice W
est une matrice carrée n.n. Si le neurone i n’est pas connecté à la sortie du neurone j, le
coefficient synaptique wij est maintenu à 0.
Il conviendra que toutes les entrées synaptiques xj d’un neurone i sont connectées aux
sorties de chaque neurone j du réseau, ainsi pour tout i, xj = σj . Le réseau doit pouvoir être
sensible à son environnement, il dispose pour cela de neurone d’entrée à entrée particulière
dite externe. Une entrée externe n’est pas connectée à la sortie d’un autre neurone. Le réseau
agit sur son environnement par l’intermédiaire d’un ensemble de neurones matérialisant ses
sorties.
Dans le modèle neuronal que nous allons utiliser, l’entrée externe d’un neurone est non
pondérée, elle s’ajoute à ses entrées synaptiques. Le potentiel de ces neurones est alors défini :
n−1
&
Vi (t + τ ) = (Wij .σj (t)) + Ii (t) (2.1)
j=0
Il devrait donc exister deux types de neurones dans un réseau : Ceux disposant d’une
entrée externe et les autres, mais cela alourdirait les notations et les expressions analytiques
pour peu de choses. Aussi, on considère sauf indication contraire que le potentiel de tout
neurone est défini par l’équation (2.1). Lorsqu’un neurone ne dispose pas d’entrée externe,
la variable Ii (t) est toujours nulle.
Le fait d’utiliser des notations différentes pour distinguer les neurones de sortie des autres
neurones, apporterait aussi des difficultés de notation. Pour cela, on définit un vecteur boo-
léen de n composantes ω, chacune étant associée à un neurone, tel que : ωi = 0 si le neurone
i n’est pas un neurone de sortie et ωi = 1 si le neurone i est un neurone de sortie.
Tout neurone d’un réseau peut en être une entrée ou une sortie du réseau sans qu’il y ait
de contrainte. Un neurone qui n’est ni une entrée ni une sortie est un neurone dit caché du
réseau.
Il est utile de reconnaître les synapses actives de celles qui ne le sont pas. Par exemple ils
peuvent nous en servir pour la reconnaissance des coefficients synaptiques modifiables durant
un apprentissage ou alors, d’un point de vue algorithme pour éviter d’effectuer d’inutiles
multiplications par 0 durant l’utilisation du réseau. Dans ce but, on associe généralement à
un réseau de neurones un graphe d’adjacence dont les sommets représentent les neurones et
41
les arcs les synapses. Les arcs sont orientés de la sortie d’un neurone vers l’entrée d’un autre.
On définit de même une matrice d’adjacence C, telle que Cij est égale à 1 s’il existe une
connexion du neurone pré-synaptique j vers le neurone post-synaptique i.
σi (t + τ ) = 0 si Vi (t) ≤ θi (2.3)
Wi0 = θi et x0 = −1
42
On définit alors l’évolution de l’état d’un neurone par les expressions suivantes :
ν
&
Vi (t) = (Wij .xj (t)) (2.5)
j=0
Dans le cas des neurones de Mc Culloch et Pitts, la fonction f est l’échelon de Heaviside
(figure 2.7).
La différence entre le vecteur d(k) et le vecteur des états des neurones σ(k) peut être
exprimée par un coût quadratique J(k) :
n−1
&
J(k) = ωi(di (k) − σ(k))2 (2.7)
i=0
43
Le coût quadratique doit être
" minimisé pour tout exemple k. Cela revient à minimiser le
coût quadratique global J = J(k) :
s−1 &
& n−1
J(k) = ωi (di(k) − σ(k))2 (2.8)
k=0 i=0
A chaque itération d’un algorithme de gradient, le moyen le plus simple de réduire la valeur
de J est d’ajouter à chaque poids Wij une quantité ∆Wij définie de la façon suivante :
∂J
∆Wij = −η avec η > 0 (2.9)
∂Wij
Le coefficient η appelé pas de gradient doit être choisi suffisamment grand, pour réduire
au mieux le nombre d’itérations, mais pas trop pour que l’algorithme reste stable.
Les neurones du réseau sont numérotés tel que si l’état du neurone i dépend de celui du
neurone j, alors j < i. Tous ces neurones peuvent disposer d’une entrée et/ou d’une sortie
externe. En remplaçant la dépendance par rapport au temps dans les expressions (2.5) et
(2.6) par l’indice k de l’exemple courant présenté au réseau, on obtient :
n−1
&
Vi (k) = Wij σj (k) + Ii (k) (2.11)
j=0
on en deduit alors :
∂Vi (k)
= σj (k) pour j < i (2.13)
∂Wij
On pose :
∂J(k)
δi (k) = − (2.14)
∂Vi (k)
44
Soit i, le numéro d’un neurone quelconque du réseau, soit Ji (k) la quantité :
n−1
&
Ji (k) = ωm (dm (k) − σm (k))2 (2.15)
m=i
On a :
Ji (k) = ωi (di (k) − σi (k))2 + Ji+1 (k) si i ≤ n − 1 (2.16)
On a l’identité suivante :
D’où, en utilisant les expressions (2.12) et (2.16) et la formule des dérivations composées :
n−1
& ∂Ji+1 ∂Vl
δi (k) = 2ωi f´(Vi (k))(di (k) − σi (k)) − (2.18)
l=i+1
∂Vl ∂Vi
∂Ji+1
− = δl (k) (2.19)
∂Vl
D’autre part :
* +
"
l−1
∂ Wlj σj (k) + Il (k)
∂Vl (k) j=0 ∂σi (k)
= = Wlj f # (Vi (k)) (2.20)
∂Vi (k) ∂σi (k) ∂Vi (k)
En remplaçant les termes calculés en (2.19) et (2.20) dans (2.18), on obtiendra l’expression
définitive de δi (k) :
* n−1
+
&
δi (k) = f # (Vi (k)) 2ωi(di (k) − σi (k)) + Wli δl (k) (2.21)
l=i+1
45
En résumé, si le neurone i est un neurone de sortie, δi (k) contient le terme (di(k) − σi (k))
qui représente l’erreur que commet le neurone i par rapport à la sortie désirée di (k). De plus,
la valeur de δi (k) dépend des valeurs de δl (k), où l est le numéro de neurones placés sur des
couches supérieures à celle de neurone i. Cette information se propage donc en sens inverse
de l’activation de σ(k) et ne dépend que des erreurs commises par les neurones de sortie
ainsi que des poids du réseau. Tout se passe comme si l’algorithme permettait d’attribuer
une erreur commise à tout neurone du réseau, même ceux qui sont cachés. Ces considérations
justifient le nom "retro-propagation des erreurs" pour cet algorithme. Ce dernier permet de
calculer une valeur exacte du gradient : Il s’agit d’un algorithme de gradient total. On le
présentera dans le paragraphe suivant :
σi (k) = f (Vi(k))
Fin pour
Fin pour
Fin pour
46
Pour i=0 à n-1 faire
Pour j=0 à n-1 faire
s−1
&
∆Wij = ηCij δi (k)σj (k)
k=0
t = t+1
Fin Tant que
Les premiers travaux utilisant les réseaux de neurones artificiels en mécanique, commencent
à voir le jour dans le domaine de la robotique. L’utilisation des réseaux de neurones dans ce
domaine a émergé dans les années 80 du fait de leur capacité à approcher des fonctions mul-
tidimensionnelles à partir d’un nombre réduit d’échantillons d’apprentissage. De nombreuses
47
architectures de réseaux ont été étudiées pour le contrôle de robot, avec des approches di-
verses de la commande, du rôle des réseaux et des apprentissages [Kuh1997]. Le premier
article dans le domaine de la mécanique des structures a été publié par Adeli et Yeh en
1989 [Ade1989]. Et depuis cette date, les applications des RNA en mécanique se sont dé-
veloppées rapidement. Ils sont utilisés comme un outil de classification, de modélisation et
d’identification.
En 1999, Pernot et al. [Per1999] ont illustré trois cas d’application des RNA dans leur
publication. Par un réseau de type perceptron multicouches, ils ont construit un filtre des
lois de comportement (figure 2.8). A travers un ensemble de points de la courbe contrainte-
déformation, le réseau doit déterminer la loi de comportement du matériau. Ainsi, le réseau
reçoit comme entrées les points (,i , σi ) et répond par :
– Lc1 : Si le comportement est linéaire élastique.
– Lc2 : Si le comportement est parfaitement plastique caractérisé par le point (,ref , σref ).
– Lc3 : Si le comportement est élastoplastique caractérisé par la contrainte seuil de plasticité
σref .
– Other : Si le comportement n’est pas connu.
Dans les mêmes travaux de recherche, un réseau de type perceptron multicouche a été
construit pour simuler le comportement du béton sous l’effet d’une sollicitation de com-
pression. La loi analytique de SARGUIN a été utilisée pour construire la base de données.
Les équations de la loi sont présentées dans [Per1999]. Ils ont défini un réseau dont les en-
trées sont la déformation axiale , et le paramètre σref pour en déduire la variable de sortie
représentative de la contrainte de chargement σ.
48
d’indenteur données. La validité des réseaux de neurones à modéliser la réponse est obtenue
par comparaison avec des réponses obtenues par la méthode des éléments finis.
Fig. 2.9 – Modèle RNA permettant de déterminer la force d’indentation en fonction des
paramètres d’entrées
L’apprentissage est réalisé pour chaque couple entrée/sortie dont le calcul est obtenu par
EF en utilisant le code ABAQUS. Ensuite, les résultats obtenus par RNA ont été comparés
à ceux obtenus par EF. Les résultats ont donné une bonne concordance.
Pour tester l’efficacité des RNA à modéliser le comportement du film mince, trois pro-
blèmes ont été traités dont la sortie est l’effort d’indentation F :
1. Le premier modèle RNA a comme paramètres d’entrées :
– ∆ : Déplacement de l’indenteur,
– n : Coefficient d’écrouissage.
2. Le deuxième modèle RNA a comme paramètres d’entrées :
– ∆ : Déplacement de l’indenteur,
– n : Coefficient d’écrouissage,
– σ0 : Seuil de plasticité.
3. Le troisième cas consiste à construire un modèle RNA qui tient compte de l’effet de
l’écrouissage du film.
Les modèles neuronaux proposés dans ce travail montrent de bons résultats vis-à-vis d’un
modèle réalisé par la méthode des éléments finis.
49
L’avantage majeur de la modélisation par RNA est qu’on peut accéder à la réponse d’un
problème dans un temps de calcul très court [Ham2002]. Dans cet article, l’outil neuronal
a été utilisé pour substituer un calcul éléments finis. L’objectif de l’étude est de prédire la
hauteur des bavures pendant l’opération de découpage en fonction de la variation des jeux
et des rayons des outils. Pour cela le modèle RNA est conçu pour simuler les configurations
suivantes :
– 12 valeurs de jeu : c (%)= {1, 3, 5, 7, 9, 10, 12, 14, 15, 17, 19, 20}
– 4 géométries des outils sont choisies tel que :
– Une matrice présentant un rayon de Rwd = 0.01mm
– Quatre poinçons de différents rayons de raccordement : Rwp = {0.01, 0.06, 0.12, 0.2}
Par suite, 48 simulations ont été exécutées pour la construction du modèle RNA pour
chaque paramètre géométrique illustré précédemment. Le modèle permet de calculer la hau-
teur de bavure dans une tôle découpée. Une bonne corrélation a été observée entre la pré-
diction par le modèle RNA et les résultats expérimentaux.
En 2003, Lin a utilisé les RNA pour la modélisation d’un essai d’emboutissage hydrody-
namique d’une pièce en forme de T. Le modèle proposé a permis la prédiction de la longueur
maximale de la pièce en T qui peut être embouti en fonction des paramètres du procédé. Les
paramètres tenus en compte sont l’épaisseur du matériau, le diamètre du flan et celui de la
matrice. Le réseau neurologique a été entraîné à partir des résultats issus de la simulation
par éléments finis. Les entrées du modèle sont : Le diamètre du flan (D), le diamètre de la
matrice (d) et l’épaisseur du flan (t). La sortie est la longueur maximale de la pièce définit
par le paramètre L. Une base de donnée de 24 combinaisons (entrées, sortie) a été générée
par un modèle EF. Une fois le modèle est conçu, trois jeux de paramètres ont été testés.
Le maximum d’erreur entre la réponse EF et celui RNA a été inférieur à 2.17%. Donc, ce
résultat basé sur une illustration par éléments finis fournit ainsi la possibilité de gérer ce
procédé par RNA [Lin2003].
La simulation numérique remplace l’expérience dans plusieurs cas pour plusieurs raisons :
D’une part, l’expérience nécessite un matériel plus cher et un temps d’expérience plus lent.
D’autre part, les modèles de comportement qui sont discrétisés dans des codes de calcul pré-
sentent toujours des lacunes surtout pour la phase inélastique. C’est pour ces deux raisons
qu’en 2004, Tomonari et Mark ont justifié leur proposition pour la modélisation de la plas-
ticité et de la plasticité cyclique en se basant sur l’outil neurologique [Tom2004]. Le modèle
RNA proposé a été implémenté dans un code de calcul par éléments finis (figure 2.10). Ils
ont montré que la déformation pour un comportement en plasticité cyclique d’un matériau
a été estimée dans des limites de 3% d’erreur.
Genel [Gen2004] a utilisé aussi des modèles basés sur l’application des réseaux de neurones
artificiels pour la prédiction des propriétés de fatigue en utilisant les informations issues des
essais de traction pour 73 aciers. Les propriétés de fatigue de ces aciers ont été collectées à
partir de la littérature. Ils ont été ensuite exploitées pour l’apprentissage des modèles. La
déformation totale qui caractérise la courbe limite de déformation est exprimée de la façon
50
Fig. 2.10 – Détermination du comportement du matériau à partir d’un modèle neuronal
[Tom2004]
suivante :
∆ε ∆εe ∆εp
= +
2 2 2
∆ε σf#
= (2N)b + ε#f (2N)c
2 E
Avec :
σf# : Coefficient de résistance à la fatigue
ε#f : Coefficient de ductilité à la fatigue
Les résultats donnés par ce modèle indiquent que les valeurs des coefficients de résistance
et de ductilité à la fatigue sont prédits respectivement à 99 et 98%.
Les réseaux de neurones artificiels sont aussi utilisés comme une technique d’identifi-
cation et d’ajustement des paramètres matériels et géométriques dans plusieurs activités
industrielles et plus particulièrement dans les procédés de mise en forme.
En effet, Pernot et al. [Per1999] ont proposé une méthode d’identification des paramètres
materiels basée sur l’utilisation des RNA. Une comparaison avec les méthodes classiques
51
Fig. 2.11 – Comparaison entre méthode d’identification inverse classique et méthode d’iden-
tification se basant sur les réseaux de neurones artificiels [Per1999]
d’identification a été présentée dans cet article (figure 2.11). La méthode proposée dite mé-
thode non paramétrée, ne s’intéresse pas à l’aspect physique des paramètres mis à l’identifica-
tion. C’est pour cela qu’ils les classent au modèles "Blak-Box". L’ajustement des coefficients
internes du modèle se fait directement à partir de l’expérience, alors que dans le cas d’une
méthode d’identification classique l’ajustement des paramètres se fait après simulation et
comparaison par rapport à l’expérience. Ils ont montré que l’utilisation des réseaux de neu-
rones est une alternative à l’identification des lois de comportements.
En 2001, Huber et al. [Hub2001] ont largement utilisé cette même procédure pour l’iden-
tification des paramètres élastique et plastique de la matière lors d’un essai d’indentation
pyramidale des films minces. Les données d’apprentissages sont générées par des essais ex-
périmentaux et numériques.
Cette technique d’identification a été également utilisée par Martin et al. [Mar2003] pour
l’identification de coefficient d’écrouissage et les paramètres d’endommagement d’un maté-
riau ductile. Dans cette étude, un essai avec un petit poinçon (Small Punch Test) a été utilisé
pour la détermination de la réponse du matériau sous un chargement de type complexe. En-
52
suite la courbe résultante qui répresente l’effort en fonction du déplacement du poinçon, a été
transférée vers un réseau neurologique. Ces courbes ont été generées par éléments finis pour
chaque combinaison des paramètres matériels définis précédemment. Pendant la phase d’ap-
prentissage le réseau neurologique produit une fonction rapprochée pour le problème inverse
reliant les paramètres matériels à la forme de la courbe, effort en fonction du déplacement du
poinçon. Cette technique a été utilisée pour trois différents matériaux. Les paramètres iden-
tifiés sont par la suite vérifiés et examinés en simulant un essai de traction. Les paramètres
identifiés ici, sont ceux du modèle simulant la loi de comportement de Gurson, Tveergard et
Needleman (GTN) qui prend en considération l’effet d’endomagement. Le modèle neuronal
proposé par Martin et al. est capable de générer une fonction approchée des paramètres en
fonction de la forme de la courbe effort déplacement du poinçon. L’exploitation du modèle
a été faite expérimentalement. Les résultats obtenus dans ce papier sont très encourageants
pour l’application de cet outil dans l’identification et l’optimisation des procédés de mise en
forme.
Parmi d’autres applications de cet outil, on peut citer celles qui utilisent ces techniques
pour la modélisation et l’identification de comportement des systèmes mécaniques. En 2001,
waszczyszyn et al. [Was2001] ont montré que les RNA peuvent être appliqués pour la réso-
lution des problèmes de types :
– Simulation : Chercher la réponse d’un système mécanique en sachant ses caractéristiques
et les variables d’excitation.
– Simulation inverse : Chercher l’excitation à partir de la réponse du système mécanique
ainsi que ses caractéristiques.
– Identification : Chercher les caractéristiques du système mécanique en sachant les va-
riables d’excitation ainsi que la réponse.
2.6 Conclusion
Dans ce chapitre nous avons détaillé la technique des réseaux de neurones artificiels. Au dé-
but, nous avons exposé les propriétés fondamentales de réseau de neurone suivi d’un ensemble
d’arguments qui justifie le choix de cette méthode dans la modélisation et l’optimisation des
systèmes industriels. Nous avons expliqué le fonctionnement d’un neurone formel et d’un ré-
seau de neurone. Nous avons aussi, présenté les règles d’apprentissage d’un réseau non bouclé
53
multicouche. Finalement, un aperçu sur les principaux travaux publiés a été exposé. Il en
ressort que l’utilisation de cet outil mathématique de modélisation et d’optimisation non
paramétrique ne cesse d’augmenter dans plusieurs activités de recherche. Des nombreuses
publications sur ce sujet ont permis de résoudre des problèmes présentant une complexité
difficile à décrire avec des modèles mathématiques. A la base de ce qui a été montré dans ces
deux premiers chapitres, nous entamons la partie développement d’un algorithme d’optimi-
sation. Cet algorithme sera basé sur cet outil mathématique qui fera l’objet d’un troisième
chapitre.
54
Chapitre 3
3.1 Introduction
Pour modéliser un procédé de mise en forme d’une façon proche de la réalité, il faut prendre
en compte la variabilité de tous les paramètres de l’opération. Une simulation numérique d’un
tel procédé, que ce soit par une méthode analytique ou par une méthode des éléments finis,
sera très coûteuse en temps de calcul. Il devient fortement nécessaire de développer des
modèles de calcul "très rapide" permettant de prendre en compte de tous les paramètres
intervenant dans un tel processus de fabrication.
Nous présentons dans ce chapitre la démarche de développement que nous avons suivi pour
coupler un programme à base de réseaux de neurones artificiels (RNA) avec le code de calcul
par éléments finis ABAQUS. Cet algorithme se décompose essentiellement de trois parties :
Cet algorithme est référencé dans certain passage par le nom PONN (Process Optimisation
Neural Networks).
Nous nous intéressons plus particulièrement à la partie réseau de neurones constituant le
cœur de cet algorithme. Ensuite nous présentons quelques exemples de validation.
55
3.2 Etude paramétrique
Pour construire un modèle neuronale nous avons besoin d’un plan d’expériences. Donc,
nous avons fait appel à une étude paramétrique reliant les variables de sorties aux variables
d’entrées dans un processus bien déterminé. Pour ce faire, on a développé un programme
sous Python couplé au code de calcul Abaqus. Ce programme porte l’extension PSF. Il est
structuré de la façon suivante (figure 3.1) :
1. Définition des paramètres de conception qui varient pour chaque calcul :
– Paramètres géométriques
– Paramètres matériels
Ces paramètres peuvent être discrets ou continus
2. Précision des intervalles de variation de chaque paramètre (domaine de définition)
3. Combinaison des différentes valeurs prises par ces paramètres afin de former un en-
semble des combinaisons.
4. Génération des fichiers .inp et lancer les calculs.
5. Extraction des réponses correspondantes.
Le domaine des valeurs possibles ou de la valeur de référence pour un paramètre donné peut
être redéfinis temporairement lors de sa définition. On peut aussi imposer des contraintes de
conception de type géométrique ou matériel.
Ainsi on obtient une base de données numérique reliant les variables de conception aux
réponses correspondantes.
Chaque paramètre défini dans le fichier script doit être mis dans le fichier (.inp) sous la
forme <Parameter>.
L’automatisation de calcul avec Abaqus se fait en deux modes :
– En utilisant Python et la commande *PARAMETER (figure 3.2).
– En utilisant Python en conjonction avec ABAQUS/CAE (figure 3.2).
Dans notre algorithme nous avons utilisé la première procédure d’automatisation.
Une fois un plan d’expériences est obtenu contenant les combinaisons de tous les para-
mètres d’entrés et leurs réponses, on construit le réseau de neurone. Ce programme est déve-
loppé sous FORTRAN. Il permet de générer implicitement une fonction reliant les variables
de conceptions aux variables d’entrées. Il est décrit dans le paragraphe suivant.
56
Fig. 3.1 – Calcul paramétré à l’aide d’ABAQUS
3.3.1 Structure
Les neurones sont organisés en couches : Chaque neurone est connecté à toutes les sorties
des neurones de la couche précédente et sa sortie sera distribuée à tous les neurones de la
couche suivante. Les entrées de la première couche sont définies comme étant les paramètres
57
d’entrées du réseau (figure 3.3). Les fonctions d’entrée et d’activation (chapitre 2) sont iden-
tiques pour tous les neurones d’une même couche, mais peuvent différer selon la couche. Le
programme qui gère cette MLP est illustré par la figure 3.4.
X − min
X́ = (3.1)
max − min
Où max (.) et min (.) sont les valeurs min et max établies sur les données d’appren-
tissage. Cela signifie que les données sont ramenées dans un hypercube.
2. "Z-score normalisation" appelée aussi standardisation : Cette méthode fonctionne bien
dans les cas où on ne connaît pas le minimum et le maximum des données d’entrée ou
quand on a des valeurs qui dominent une normalisation min-max.
X − moyenne
X́ = (3.2)
Std
Où Std est l’écart type appelé aussi "standard deviation"
3. Normalisation par échelle décimale : Il s’agit de normaliser les données par déplacement
de la virgule décimale des valeurs. Le nombre de virgules décimales déplacées dépend
de la valeur absolue maximale.
X
X́ = i (3.3)
10
58
Fig. 3.4 – Boîte de construction de programme RNA
59
Fig. 3.5 – Illustration de la descente du gradient utilisé dans notre programme
On peut représenter la descente du gradient comme une bille que l’on poserait sur la courbe,
et qui descendrait logiquement la pente (le gradient est la dérivée en plusieurs dimensions et
représente donc la pente de la courbe) (figure 3.5).
60
– La descente avec inertie : Il s’agit d’introduire un moment d’inertie (Coefficient de
moment=α), qui correspond dans notre image de la bille (figure 3.5), à l’inertie qu’elle
acquiert en descendant la courbe : Son élan lui permettra de ne pas s’arrêter dans le
premier minimum local rencontré. C’est la méthode que nous adoptons par la suite. Ce
terme permet d’éviter les oscillations de l’algorithme pour des valeurs importantes de
η. Donc les différentes étapes lors de son exécution sont présentées dans le paragraphe
suivant :
3.3.4 Exécution
Une présentation généralisée des transformations mathématiques a été établie dans le
deuxième chapitre de ce mémoire. Notre programme fonctionne suivant l’ordre des étapes
suivantes :
Etape 1. Sélectionner un taux d’apprentissage η et un coefficient de moment α de façon
aléatoire.
Etape 2. Prendre des valeurs initiales aléatoires des coefficients synaptiques compris entre 0
et 1.
Etape 3. Calculer la sortie du réseau ym en utilisant les relations suivantes (Figure 3.3).
L
&
ym = f (vm ), vm = Wmi xi + bi (3.5)
i=1
Etape 4. Calculer l’erreur entre la valeur de la sortie du réseau et celle désirée suivant la
relation suivante.
P N
1&&
E= (djm − yjm)2 (3.6)
2 j=1 m=1
Ou P représente le nombre total des paires d’exemples d’apprentissage, N est le nombre des
sorties du réseau, djm est la sortie désirée et yjm est la sortie du modèle RNA.
Etape 5. Arrêter si le critère d’arrêt est atteint, sinon passer à l’étape 6.
Etape 6. Calculer la contribution d’erreur pour chaque neurone couche par couche.
Etape 7. Mettre à jour les poids de connexion.
∂E
∆Wij = −η + αWij (t − 1) (3.7)
∂Wij
Wij (t + 1) = Wij (t) + ∆Wij (3.8)
Avec η est le taux d’apprentissage et α est le coefficient de moment.
Etape 8. Répéter dès l’étape 3.
61
ce qui fixe effectivement une limite supérieure sur la durée d’apprentissage. Ce critère est im-
portant car la retropropagation des erreurs n’offre aucune garantie quant à la convergence de
l’algorithme. Il peut arriver par exemple, que le processus d’optimisation reste compris dans
un minimum local. Sans un tel critère, l’algorithme pourrait ne pas se terminer. Un deuxième
critère commun consiste à fixer une borne inférieure sur l’erreur quadratique moyenne ou
encore sur la racine carrée de cette erreur. Dépendant de l’application, il est parfois possible
de fixer a priori un objectif à atteindre. Lorsque l’indice de performance choisi diminue en
dessous de cet objectif, on considère simplement que le MLP a suffisamment bien appris ses
données et on arrête l’apprentissage.
Les deux critères précédents sont utilisés dans notre programme, mais ils comportent aussi
des limitations. Le critère relatif au nombre maximum de périodes d’entraînement n’est pas
du tout lié à la performance du réseau. Le critère relatif à l’erreur minimale mesure quant
à lui un indice de performance. Mais ce dernier peut engendrer un phénomène dit de sur-
apprentissage (figure 3.7). Ce phénomène n’est pas désirable dans la pratique, surtout si l’on
ne possède pas une grande quantité de données d’apprentissage ou si ces dernières ne sont
pas de bonne qualité.
62
passe par tous les points d’entraînement et donc que l’erreur est nulle. En évidence, ce réseau
ne généralisera pas bien si on échantillonne d’autres points sur la droite.
Pour remédier à ce problème, nous avons utilisé dans le programme un autre critère d’arrêt
pour régler les paramètres du réseau (coefficient de moment, nombre d’epoch, taux d’appren-
tissage) qui se base sur une technique dite de validation croisée. Cette technique consiste à
utiliser deux ensembles indépendants de données pour entraîner notre réseau : un pour l’ap-
prentissage (l’ajustement des poids) et l’autre pour la validation. Le critère d’arrêt consiste
alors à stopper l’apprentissage lorsque l’ensemble de validation présente un minimum d’er-
reur. Cette dernière traduit la différence entre les points réels et les points prédits par le
réseau. Une autre considération pratique consiste à permuter l’ordre de présentation des
exemples d’apprentissage pour chaque période d’entraînement. En effet, la performance de
la méthode de la descente du gradient peut dépendre fortement de cet ordre de présenta-
tion, qui engendre des trajectoires différentes dans l’espace des paramètres pouvant amener
à différents minimums locaux. Donc le fait de permuter les données à chaque période nous
garantit que l’on ne tombera pas systématiquement sur les mêmes minimums locaux. Ainsi
on obtient un exécutable contenant les poids optimaux.
3.3.6 Validation
Le programme RNA est totalement paramétrable et il possède deux modes : Direct et
inverse.
– Direct : Le programme calcule la valeur de sortie associée quand on lui fournit une valeur
d’entrée.
– Inverse : Le programme permet de prédire le ou les facteurs d’entrées associés à une
valeur de sortie donnée.
Pour chaque couche de neurone on peut choisir :
– Le nombre de neurones par couche.
– La fonction d’activation, bien que nous utilisons dans tous les exemples une fonction de
type sigmoïde.
– Les coefficients d’apprentissage et de moment.
– La méthode de normalisation, bien que nous avons utilisé uniquement la méthode resca-
ling illustrée précédemment.
Ce programme a été testé sur des expressions analytiques au début, puis nous l’avons mis
en œuvre sur des applications réelles par couplage avec le code de calcul par éléments finis
Abaqus.
63
bien avec les résultats prédits par ce programme.
Pour la prédiction des fonctions à une seule variable présentées dans figure 3.8, nous
avons utilisé une architecture d’un réseau de type 1-2-1 : 1 neurone dans la couche
d’entrée (x), 2 neurones dans la couche cachée et 1 neurone au niveau de la couche de
sortie (Y ). Pour calibrer les réponses nous avons ajusté les autres paramètres du modèle
RNA : Nombre d’epoch, le taux d’apprentissage et le coefficient de moment. Pour toutes
les fonctions, le nombre maximal d’epochs servi pour la phase d’apprentissage du réseau
n’a pas dépassé 1000. La convergence de l’algorithme est rapide pour ces fonctions. Le
maximum d’erreur entre la réponse analytique et celle prédite par le modèle RNA était
de 10−6 , enregistrée dans le cas de la fonction sinus.
Fig. 3.8 – Validation du modèle RNA avec des fonctions analytiques à une seule variable
64
2. Fonction à plusieurs variables
Dans ce cas, nous avons testé le programme avec deux fonctions analytiques dont les
expressions sont : )
x1 ∈ [−20, 20]
Y1 = 2x1 − 3x2 , avec un choix arbitraire des entrées tel que :
2 2
x2 ∈ [−30, 10]
x1 ∈ [−86, 64]
x21
Y2 = x2 −x 3 , avec un choix arbitraire des entrées tel que : x2 ∈ [74.6, 89.6]
2 3
x3 ∈ [46, 83.5]
Pour l’ajustement des réponses prédites avec les réponses analytiques, nous avons com-
mencé à faire varier le nombre de neurone de la couche cachée. Ce dernier est fixé à 5 neurones
après un ensemble de tests manuels. Ensuite nous avons joué sur les autres paramètres pour
l’ajustement de deux réponses.
Pour un taux d’apprentissage égal à 0.1 et un coefficient de moment égal à 0.12, le nombre
d’epochs conduisant à la convergence du programme pour la première fonction (Y1) est de
l’ordre de 1000. Une erreur de 0.2.10−5 est atteinte pour la deuxième fonction avec les mêmes
coefficients décrits précédemment et un nombre d’epochs pour l’apprentissage du réseau égal
à 1500. La structure du réseau pour la première fonction est 2-5-1, alors que celui de la
deuxième fonction est 3-5-1.
Fig. 3.9 – Validation du modèle RNA avec des fonctions analytiques à plusieurs variables
65
3. Refroidissement dans l’air.
Le tableau suivant présente une comparaison entre les valeurs expérimentales et les valeurs
prédites par PONN. D’après ces exemples de validation, on constate que les réseaux de
Tab. 3.1 – Dureté HRC en fonction des paramètres milieu et température de trempe
neurones représentent donc une alternative qui peut être très efficace pour les problèmes
que les algorithmes classiques ne peuvent pas résoudre. Leur aptitude à la généralisation
représente l’un de leurs grands avantages.
Au début, l’apprentissage du réseau est très sensible aux paramètres du modèle (le taux
d’apprentissage (η), le coefficient de moment (α) dans les expressions d’ajustement des poids
de connexion et le nombre d’epoch). Après son ajustement, le modèle donne de bons résul-
tats puisqu’il parvient à approcher différentes fonctions avec une bonne prédiction (figures
3.8 et 3.9). Dans le paragraphe suivant, on présente l’influence des ces paramètres sur la
performance du programme.
Pour chaque paramètre d’entrée, nous avons défini son domaine de définition. Ces derniers
sont choisis à différents ordres de grandeur afin de mettre en évidence l’utilité du bloc de
normalisation dans le programme.
Avec :
66
– x1 ∈ [0, 0.7]
– x2 ∈ [2, 37]
– x3 ∈ [10, 1000]
Dans ce paragraphe, des nombreuses simulations ont été réalisées en faisant varier le nombre
d’epoch. Les autres paramètres sont gardés à des valeurs constantes telles que :
Fig. 3.10 – Comparaison de la réponse simulée par PONN pour différents nombres d’epochs
On constate d’après la figure 3.10, que le nombre d’epochs a une grande influence sur la
prédiction du modèle. En effet, ce paramètre ne doit pas être aussi petit pour éviter le manque
d’apprentissage et ne doit pas être très élevé pour éviter le phénomène de sur-apprentissage
(figure 3.7).
67
Fig. 3.11 – Influence de nombre de neurones cachés sur la réponse
Fig. 3.12 – Influence de nombre de neurones cachés sur l’erreur quadratique moyenne
68
D’après les figure 3.11 et 3.12, on peut dire que les nombres de neurones dans les couches
cachées influent beaucoup sur la prédiction. D’après la figure 3.12, il est constaté qu’il existe
un nombre de neurone bien déterminé à partir du quel il n’y aura plus de diminution sur
l’erreur quadratique moyenne. Donc, des simulations virtuelles seraient judicieusement réa-
lisées jusqu’à la stabilisation de l’erreur. Dans cet exemple, la valeur minimale de l’erreur
quadratique moyenne est atteinte pour un nombre de neurones dans la couche cachée égal à
12.
senté la réponse prédite et nous avons prélevé à chaque fois l’erreur quadratique minimale.
Les valeurs des autres paramètres sont considérées comme suit :
Sur la figure 3.14 nous avons représenté l’évolution de l’erreur quadratique moyenne en
fonction de α. On a constaté qu’il existe un coefficient de moment optimal pour lequel l’erreur
est minimale. Dans cet exemple, il correspond à une valeur α=0.12. Donc, il est nécessaire de
passer par une série de simulations manuelles afin d’aboutir à l’optimum de ce paramètre. On
peut tirer quelques remarques qui seront adoptées dans la suite pour d’autres applications :
69
Fig. 3.14 – Effet du coefficient α sur l’erreur quadratique moyenne
1. Une valeur très faible de ce paramètre entraîne une convergence très lente de l’algo-
rithme et une mauvaise prédiction.
2. Une valeur très élevée de α provoque une convergence rapide de l’algorithme et une
mauvaise prédiction de la réponse.
3. La valeur optimale de ce paramètre est trouvée comprise dans notre modèle entre 0.1
et 0.2.
3.5 Algorithme
Le programme PONN a été développé sous FORTRAN alors que la partie couplage avec
Abaqus a été écrite en langage de programmation orienté objet sous PYTHON. L’objectif
est de générer à partir d’un ensemble des variables une base de données numérique à l’aide
d’un modèle EF sous Abaqus et de prédire pour d’autres valeurs de ces variables situées dans
leurs domaines de faisabilité leurs réponses par le modèle RNA.
Le programme comporte deux grandes parties : Une qui génère et exécute des fichiers inp
pour la construction de la base de données tandis que l’autre partie exécute le programme
PONN pour chercher les réponses en fonction des variables d’entrées ou bien de chercher
les variables d’entrées optimales donnant une ou des réponses bien déterminées. Une fois
le modèle RNA (PONN) est construit et qui représente une boite noire caractérisant une
fonction objectif reliant les variables d’entrées aux variables de sorties d’un système ou
d’un processus quelconque il pourrait être exploiter dans la cadre d’une modélisation ou
d’optimisation.
70
Fig. 3.15 – Oganigramme de l’algorithme d’optimisation automatique
Etant donnée que le champ d’application de notre étude est lié aux procédés de mise en
forme, un algorithme d’optimisation a été développé selon la figure 3.15.
La structure se déforme généralement sous l’action des efforts externes agissant sur celle-ci
tels que : Collision avec les autres objets, pesanteur, .... Le problème consiste à lier entre les
entrées comme les excitations et les sorties qui représentent les réponses et les perturbations,
résultantes du chargement de la structure pour l’application en temps réel en utilisant les
vraies propriétés des matériaux qui la constitue [Bie2000], [Tan1998], [Kan1996], [Fos2002],
71
[Gib1984]. Donc les techniques traditionnelles de simulation en temps réel ne permettent pas
de représenter exactement les déformations et les interactions complexes qui peuvent avoir
lieu dans une telle structure. En effet, l’analyse par la méthode des éléments finis (MEF) basée
sur la mécanique des milieux continus est largement considérée comme étant une alternative
pour ce genre des simulations [Jan2002], [Pop1999], [And1998]. Cependant, en raison de
leur nature fortement non linéaire, son application directe à la rétroaction en temps réel de
force et visualisation de déformation de structure, n’a pas été pratiquée pour la plupart des
applications. Cette limitation est principalement due à la longue période de calcul fournie
par les approches standard de la méthode. Pour remédier à ça, des recherches actuelles
utilisent une méthodologie s’appuyant sur des simulations numériques par des modèles à
base de réseau de neurones artificiels et qui nécessitent une base de données antérieurement
déterminée à partir des éléments finis. Comme illustration, de ce qu’on vient d’introduire et
de validation du modèle développé, nous avons proposé de simuler l’impact d’une balle de
tennis sur la raquette.
Le choix de cet exemple pour la validation de cet algorithme a été fait pour les raisons
suivantes :
– Présence des non-linéarités géométriques,
– Présence des non-linéarités matérielles,
– Prise en compte de l’effet dynamique du système en faisant des simulations en dynamique
explicite sur Abaqus.
Les cordes sur la raquette de tennis sont modélisées en utilisant des éléments de type
(TRUSS). On suppose qu’elles sont élastiques linéaires avec un module de Young de 5 GPa
et un coefficient de Poisson de 0.3. Sa masse volumique est égale à 600kg/m3. Les cordes
sont soumises à une pre-tension de 50 N. L’armature est supposée comme étant un corps
rigide en utilisant des éléments rigides. Elle peut se déplacer dans toutes les directions (Six
degrés de liberté). La balle de tennis est modélisée par une sphère, en utilisant 150 éléments
de type coque (figure 3.16). On suppose qu’elle est en caoutchouc dont le matériau est
72
Fig. 3.16 – Modèle schématique de la frappe de la balle sur la raquette.
Le temps de calcul par éléments finis, fait pour l’étude de toutes les combinaisons possibles
des paramètres d’entrées était environ de 13 heures sur une machine équipée d’un processeur
Pentium 4 avec une mémoire vive de 512 Mégaoctets de RAM et une fréquences d’horloge
de 3Ghz.
73
L’historique de la réaction de la raquette en fonction du temps est montré sur la figure 3.18.
La valeur maximale de la réaction est atteinte au bout de 5 millisecondes. On peut remarquer
que cette réponse commence à se stabiliser après une durée de 10 millisecondes. L’oscillation
de la réaction pourrait être expliquée par une conséquence du taux élevé d’énergie cinétique
se produisant par la vibration des cordes.
74
– 2 Neurones de sorties : Déformation de la balle et la réaction de la raquette maximales.
Nous avons choisi aléatoirement 190 échantillons à partir de 260 pour la phase d’apprentissage
de l’algorithme. Les 70 autres échantillons restants sont employés pour la phase de vérification
du modèle conçu avec une possibilité de sa généralisation à d’autres applications.
75
Fig. 3.20 – La moyenne de l’erreur quadratique RMSE en fonction de nombre d’epochs
3.7 Conclusion
Nous avons présenté dans ce chapitre la méthodologie suivie pour la construction d’une pro-
cédure automatique permettant d’être exploitée dans diverses applications. Cette procédure
comporte essentiellement les sous programmes Script écrit en langage de programmation
Python et un programme à base d’un réseau de neurones artificiels multicouches. Le pro-
gramme Script comprend une partie pour la déclaration des paramètres opératoires à varier
ensuite l’exécution du calcul par EF sur abaqus et enfin il permet de lancer le programme
RNA à travers un exécutable. Des tests de validation et de vérification sont menés afin de
voir les performances de l’algorithme. La bonne concordance issue de cette validation montre
que cet algorithme fonctionne convenablement et il peut nous servir comme outil puissant
pour résoudre certains problèmes complexes. Le couplage entre un calcul EF et un calcul
RNA constitut une méthode de modélisation et d’optimisation très rapide que les méthodes
classiques. Nous avons mis en application cette méthode sur deux exemples de mise en forme.
Ceci permet d’une part, de s’affranchir de la lourdeur d’un calcul par les méthodes classiques
et d’autre part d’obtenir une bonne précision sur les paramètres à optimiser.
76
Chapitre 4
4.1 Introduction
En emboutissage des produits minces, l’étude de quelques paramètres comme le contour du
flan, la géométrie des outils, les propriétés mécaniques de la tôle, la vitesse d’emboutissage et
les efforts de serrage, est fondamentale pour la faisabilité d’une nouvelle pièce et de la fiabilité
du procédé. L’objectif de la simulation numérique d’un tel procède de mise en forme, est
principalement l’amélioration de la qualité de la pièce finale et de la fiabilité du procédé par la
maîtrise et l’optimisation de ses paramètres. L’optimisation des paramètres d’emboutissage
a fait l’objet de plusieurs développements au cours de la dernière décennie. Les fonctions
objectifs et les contraintes de limitation sont choisies essentiellement dans le but de réduire
ou de contrôler la variation de l’épaisseur, les risques de striction et de plissement, le retour
élastique, . . .. Les variables de conception peuvent être de nature géométrique comme la forme
du flan et la géométrie des paramètres du procédé ou bien de nature matérielle comme les
coefficients d’anisotropie, l’exposant d’écrouissage et la rigidité du matériau. Pour connaître
la zone de rupture, la localisation de l’amincissement minimale dans l’embouti est nécessaire.
77
3. Un calcul d’optimisation des paramètres géométriques pour réduire le phénomène du
retour élastique.
Pour ce faire une gamme des matériaux a été définie par variation des leurs propriétés
intrinsèques. Egalement, des variables géométriques et technologiques sont variées comme le
frottement entre outils, le rayon de congé de la matrice, le rayon de congé du poinçon et le
jeu entre les outillages. Dans la première et la deuxième application, nous avons fait varier
les paramètres matériels pour une géométrie donnée et la réponse enregistrée, représente
l’épaisseur minimale dans l’embouti. Quant à la troisième application, une variation des
paramètres géométriques du procédé a été réalisée pour un matériau donnée et ceci mène
à une prédiction de la géométrie de la pièce en relevant le retour élastique. Pour chaque
combinaison de ces paramètres, le calcul des variables de sorties s’est fait par la méthode des
éléments finis (MEF). Pour tester la validité du modèle RNA construit, nous avons procédé à
d’autres simulations avec d’autres combinaisons de ces paramètres différentes à celles utilisées
dans la phase d’apprentissage du réseau. A partir de la même base de données, des modèles
RNA inverses sont construits permettant d’identifier les paramètres du matériau pour une
réponse cible.
Dans la suite de ce chapitre, nous présenterons l’essai ainsi que les paramètres opératoires
du procédé. Ensuite, les résultats d’une simulation numérique par EF seront présentés. Puis,
la démarche suivie pour le calcul de l’amincissement maximal dans la pièce ainsi que l’iden-
tification des paramètres du matériau correspondants au moyen du modèle RNA, seront
illustrés. A la fin de chapitre, une démarche d’optimisation visant la minimisation du retour
élastique pour une variation de quelques paramètres géométriques du procédé sera exposée.
78
Fig. 4.1 – Principe d’emboutissage : Géométrie de la maquette numérique
Les réponses que nous cherchons à prédire par EF ou par RNA sont dépendantes des
paramètres matériels ainsi que des lois qui les décrivent présentés ci-dessus. Généralement,
l’écrouissage et l’anisotropie de la matière sont les paramètres matériels les plus influents sur
le comportement de la tôle au cours de sa mise en forme par emboutissage.
– L’anisotropie est définie par les coefficients de Lankford noté par rα . L’indice α désigne
l’angle entre la direction de traction et la direction de laminage de la tôle. Plus le coef-
ficient d’anisotropie rα est élevé, plus la réduction d’épaisseur est faible par rapport au
rétrécissement en largeur. Et par conséquent, une tôle qui n’a pas tendance à s’amin-
cir, elle résistera mieux et le risque de rupture devient faible. D’où il sera préférable de
travailler avec des matériaux possédant des coefficients d’anisotropie élevés. Ce qui per-
met d’améliorer la performance mécanique des pièces après leurs mise en forme. Dans
le cas isotrope, rα devient égal à 1 indépendamment de l’angle. Pour un emboutissage
quelconque, où l’on ne connaît pas à priori l’orientation de la direction de laminage, on
utilise la valeur moyenne :
r0 + 2r45 + r90
r̄ = (4.6)
4
79
– L’écrouissage traduit l’aptitude d’un matériau à résister à la localisation de la déforma-
tion. Par exemple, dans le cas des matériaux satisfaisants la loi de Ludwick σs (α) =
σ0 + k(,p )n un coefficient d’écrouissage n élevé traduit un comportement favorable du
matériau. Par convention, la valeur du coefficient d’écrouissage moyen d’une tôle doit
être déterminée par la mesure des coefficients d’écrouissage d’éprouvettes prélevées à 0◦ ,
45◦ et 90◦ par rapport au sens de laminage de la tôle. Généralement, nous utiliserons la
même formule que celle appliquée pour le calcul du coefficient moyen de Lankford. Elle
est donnée par :
n0 + 2n45 + n90
n̄ = (4.7)
4
Dans ce qui suit, les principaux paramètres du matériau traduits par le coefficient de
Lankford rα caractérisant l’anisotropie et le coefficient d’écrouissage n sont maintenus
comme variables de l’étude de l’opération d’emboutissage.
80
Concernant le choix des intervalles de variation des paramètres, chaque variable a été discré-
tisé suivant trois niveaux. Le tableau4.1 récapitule les valeurs considérées pour chacun de ces
paramètres. Un nombre total d’essai constituant une base de données est de 729 points de
conception qui forment, ainsi un plan d’expériences envisagé pour la simulation numérique.
Niveaux Paramètres
n k r0 r45 r90 µ
1 0.1 400 0.5 0.5 0.5 0.05
2 0.2 700 1.4 1.4 1.4 0.1
3 0.4 1000 2.5 2.5 2.5 0.2
81
– Les conditions aux limites appliquées consistent en une force de serre-flan de 10kN, un
déplacement imposé au niveau du poinçon de 65mm et des conditions de symétrie.
– Le poinçon, la matrice et le serre-flan sont modélisés dans l’hypothèse des corps rigides.
Les paramètres utilisés dans une première simulation sont présentés dans le tableau 4.2.
Le nombre total des éléments est de 200. Comme résultat que nous cherchons à appréhender
n k r0 r45 r90 µ
0.1 400 1.8 1.2 0.5 0.2
ici, est la répartition de l’épaisseur dans l’embouti final. L’utilisation des éléments Shell nous
permettra d’accéder directement à la variation de ce paramètre à travers la commande STH
définie dans le code Abaqus [Aba2001]. La valeur minimale de cette épaisseur, sera relevé à
la fin de résolution.
Les résultats issus de cette simulation montrent qu’il y’a un amincissement au niveau du
rayon de congé du poinçon. Les figure 4.4-a et figure 4.4-b montrent, respectivement les
iso-valeurs et la variation de l’épaisseur le long d’un méridien de l’embouti. D’après la figure
4.4-b, la valeur minimale de l’épaisseur de la forme emboutie pour ce jeu de paramètre est
de l’ordre de 1.53mm. En pratique, pour prédire un tel paramètre dans ce procédé indus-
triel, nous sommes amenés à chaque fois a lancer une simulation numérique par EF et de
consommer un temps important de calcul. Chacune de ces simulations a durée approxima-
tivement une demi heure sur une machine équipée d’un processeur Pentium 4 à 1.6GHz et
une mémoire vive 256 Mégaoctets.
82
4.3.3 Description générale de l’algorithme de calcul
Le schéma général de calcul, est donné par l’algorithme présenté par la figure 4.5. Il per-
met de calculer l’épaisseur minimale de la tôle et l’enregistré dans une base de données.
Cette dernière va servir comme plan d’expériences pour l’apprentissage d’un modèle basé
sur l’utilisation des réseaux de neurones artificiels. Donc, une matrice d’expérience de trois
niveaux pour chacun des six paramètres a été construite après simulation de chaque point
de conception.
83
4.3.4 Modèle RNA
Au début, l’architecture du modèle RNA est constituée de six neurones dans la couche
d’entrée, deux neurones dans la couche cachée et un neurone dans la couche de sortie. L’ap-
prentissage du modèle est habituellement lancé avec un nombre restreint de nœuds. Des
nœuds additionnels sont alors ajoutés si le niveau d’erreur n’est pas réduit dans un nombre
indiqué d’itérations. La méthode de retro-propagation est employée pour déterminer les poids
de connections par la minimisation de l’erreur. Des nœuds dans la couche cachée sont si-
multanément ajoutés, et les nouveaux poids de connexions sont actualisés en fonction du
nombre d’itérations d’apprentissage. La fonction erreur est définie dans ce cas par l’équation
(4.8) ci-dessous.
P N
1 &&
E= (dik − oik )2 (4.8)
2 i=1 k=1
Ou dik est la sortie désirée (valeur numérique), oik est la sortie actuelle du modèle RNA, P
représente le nombre total d’expériences numériques pour l’apprentissage et N représente le
nombre total des neurones de sortie.
Le réseau est entraîné par un grand ensemble de paires de vecteurs d’entrées et de sor-
ties (729) qui sont produites à partir du modèle EF. Les poids de connexions sont modifiés
pendant l’apprentissage jusqu’à ce que le modèle RNA rapporte une réponse conforme d’une
manière satisfaisante aux résultats obtenus par EF. En effet, le choix de l’ensemble des don-
nées d’apprentissage est très important. Comme dans n’importe qu’elle approximation, il
n’y a pas de méthode claire pour produire une évaluation à priori complète de l’ensemble de
84
données d’apprentissage exigées avant de connaître les résultats et la convergence du pro-
cessus d’apprentissage. Pour ce dernier, plusieurs stratégies avec différentes données doivent
être initialement appliquées. Les données doivent contenir les connaissances nécessaires qui
décrivent le comportement de l’embouti pour un ensemble de couples (entrée, sortie) finis.
Une fois le modèle RNA a bien appris, il interpole les données selon une fonction implicite
de la forme suivante :
tRN A = g(r0, r45 , r90 , n, k, µ)
Cette fonction sera utilisée par la suite pour prédire l’épaisseur minimale dans l’embouti
pour d’autres paramètres opératoires. Pendant l’opération de l’entraînement du réseau, les
différentes valeurs associées aux paramètres du modèle neuronal sont décrites ci-dessous :
– Nombre total d’exemples d’apprentissage = 729
– Nombre total d’itérations = 1000
– Coefficient de moment α= 0.1
– Taux d’apprentissage η = 0.01
– Nombre de nœuds dans la couche cachée NHidden=17
La courbe qui caractérise la réduction de l’erreur quadratique moyenne RMSE en fonction
des itérations est représentée sur la figure 4.7. La valeur minimale de cette erreur est atteinte
après 1000 itérations et qui correspond à 1.09%.
85
réponses représentant la valeur minimale de l’épaisseur dans la pièce à la fin de l’opération
d’emboutissage sont relevées. Une superposition des deux résultats numériques calculés par
EF et prédites par le réseau de neurone en fonction de nombre des points de conception est
présentée sur la figure 4.8.
Fig. 4.9 – Epaisseur minimale calculée par le modèle EF en fonction de celle prédite par le
modèle RNA
L’erreur relative maximale entre les deux résultats par rapport à celui calculé par EF
reste inférieure à 1%. Ceci montre clairement une bonne concordance entre la réponse obtenue
par le modèle RNA et celle obtenue par le modèle EF. Une autre façon de présenter cette
comparaison entre les deux modèles est illustrée par la figure 4.9. Une régression linéaire
86
entre toutes les valeurs de l’épaisseur minimale permet de constater que tous les points
sont dispersés autour d’une droite de pente proche de 1. Ceci pourrait être expliqué par la
robustesse et l’efficacité de l’algorithme neuronal à la prédiction des résultats très proches à
ceux calculés par EF.
D’après les figures 4.8 et 4.9, on peut dire que le modèle RNA construit est bien appris et
qu’il est capable de générer d’autres réponses pour d’autres paramètres d’entrés différents de
ceux qui sont appliqués pour la phase d’apprentissage. En terme de coût et de temps de calcul,
on peut noter qu’un calcul par l’algorithme développé est plus rapide qu’une simulation par
EF pour prédire une telle réponse. Si le temps nécessaire pour la réalisation d’un calcul
EF dure 30 minutes alors que par application du modèle RNA, le temps de prédiction des
réponses est de l’ordre de quelques secondes. Ceci montre que notre algorithme est un bon
estimateur, capable de prévoir les résultats obtenus par EF dans un temps de calcul très
court.
En optimisation, il arrive dans certains cas qu’il ne pas possible de définir une loi mathé-
matique pour chercher les paramètres optimaux en fonction des paramètres d’excitation ou
bien la fonction coût décrivant exactement le processus. Pour cela, on peut envisager d’obte-
nir un modèle RNA représentatif basé sur des données historiques entrées-sorties et/ou des
expériences conçues.
87
Fig. 4.10 – Stratégie d’identification par (RNA)−1
Une fois les paramètres sont identifiés, ils seront tester à travers un autre calcule EF. Les
deux réponses numériques identifiées et calculées seront enregistrées. Les résultats de compa-
raison sont présentés dans la figure 4.12. On peut remarquer que les paramètres identifiés à
partir de ce modèle ne donnent pas une bonne estimation de l’épaisseur par comparaison avec
l’épaisseur désirée. Nous pensons que cela est dû à la structure du modèle RNA elle-même.
En effet, il est clair que ce modèle ne peut pas identifier correctement six paramètres à partir
d’une seule information reçue à l’entrée du réseau. Pour cela, nous avons identifié dans le
deuxième cas les paramètres liés à l’anisotropie qui sont au nombre de trois, connaissant les
coefficients d’écrouissage et le coefficient de frottement.
88
Fig. 4.11 – Modèle RNA proposé
La courbe qui traduit la décroissance de l’erreur quadratique moyenne au cours des ité-
rations est illustrée sur la figure 4.14. Pour les paramètres ajustés du modèle RNA inverse
l’erreur était 5.3% obtenue après 5000 epochs d’apprentissage entre les sorties désirées et pré-
dites. Dans un deuxième temps, le modèle employé pour identifier les coefficients de Lankford
pour d’autres combinaisons des paramètres d’entrés. Pour valider ce modèle d’identification
les paramètres identifiés sont introduits dans un calcul direct par EF. En comparant tou-
jours l’épaisseur minimale obtenue par les paramètres prédits avec l’épaisseur désirée nous
constatons d’après la figure 4.15, que dans ce cas les résultats obtenus sont beaucoup mieux
89
Fig. 4.13 – Modèle RNA proposé
Fig. 4.14 – Résultats de l’évolution de l’erreur quadratique moyenne au cours des itérations
90
que ceux obtenus dans le premier cas. Il ressort de la même figure que le modèle RNA inverse
est capable de prévoir les coefficients d’anisotropie pour une gamme des paramètres illustrés
dans le tableau4.1. L’erreur relative entre la réponse EF et la réponse RNA n’a pas excédé
le 4%. La différence qui existe entre les deux réponses peut être remédiée par l’augmentation
de nombre d’epochs pendant la phase d’apprentissage ou bien d’ajouter d’autres couches
cachées.
La figure 4.17 montre bien que les résultats fournis, par cette technique d’identification
inverse sont beaucoup plus meilleurs que ceux obtenus dans le premier et le deuxième cas.
91
Ceci peut être expliqué par le faite que le nombre des données d’entrées est plus important
que le nombre des sorties cherchées. Un bon accord a été obtenu entre les réponses associées
aux paramètres d’écrouissage identifiés et celles souhaitées.
Donc, la maîtrise de la géométrie des pièces finies a toujours posé des problèmes dans
le milieu industriel. Le phénomène de retour élastique est associé dans bien des cas aux
propriétés du matériau. Cependant, le contrôle de procédé est plus aisé en agissant sur les
paramètres de celui-ci que sur les propriétés du matériau [Mka2003]. Pour cela, dans la
suite seulement des paramètres géométriques du procédé comme les rayons de matrice et du
poinçon ainsi que le jeu entre les outils seront pris en compte.
92
par la figure 4.18. L’effort de serrage appliqué par l’intermédiaire du serre flan est maintenu
à une valeur constante durant la simulation et qui vaut 10KN. Il permet d’une part d’établir
le serrage de la pièce contre la matrice et le serre-flan et d’assurer le contact d’autre part, il
ne favorise pas l’apparition des plis dans l’embouti.
Dans toute l’analyse numérique de ce procédé d’emboutissage, nous avons pris en compte
que seulement un quart du modèle (Figure 4.18). Les outillage sont modélisés comme étant
des corps analytiques rigides alors que le flan représente un corps déformable. La pièce à
déformer a été maillée avec des éléments coques "Shell elements" de type S3R et S4R. Le
choix de ce type d’élément s’est fait pour plusieurs raisons : Il convient pour des problèmes
présentant une grande déformation. Il est aussi bien adapté pour la prédiction du retour
élastique étant donnée qu’il n’est pas affecté par la variation de l’épaisseur du matériau
[Aba2001]. Les analyses de chargement et de déchargement sont effectuées avec un pilotage
en déplacement. Les simulations numériques ont été effectuées en statique implicite sur ABA-
QUS/STANDARD en négligeant tous les effets dynamiques. Le frottement a été modélisé
suivant la loi de Coulomb avec un coefficient de 0.1 aux interfaces flan-outils.
E µ σ0 (Mpa) k (Mpa) n
193000 0.3 238 1172 0.4
93
4.5.4 Plan d’expériences
Bien que la mise en forme des métaux est un procédé qui met en considération plusieurs
paramètres, nous nous somme restreint à l’étude des paramètres géométriques en ne consi-
dérant que l’influence des paramètres les plus significatifs du procédé d’emboutissage et qui
sont : Le rayon de poinçon Rp , le rayon de la matrice Rm et le jeu résiduel entre le poinçon
et la matrice J [Bru2005], [Bah2006-b].
La fonction objectif que nous considérons ici, est l’angle de déviation après retour élas-
tique de la pièce. Cet angle sera prédit par éléments finis en vue de calculer la réponse de
chaque combinaison des paramètres considérés. Le tableau 4.4 récapitule les résultats du plan
d’expériences obtenus pour chaque jeu des paramètres de rayon de la matrice et de rayon du
poinçon avec un jeu nul. Le tableau 4.5, quant à lui il représente une matrice d’expériences
obtenue pour chaque combinaison de rayon de la matrice et de jeu résiduel entre le poinçon
et le flan. Le rayon poinçon est fixé à une valeur de 8mm.
Rm (mm) Rp (mm)
8 10 12 14 16 18
8 3.263 4.143 5.173 6.721 8.669 10.995
10 4.274 5.350 6.750 8.630 10.663 12.784
12 5.838 7.405 9.016 10.896 13.095 15.437
14 8.086 9.669 11.491 13.589 15.899 18.396
16 10.536 12.386 14.409 16.544 18.808 21.366
18 13.312 15.245 17.289 19.442 21.827 24.139
Tab. 4.4 – Plan d’expériences du retour élastique en (°) pour différents rayons de matrice et
de poinçon (J=0mm)
Rm (mm) J(mm)
0 0.2 0.4 0.6 0.8
8 3.309 3.515 3.703 3.789 3.971
10 4.245 4.485 4.695 4.951 5.196
12 5.724 5.991 6.297 6.540 6.834
14 8.091 8.411 8.731 9.083 9.390
16 10.497 10.874 11.243 11.585 11.959
Tab. 4.5 – Plan d’expériences du retour élastique en (°) pour différents jeu et rayons de
matrice Rp =8mm
94
nous avons fait un calcul direct pour prédire le retour élastique dans l’embouti en fonction
des paramètres du procédé : Rayons de poinçon et de la matrice. Suite à cette étude, un
modèle RNA a été établi comprenant deux neurones dans la couche d’entrée, cinq neurones
dans la couche cachée et un neurone dans la couche de sortie. Les résultats obtenus seront
comparés à ceux obtenus par une analyse EF. Le Modèle numérique a été entraîné avec les
résultats présentés dans le tableau 4.4 excepte les combinaisons correspondant aux valeurs
de Rp =14mm et Rm =12mm. Ces derniers sont utilisés pour une phase de validation et de
prédiction. Les courbes qui représentent l’évolution de l’erreur quadratique moyenne au cours
des itérations sont présentées dans la figure 4.19.
95
Dans un second temps, nous avons prédit l’angle du retour élastique en fonction du rayon
de matrice et du jeu poinçon-pièce. Dans cette application, la même architecture de réseau
que celle de l’étude précédente est employée. La figure 4.20 présente la réduction de l’erreur
quadratique moyenne au cours de la phase d’apprentissage en fonction des itérations. Une
fois, validé le modèle RNA sera utilisé pour prédire le retour élastique pour n’importe quelles
valeurs des paramètres.
96
du retour élastique en fonction de rayon du poinçon obtenu par les deux approches. Sur la
figure 4.22, nous pouvons voir qu’une augmentation du rayon de poinçon favorise l’augmen-
tation de l’angle de retour élastique. L’analyse de l’évolution des deux courbes permet de
constater qu’ils ont la même tendance et que globalement la réponse numérique prédite est
en cohérence avec celle obtenue par un calcul EF.
D’une façon similaire, Nous avons étudié par le modèle RNA l’influence du jeu entre la
tôle et le poinçon sur la prédiction de l’angle de retour élastique. Les évolutions de deux
97
réponses, prédite et calculée sont illustrées sur la figure 4.23. La comparaison des résultats
montre un bon accord entre les deux. L’erreur maximale relative déduite par rapport aux
résultats éléments finis est de l’ordre de 1.5%.
Rm Rp ¯ J
R̄m = , R̄p = , J=
t t t
θ
θ̄ = 100
90
Avec t représente l’épaisseur de la tôle.
Pour générer la surface de réponse, nous avons choisi une approximation polynômiale qua-
dratique.
98
La figure 4.24 représente la surface de réponse dans le cas ou le jeu entre le poinçon et
la pièce est égal à 0mm. Dans ce cas, nous constatons que le retour élastique évolue avec
l’augmentation de rayon de poinçon et celui de la matrice. Ceci parait physiquement logique
puisqu’il y’aura moins d’écrouissage et par conséquent moins de déformation plastique quand
on utilise des grandes valeurs de ces paramètres. Les courbes de niveaux présentés dans
la figure 4.25 permettent de juger sur la sensibilité de retour élastique aux variations des
deux paramètres géométriques considérés. D’après cette figure, on remarque que les deux
paramètres ont presque la même influence sur la variation de cette réponse. Le tableau 4.6
récapitule les résultats de minimisation. Eclairé de l’étude précédente les deux paramètres de
Valeurs optimales ( Rp )
t opt
( Rm )
t opt
θlas.Relative
RNA 5 5 3.75
procédé présentent la même influence. Nous avons choisit de représenter la deuxième fonction
objectif en fonction des valeurs relatives du jeu et de rayon de la matrice en conservant une
valeur constante du rayon de poinçon correspondante à sa valeur optimale (Rp =8mm).
Nous remarquons d’après la figure 4.26, que la surface de réponse du retour élastique
présente deux allures totalement différentes. Elle varie de façon non linéaire avec le rayon
relatif de la matrice. Le retour élastique évolue légèrement avec le jeu relatif entre le poinçon
99
et la tôle, et son comportement avec ce paramètre est sensiblement linéaire. Ce qui montre que
le rayon de la matrice est le facteur le plus prépondérant sur la mise en forme. Les valeurs
maximales de retour élastiques sont obtenues pour les grandes valeurs des paramètres du
procédé. En revanche, les valeurs minimales se trouvent à des faibles valeurs de rayon de
la matrice et du jeu poinçon-tôle. Ceci pourrait être expliqué par un effet très important
d’écrouissage qui se manifestent lors de variation des ces paramètres.
Fig. 4.26 – Evolution RNA du retour élastique en fonction des paramètres du procédé sous
forme de surface de réponse
L’analyse de surface de réponse présentée dans la figure 4.26 permet de constater que
le modèle RNA adopté permet une bonne prédiction de l’angle du retour élastique. Les
paramètres optimaux conduisant à une minimisation de cette réponse sont récapitulés dans
le tableau 4.7.
Le retour élastique est ensuite représenté sous forme des courbes de niveau (figure 4.27).
Ils permettent de bien cerner la zone optimale contenant la valeur minimale de cette réponse
dans le domaine de conception. D’après cette figure il peut être aussi conclu que le jeu a peu
100
Fig. 4.27 – Evolution RNA du retour élastique en fonction des paramètres du procédé sous
forme des courbes de niveau
d’influence sur le retour élastique par comparaison avec l’effet de rayon de la matrice. Dans
ce cas le retour élastique suit une variation presque linéaire avec ce paramètre.
4.6 Conclusion
Dans ce chapitre, nous avons mis en application les réseaux de neurones artificiels pour la
modélisation et l’optimisation du procédé d’emboutissage. Différentes applications ont été
abordées afin de valider le programme développé ainsi que les routines de couplage EF et
RNA. Les études menées ont concerné la modélisation du procédé d’emboutissage. Ceci a
été fait à partir de la conception d’un réseau pour un calcul direct des différentes nuances de
matériau. Ensuite, un calcul inverse a été établi à partir du même modèle conçu dans le but
d’identifier les paramètres du matériau à partir des quelques données antérieurement connues.
Enfin des techniques d’optimisation directes basées l’application des plans d’expériences et
des surfaces de réponse dont les résultats sont issus d’un modèle RNA ont été utilisées. Cela
permet une représentation globale de retour élastique en fonction des paramètres du procédé.
Pour les trois applications, nous avons abouti à des bons résultats. Ces derniers permettent
de conclure que les RNA sont bien adéquats pour la prédiction du comportement des pièces
mises en forme et l’optimisation de leur procédé.
101
Chapitre 5
5.1 Introduction
Dans ce chapitre nous présentons l’application des techniques des RNA pour l’identification
des paramètres du modèle de comportement élastoplastique avec le critère quadratique de
Hill. Ce problème mathématiquement appelé problème inverse peut être considéré comme un
problème d’optimisation dont la fonction objectif est une norme de l’écart entre les résultats
expérimentaux et les résultats numériques. Les variables d’optimisation sont les paramètres
du matériau intégrés dans le modèle de comportement. Le programme développé dans le
troisième chapitre sera exploité pour cette application. Le procédé que nous mettons en
application pour l’identification des paramètres matériels est l’hydroformage. Ce dernier est
représenté par un essai de gonflement hydraulique d’un flan circulaire. L’avantage de cet
essai réside dans sa réponse qui ne fait intervenir que les propriétés intrinsèques du matériau
en s’affranchissant presque totalement des problèmes de contact et de frottement. Il sera
exploité pour établir à la fois une courbe d’écrouissage et déterminer les coefficients de HILL
dans notre application.
Etant donnée l’écart obtenu entre la réponse expérimentale et numérique, nous proposons
une stratégie inverse d’identification basée sur deux techniques différentes : Une méthode
inverse classique basée sur le calcul du gradient de l’erreur et une méthode inverse basée
102
sur les RNA. Nous mettons en valeur la méthode inverse par RNA pour sa rapidité et son
efficacité comparée aux méthodes d’identification classiques. Pour exhiber l’apport de cette
technique et sa fiabilité nous avons procédé comme suit :
Dans un deuxième paragraphe, l’essai d’hydroformage ainsi que les résultats expérimen-
taux obtenus seront présentés. Dans le troisième paragraphe, nous présentons les résultats
d’une première simulation par éléments finis à partir de laquelle nous mettons en considéra-
tion l’écart enregistré entre les résultats expérimentaux et celles numériques. Le quatrième
paragraphe traduit une démarche d’identification inverse par une méthode classique en vue
de caler les deux réponses déterminées par les deux approches. Au cinquième paragraphe,
l’algorithme développé basée sur les RNA a été appliqué pour identifier les paramètres du mo-
dèle. Une comparaison entre les deux techniques est présentée dans un sixième paragraphe.
Enfin ce chapitre est achevé par des conclusions.
Les éprouvettes utilisées sont des flans circulaires de diamètre 133 mm. Le gonflement de
la tôle est obtenu par l’application d’une pression d’huile exercée par une pompe manuelle
et mesurée par un capteur de pression. Le suivi de la forme du flan au cours de l’essai est
obtenu par un capteur de déplacement qui est placé au centre de l’éprouvette.
Dans cet essai les déformations en expansion sont prédominentes. L’essai met en évidence
l’importance des propriétés du matériau pour ces déformations, et la faible importance des
paramètres géométriques.
Notations
a : Rayon intérieur de la matrice (45.5mm),
r0 : Position initiale d’un point matériel (sur une méridienne),
u : Hauteur au pôle,
e : Epaisseur en un point à l’état déformé,
(r, z) : Position à l’état déformé d’un point matériel,
p : Pression exercée,
ρ : Rayon de courbure de la méridienne en un point,
103
σm , σc : Contraintes méridienne et circonférentielle,
,m , ,c , ,n : Déformation plastiques méridienne, circonférentielle et normale,
D0 = 91 mm : Diamètre extérieur de la matrice (jusqu’au jonc de retenue),
R = 6mm : Rayon de congé de la matrice,
e0 = 0.8 mm : Epaisseur initiale de l’éprouvette,
Fc : Force de serrage.
Une fois découpées, les éprouvettes sont transférées au poste d’électrolyse pour effectuer
le dépôt de grilles électrolytiques. Le système de dépôt électrolytique de grilles est composé
d’un générateur de courant, un rouleau, de grilles, un feutre, un électrolyte et un neutraliseur.
Les grilles sont des motifs réguliers formés de cercles adjacents ou entrelacés déposées sur
les éprouvettes avant chargement et permettent après la phase de chargement d’évaluer les
104
déformations subies par l’échantillon. La figure 5.3 présente le principe de mise en place des
grilles.
La fixation des éprouvettes dans la cellule de gonflement hydraulique se fait par l’intermé-
diaire d’une matrice. Pour assurer une meilleure étanchéité entre l’éprouvette et la matrice,
il est nécessaire d’imprimer sur l’éprouvette un jonc de retenu d’environ 5mm de profondeur.
La figure 5.4 illustre le dispositif d’emboutissage des joncs de retenu.
105
Le type de sollicitation est essentiellement conditionné par la forme de la matrice et de
l’anisotropie du matériau. Pour tenir compte de ces deux paramètres nous avons utilisé deux
types de matrice, circulaire et elliptique (figure 5.5).
Les essais sont réalisés sur une cellule de gonflement hydraulique instrumentée. Elle est
équipée de deux capteurs : L’un pour la mesure de pression et l’autre pour la mesure de
déplacement au pôle (figure 5.6).
106
L’étude expérimentale menée au laboratoire LGM-ENIM nous fournit les mesures sui-
vantes [Gah2006] :
– La hauteur au pôle en fonction de la pression : La mesure de la hauteur au pôle est
effectuée par un comparateur de déplacement. Le niveau zéro de la mesure correspond à
l’état non chargé de l’éprouvette. Dans cette configuration, la surface active est assimilée
à un plan. La hauteur au pôle est relevée au centre de la partie active pour une pression
donnée. La mesure est effectuée en même temps que l’éprouvette est chargée. Les courbes
représentatives de la variation de la pression en fonction de la hauteur au pôle pour les
deux matrices circulaire et elliptique sont données par les figures 5.7.
Fig. 5.7 – Pression en fonction de la hauteur au pôle : (a) Cas d’une matrice circulaire, (b)
Cas d’une matrice elliptique
30
25
Hauteur (mm)
20
15
10
0
-60 -40 -20 0 20 40 60
Diamètre (mm)
Fig. 5.8 – Profil de la pièce après mise en forme pour une pression de 160 bars : Cas d’une
matrice circulaire
107
– La variation de l’épaisseur suivant le profil de l’éprouvette pour une pression de 160
bars : L’évolution de l’épaisseur correspond à une pression donnée, n’est réalisée qu’après
démontage de l’éprouvette. Cette procédure expérimentale est exigée par le dispositif de
visualisation des grilles déformées utilisant un projecteur de profil. La figure suivante
nous montre l’évolution de l’épaisseur le long d’un méridien de l’éprouvette.
0,8
0,78
Epaisseur (mm)
0,76
0,74
0,72
0,7
-60 -40 -20 0 20 40 60
Diamètre (mm)
Fig. 5.9 – Epaisseur le long d’un méridien pour une pression de 160 bars : Cas d’une matrice
circulaire
Les différents paramètres pris en compte dans nos calculs seront explicités dans les pa-
ragraphes qui suivent. Pour simuler l’essai d’hydroformage, nous avons utilisé la méthode
des éléments finis moyennant le code EF ABAQUS/STANDARD. Pour cela, les hypothèses
suivantes ont été considérées :
– Le modèle géométrique adopté est une plaque mince circulaire de diamètre 133mm. Elle
est maillée par des éléments de type Shell quadrangulaires à 4 nœuds (S4R) en deux
domaines : Une attention particulière a été faite au niveau de la partie centrale qui a
été maillée en adoptant un maillage fin tandis que la partie restante nous avons utilisé
globalement un maillage grossier (figure 5.10).
– La loi de comportement suit un modèle de type élastoplastique formulé en grandes dé-
formations. Il est basé sur le critère quadratique de Hill.
108
Fig. 5.10 – Modèle géométrique EF de l’essai : (a) Cas d’une matrice circulaire , (b) Cas
d’une matrice elliptique
– Les conditions aux limites consistent en un encastrement imposé sur la matrice et une
pression de profil linéaire exercée sur le flan selon le tableau 5.1.
– Les matrices circulaire et elliptique sont considérées comme des corps rigides pour toutes
les simulations.
Nous simulons l’essai avec l’acier AISI 304 dont les caractéristiques sont listées ci-dessous :
– Le module d’Young : E = 193000 MPa
– Le coefficient de poisson : ν= 0.3
– Les coefficients de Lankford expérimentaux sont illustrés dans le tableau 5.2.
r0 r45 r90 r̄
0.93 1.07 0.87 0.94
– La courbe d’écrouissage (figure 5.11) : Elle est issue de l’essai de traction uniaxiale effectué
sur des éprouvettes de dimensions normalisées.
On présente par la suite la déformée (Figure 5.12) ainsi que les isovaleurs de quelques
variables pour une pression maximale de 24MPa (Figures 5.13, 5.14 et 5.15). Les figure 5.16-
a et 5.16-b représentent la variation de la pression en fonction de la hauteur au pôle. Elles
sont déterminées par les deux approches numérique et expérimentale. La confrontation de
deux réponses pour les deux types de matrices (circulaire et elliptique) a montré un écart
significatif. Ce même essai a été traité par [Ben1992] qui a montré cependant une différence
en terme de réponse globale pression-hauteur au pôle entre l’expérience et les prévisions.
Cette différence peut être expliquée par le fait que la loi constitutive implémentée dans
ABAQUS ne décrit pas correctement le comportement de la tôle ou que l’identification des
109
Fig. 5.11 – Courbe d’écrouissage de l’acier inox
Fig. 5.12 – Représentation de la forme déformée : (a) Cas d’une matrice circulaire, (b) Cas
d’une matrice elliptique
110
Fig. 5.13 – Isovaleurs de déplacement à l’increment final (P=24MPa) : (a) Cas d’une matrice
circulaire, (b) Cas d’une matrice elliptique
Fig. 5.14 – Contrainte équivalente de Von Mises : (a) Cas d’une matrice circulaire, (b) Cas
d’une matrice elliptique
Fig. 5.15 – Déformation plastique équivalente : (a) Cas d’une matrice circulaire, (b) Cas
d’une matrice elliptique
111
Fig. 5.16 – Pression en fonction de la hauteur au pôle : (a) Cas d’une matrice circulaire, (b)
Cas d’une matrice elliptique
constantes du modèle à partir de l’essai de traction simple est insuffisant. Nous avons supposé
que cet écart entre les réponses numériques et expérimentales provient de la caractérisation
du matériau à partir d’un essai de traction simple qui aurait du peut être remplacer par
un essai équibi-axiale. Pour cela on a proposé d’identifier la loi de comportement à partir
de l’essai de gonflement hydraulique lui-même. Pour ce faire nous avons fait d’abord une
analyse de contrainte et de déformation au pôle et à quelques nœuds situés loin du pôle.
Peut-on donc, passer à travers un modèle analytique pour identifier la courbe d’écrouissage
à partir de l’essai lui même ? Ceci sera l’objet du paragraphe suivant.
112
Fig. 5.17 – Nœuds choisis sur la partie utile du flan.
Fig. 5.18 – Contraintes au pôle : A droite cas anisotrope et à gauche cas isotrope
113
Fig. 5.19 – Déformations plastiques au pôle : A droite cas anisotrope et à gauche cas isotrope
Fig. 5.20 – Rapport des déformations au pôle : A doite cas anisotrope et à gauche cas
isotrope
114
Fig. 5.21 – Rapport des contraintes au pôle : A droite cas anisotrope et à gauche cas isotrope
2eσp
p= (5.1)
ρ
σc = σm = σp (5.2)
2ρ
,c = ,m = ,p = Log( ) (5.3)
2ρ − u
115
Fig. 5.22 – Equilibre du tronçon de la calotte sphérique
a2 + u2
ρ= (5.4)
2u
et de la courbe expérimentale pression en fonction de la hauteur au pôle, on peut écrire les
relations suivantes :
u2
,c = ,m = ,p = Log(1 + 2 ) (5.5)
a
Sachant que :
e = e0 exp(,33 ) (5.6)
Avec :
,33 = −2,11 (5.7)
et
u2
,11 = ,22 = Log(1 + ) (5.8)
a2
ce qui donne :
u2 −2
e = e0 (1 + ) (5.9)
a2
Finalement on trouve l’expression de la contrainte en fonction de la pression et de la hauteur
au pôle soit :
p(a2 + u2 )3
σ= (5.10)
4e0 ua4
Par suite nous avons pu reconstituer la courbe d’écrouissage à partir de la courbe pression
en fonction de la hauteur au pôle (figure 5.23) :
116
Fig. 5.23 – Courbes d’écrouissage issues de la traction simple et de l’essai equibiaxiale
d’expansion équibiaxiale, et le sous-estime dans le cas d’une courbe d’écrouissage relevée d’un
essai de traction simple. Nous pensons alors, ajuster les paramètres du matériau. Pour ce
faire, l’algorithme d’optimisation dévéloppé sera utilisé pour l’identification des paramètres
du modèle de comportement. Les résultats issus de cette identification seront comparés aux
résultats obtenus par une stratégie d’identification basée sur une methode d’optimisation
classique. Les paragraphes qui suivent présentent la démarche de ce travail.
117
5.5 Identification par méthode inverse
5.5.1 Méthode basée sur les procédures d’optimisation classique
5.5.1.1 Stratégie d’identification
L’objectif est l’identification de modèle orthotrope de Hill donnant une bonne concordance
entre la réponse expérimentale et la réponse obtenue par EF. La démarche générale pour
réaliser ceci est illustrée dans la figure 5.25.
118
la notion d’écart relatif entre les deux courbes par la relation suivante :
#
$ n / 0
$ 1 & pEF (x) − pExp 2
ϕ(x) = % i i
(5.11)
n i=1 pExp
i
Où x est le vecteur des valeurs des paramètres matériels, n est le nombre des points expéri-
mentaux, pExp
i est l’ordonnée du iieme point obtenu expérimentalement, et pEF
i est l’ordon-
née du i ieme
point obtenu par simulation. On obtient ainsi la forme canonique du problème
d’identification paramétrique envisagé.
Ce problème présente donc une forme classique de problème d’optimisation. Pour toutes les
simulations les variables de conception sont :
– Les coefficients de Lankford : r0 , r45 et r90
– La fonction d’écrouissage définie par : σ0 , k et n
Ces paramètres sont identifiés selon les deux étapes suivantes :
Etape1 : Dans cette étape il s’agit de trouver σ0 , k et n en utilisant :
– L’essai de gonflement avec une matrice circulaire.
– Les coefficients du Lankford expérimentaux donnés dans le tableau5.2.
Etape2 : Dans cette étape il s’agit de trouver les coefficients de Lankford en utilisant :
– L’essai de gonflement avec une matrice elliptique.
– La courbe d’écrouissage σs (,p ) identifiée de la première étape.
Cette procédure d’identification a été programmée sous MATLAB et couplée au code de
calcul par éléments finis ABAQUS (Figure 5.25).
Afin de calibrer les deux réponses et de raffiner encore le modèle, nous proposons d’iden-
tifier les coefficients de Lankford en utilisant la même fonction objectif. Mais les variables
de conception dans ce cas sont les coefficients de Lankford. On adopte l’hypothèse que l’es-
sai avec une matrice elliptique est plus sensible au coefficient de Lankford. Pour cela, nous
suivons la démarche décrit dans la deuxième étape en vue d’identifier ces paramètres.
Une comparaison entre les valeurs des paramètres identifiés et les valeurs expérimentales
est présentée dans le tableau 5.4. Ces valeurs sont proches de un. Ceci est logique puisque le
matériau que nous étudions présente une faible anisotropie. Les réponses globales pression-
hauteur au pôle, obtenues par un calcul EF utilisant ces valeurs sont représentées dans la
119
Fig. 5.26 – Pression en fonction de la hauteur au pôle : Matrice circulaire
figure 5.26 pour le cas d’une matrice circulaire et dans la figure 5.27 pour le cas d’une matrice
elliptique, sous le nom Etape2. L’écart constaté entre les réponses expérimentales et simulées
est plus faible que celui enregistré entre les mêmes réponses dans la première étape (Etape1).
r0 r45 r90
Expérimentaux 0.93 1.07 0.87
Identifiés 1.08 1.26 1.1
La mauvaise concordance entre quelques réponses peut être aussi expliquée par la non
convergence de la méthode d’optimisation utilisée vers un minimum global. En effet, cette
méthode d’optimisation classique fournit pour certains problèmes une mauvaise convergence
voire même pas de convergence de tous dans d’autres cas [Pon2006]. Elle est aussi trop lente.
Dans notre cas, le nombre d’itération minimum requis pour la recherche de l’optimum d’une
variable donnée est de 20 itérations. Chaque itération consomme environ 15 munites de calcul
120
Fig. 5.27 – Pression en fonction de la hauteur au pôle : Matrice elliptique
sur un ordinateur muni d’un processeur à 1.6GHz et une mémoire vive de 256Méga-Octets.
Cette méthode peut aboutir la plus part des cas à un optimum mais ce dernier peut être non
significatif. Les paramètres optimaux peuvent être déterminés en dehors de leurs domaines
admissibles. L’ajout des contraintes sur les valeurs des variables peut avoir une mauvaise
conséquence sur le temps de calcul. C’est pourquoi Ponthot et al. [Pon2006] en 2006, ont
proposé de combiner certaines des méthodes d’optimisation, avec passage automatique de
l’une vers l’autre lorsque la première devient inefficace. Pour remédier à ces problèmes, nous
proposons d’appliquer les techniques des RNA en vue d’atteindre les mêmes objectives. Ceci
est présenté dans le paragraphe suivant.
Le processus d’identification dans ce cas n’est pas itératif. En effet, d’après la figure 5.28
on commence par des simulations par éléments finis (Partie gauche de la figure) en utili-
sant différentes valeurs des paramètres opératoires. Pour chaque simulation on enregistre la
courbe pression en fonction de la hauteur au pôle de la tôle P (h). Cette fonction est ensuite
enregistrée sous forme d’un tableau (Pi , hi ) on considérant que :
– P1 = P (h = 0)
121
– Pn = P (hmax ) = 24MP a
Etant donnée que nous avons introduit la pression à des incréments fixes, de 0 à 24 bars par
incrément de 2.4bars, il en résulte un tableau comportant 10 composantes d’un vecteur hi
correspondants à chaque combinaison du vecteur des paramètres opératoires P ari. Les deux
vecteurs sont ensuite enregistrés et normalisés suivant l’expression suivante :
Xold − Xmin
X norm = (Ymax − Ymin ) + Ymin (5.12)
Xmax − Xmin
Avec X norm la variable à normaliser, Xold est la valeur réelle de la variable avant normali-
sation, Xmax , Xmin sont la valeur maximale et minimale de la variable avant normalisation
respectivement, et Ymax , Ymin sont la valeur maximale et la valeur minimale de la variable
après normalisation respectivement.
122
5.5.2.2 Choix des paramètres opératoires du procédé
Pour un procédé donné on distingue les paramètres liés à la géométrie et au procédé ainsi
que les paramètres matériels. Dans le cas de l’hydroformage particulièrement l’essai que nous
utilisons ici, les paramètres autres que ceux liés au matériau sont : Le rayon de la matrice et
le coefficient de frottement entre la matrice et le flan. Des études précédentes montrent que
ces paramètres n’ont pas d’influence sur la réponse globale pression en fonction de la hauteur
au pôle [Cha2003]. Donc ces derniers seront négligés dans la suite de cette étude. Par suite la
réponse globale pression en fonction de la hauteur au pôle n’est sensible qu’aux paramètres
matériels. C’est la raison pour laquelle cet essai est jugé bon pour la caractérisation du
matériau dans les cas d’un chargement complexe.
Etant donnée que nous cherchons à identifier les paramètres de l’acier AISI304, une gamme
des matériaux a été définie par variation des paramètres opératoires du procédé. Chaque va-
leur de chaque variable est choisie à plus au moins 25% par rapport à la valeur expérimentale
identifiée à partir de l’essai de traction simple. Ce qui donne le tableau5.5 pour les paramètres
qui sont liés à l’écrouissage et le tableau5.6 pour les paramètres qui sont liés à l’anisotropie.
Puisque le matériau présente une faible anisotropie et en vue de réduire la base de données,
nous avons considéré uniquement deux niveaux pour les coefficients de Lankford. Ces der-
niers sont pris à différentes angles par rapport à la directions de laminage ψ0 ,ψ45 et ψ90 .
Niveaux Paramètres
σ0 (Mpa) k(Mpa) n
1 178.5 879 0.375
2 238 1172 0.5
3 297.5 1465 0.625
Niveaux Paramètres
r0 r45 r90
1 0.7125 0.8025 0.6525
2 1.1875 1.3375 1.0875
Les propriétés élastiques du flan sont prises selon un modèle linéaire isotrope avec un
module d’Young de 193000MPa et un coefficient de Poisson de 0.3.
Nous rappelons les étapes de calcul qui seront adoptées dans la suite de cette étude :
Etape1 : Dans cette étape il s’agit de trouver σ0 , k et n utilisant :
123
– L’essai de gonflement avec une matrice circulaire.
– Les coefficients du Lankford expérimentaux donnés dans le tableau5.3.
Étape2 : Dans cette étape il s’agit de trouver les coefficients de Lankford utilisant :
– L’essai de gonflement avec une matrice elliptique.
– La courbe d’écrouissage σs (,p ) identifiée de la première étape.
Les paramètres identifiés ont été ensuite utilisés, pour simuler l’essai par un calcul EF
direct. La réponse pression en fonction de la hauteur au pôle enregistrée sous le nom Etape1,
est comparée avec la réponse expérimentale. Pour le cas d’une matrice circulaire une bonne
concordance a été constatée (figure 5.29). Mais pour le cas de validation par une matrice
elliptique, un petit écart a été enregistré entre le deux courbes (figure 5.30). L’erreur relative
maximale est de l’ordre de 7,52%.
Pour ajuster encore le modèle nous avons adopté la même démarche en passant à la
deuxième étape. Il s’agit d’identifier les coefficients de Lankford à partir du même essai
mais dans ce cas avec une matrice elliptique puisque cette dernière met en évidence l’impor-
tance des coefficients d’anisotropie lors de la déformation du flan. Les valeurs identifiées sont
présentées dans le tableau 5.8. Ces paramètres sont identifiés en utilisant un modèle RNA
contenant 11 neurones dans la couche d’entrée, 9 neurones dans la couche cachée et 3 neu-
rones dans la couche de sortie. Le modèle a été entraîné par 24 courbes, pression en fonction
de la hauteur au pôle, obtenues en simulant l’essai avec une matrice elliptique. Les valeurs
sont ensuite utilisées dans un calcul direct par EF. La réponse globale de cette simulation
est présentée dans la figure 5.29 pour le cas d’une matrice circulaire et la figure 5.30 pour
124
Fig. 5.29 – Pression en fonction de la hauteur au pôle : Cas d’une matrice circulaire
Fig. 5.30 – Pression en fonction de la hauteur au pôle : cas d’une matrice Elliptique à 0°
125
le cas d’une matrice elliptique sous le nom Etape2. Une bonne concordance avec la réponse
expérimentale a été obtenue pour les deux cas.
En dépit des résultats trouvés, on remarque que les réseaux de neurones peuvent identifier
d’une façon plus fiable et rapide les paramètres du matériau à partir d’une bonne prédiction
de l’évolution de la pression en fonction de la hauteur au pôle dans le cas de ce procédé.
r0 r45 r90
Expérimentaux 0.93 1.07 0.87
Identifiés 1.19 0.8 0.7
Fig. 5.31 – Pression en fonction de la hauteur au pôle : Cas d’une matrice Elliptique à 45°
126
Premièrement, nous comparons les valeurs des paramètres identifiés obtenues par l’ap-
proche expérimentale, l’approche inverse classique et l’approche neuronale. Nous constatons,
d’après ces résultats qui figurent dans le tableau 5.9 que les valeurs obtenues des différents
paramètres diffèrent entre eux, mais en restant toujours dans leurs domaines admissibles. La
valeur identifiée du coefficient d’écrouissage par l’approche expérimentale est égale à 0.67.
Alors que, les deux autres approches aboutissent à une même valeur de ce paramètre qui est
égale à 0.4. Ceci peut expliquer l’insuffisance de l’essai de traction simple à identifier tous
les paramètres du matériau.
Variable Unité Expérimentale Methode inverse classique Méthode inverse RNA
σ0 MPa 238.2 283.3 241.6
k MPa 1172 1154 1422
n - 0.67 0.4 0.4
r0 - 0.93 1.08 1.19
r45 - 1.07 1.26 0.80
r90 - 0.87 1.1 0.70
Tab. 5.9 – Comparaison des valeurs identifiées avec les valeurs expérimentales
Troisièmement, nous comparons les deux methodes du point de vue temps de calcul. Il
est constaté que la méthode inverse classique consomme beaucoup de temps pour aboutir à
l’optimum. En effet, chaque itération a pris environ 15 munites de calcul sur un ordinateur
muni d’un processeur à 1.6GHz et une mémoire vive de 256Méga-Octets. Le nombre d’itéra-
tions pour aboutir à l’optimum peut atteindre parfois plus de 500 itérations. Alors que dans
le cas de la méthode basée sur les RNA le temps de calcul est devisé en trois :
– Un temps pour la génération de la base de données : Celui ci est le plus long. Mais il
reste inférieur à celui consommé par la première méthode. Il peut être encore réduit par
la réduction de la taille de la base de données. Ceci nécessite une étude préliminaire
de sensibilité des paramètres intervenant dans le procédé. Ce point constituera l’un des
perspectives de ce travail. En effet, il est possible d’exploiter le programme développé pour
ajouter une phase d’étude de sensibilité en utilisant les réseaux de neurones artificiels.
– Un temps consommé lors de la phase d’apprentissage : C’est le temps nécessaire pour
que le modèle ajuste ses paramètres internes (Poids synaptiques, nombre d’epochs,. . .).
Ce temps peut être aussi réduit. Mais dans toutes nos applications il n’a jamais dépassé
un quart d’heure. Et même s’il prenait pour certains autres processus de fabrication un
temps plus long, il sera réduit par l’aspect de parallélisme dont bénéfice les techniques
des RNA. En effet, lors de la phase d’apprentissage on peut lancer cette dernière sur
plusieurs processeurs en même temps.
127
– Un temps de calcul : C’est le temps nécessaire pour que le modèle fournit la réponse à une
excitation donnée. Ce dernier pour nos applications est de l’ordre de quelques secondes.
5.7 Conclusion
Dans ce chapitre, une démarche utilisant le procédé d’hydroformage a été proposé pour
l’identification des paramètres du matériau AISI304. L’algorithme d’optimisation développé
et qui est basé sur les réseaux de neurones artificiels a été exploité dans cette application.
Les résultats issus de cet algorithme ont été comparés avec ceux obtenus par une méthode
d’optimisation classique utilisant la même démarche. Pour valider cette procédure, des essais
expérimentaux ont été exploités. Une comparaison entre les différentes approches (Inverse
classique et neuronale) en terme de pression-hauteur au pôle montre que les résultats issus
d’une approche neuronale sont meilleurs, comparés à ceux obtenus par une approche inverse
classique, de plusieurs points de vue :
– Temps de calcul très court si on ne tient pas compte de la génération de la base de
données,
– Les réponses obtenues sont en bonne concordance avec les réponses expérimentales,
– Les paramètres identifiés restent toujours dans le domaine admissible de la variable,
– Bien adapté pour les problèmes fortement non linéaires.
128
Conclusions et Perspectives
L’objectif de cette contribution portait sur l’utilisation des Réseaux de Neurones Artificiels
pour l’optimisation des procédés de mise en forme des tôles. Les procédés que nous avons
étudiés ici sont l’emboutissage et l’hydroformage.
Ce travail a débuté d’abord, par une étude bibliographique portant sur les procédés de
mise en forme particulièrement, par emboutissage et hydroformage ainsi que les différentes
méthodes qui permettent leur optimisation. Nous avons distingué entre les méthodes basées
sur le calcul de gradient et celles qui sont de type stochastique. Les différentes notions et
aspects théoriques qui ont servi pour la partie développement dans ce travail ont été expo-
sées dans le deuxième chapitre. Un aperçu historique sur les principaux travaux utilisant les
réseaux de neurones artificiels dans des applications mécaniques a été aussi présenté dans
la fin de ce dernier. Ensuite nous avons développé dans un premier temps, un algorithme
d’optimisation basé sur les RNA, baptisé PONN pour prédire certaines réponses matérielles
et géométriques de ces procédés. Dans un second temps, une étude paramétrique pour l’ajus-
tement des paramètres du modèle RNA a été faite et des tests de validations sont présentés
à la fin du troisième chapitre.
Dans le quatrième chapitre, nous avons mis en application cet algorithme afin de modéliser
certaines opérations de mise en forme. En effet, il a été appliqué pour la modélisation et l’op-
timisation d’un essai d’emboutissage profond. Nous avons calculé l’épaisseur minimale dans
un embouti cylindrique par combinaison des paramètres liés au matériau et des paramètres
technologiques tel que le coefficient de frottement. Dans une première partie, les réseaux de
neurones sont utilisés pour substituer un calcul par élément finis et de s’affranchir par suite
de la lourdeur de ce dernier lors d’un calcul direct par simple variation de l’un des para-
mètres opératoires du procédé. Les résultats obtenus montre une bonne concordance avec
les résultats obtenus par la méthode des éléments finis. L’erreur maximale était inférieure à
0.1% pour chaque point de conception. Cela prouve la potentialité de ces modèles à prédire
des réponses lorsqu’on attribut d’autres valeurs aux paramètres du procédé.
Dans une deuxième partie de ce chapitre, nous avons utilisé cet algorithme pour l’optimi-
sation des modèles de comportement utilisant le même essai. Une procédure d’identification
des paramètres du matériau utilisant PONN a été présentée. L’avantage de cette méthode
d’optimisation est qu’elle ne tient pas compte de l’aspect physique des paramètres qui sont
mis à l’identification. Il a été constaté que cette méthode devient moins efficace lorsque
le nombre des paramètres mis à l’identification serait supérieur au nombre des données à
l’entrée du réseau.
Une troisième partie du quatrième chapitre est consacrée à l’optimisation des paramètres
géométriques du procédé. Nous étions intéressés dans cette partie au phénomène du retour
129
élastique. L’objectif est de déterminer les valeurs optimales des rayons de congés de la matrice
et du poinçon, et du jeu résiduel entre le poinçon et la matrice qui minimise le retour
élastique dans l’embouti. Cette optimisation a été effectuée en se basant sur les résultats
d’une prédiction par un modèle RNA en s’appuyant sur la technique des plans d’expériences.
Le traçage des surfaces de réponse a permis de déterminer d’une façon globale le minimum
du retour élastique et leurs paramètres optimaux correspondants.
La dernière partie de ce travail a été présentée dans le cinquième chapitre. Elle a été
consacrée à l’identification des paramètres de l’acier AISI304 à partir d’un procédé d’hy-
droformage d’un flan circulaire par l’intermédiaire d’une matrice circulaire et une matrice
elliptique. Dans un premier temps, nous avons présenté la partie expérimentale de l’essai
d’hydroformage. Une analyse numérique par éléments finis de l’essai a été ensuite, effectuée
en vue d’exposer la problématique de la suite du travail. Dans un second temps, l’algorithme
présenté dans le troisième chapitre a été exploité dans cette étude pour l’identification. Mais
pour mettre en valeur cette méthode, les mêmes paramètres ont été déterminés en utilisant
une approche analytique et une autre basée sur une méthode d’optimisation classique. Les
paramètres qui sont mis à l’identification concernent la courbe d’écrouissage ainsi que les
coefficients d’anisotropie. Une étude comparative entre la réponse expérimentale (pression-
hauteur au pôle) et celles obtenues par les valeurs identifiées issues des deux approches est
présentée. Une bonne corrélation a été obtenue par les paramètres issus d’une approche neu-
ronale par rapport à la réponse expérimentale. Nous avons pu apprécier, ainsi les avantages
de celle-ci par rapport à la méthode d’optimisation classique :
– Une bonne concordance a été constatée,
– Un gain de temps calcul et une rapidité notable,
– Il n’y a pas de risque que les variables soient déterminées en dehors de leurs domaines
admissibles.
A partir des résultats trouvés dans ce travail et la manipulation de cet outil tout au long
de notre travail de thèse nous avons constaté que le véritable avantage de cette technique
était dans leur faculté à représenter des rapports linéaires et non linéaires complexes, et
dans leur capacité à apprendre ces rapports directement de la série de données modélisée.
Cette propriété permet aux réseaux de neurones d’être un bon candidat pour prendre des
entrées dans un nouvel ensemble et pour produire la sortie correspondante dans un temps
de simulation très court et cela fait gagner aux industriels beaucoup de temps de calcul.
En conclusion on peut envisager plusieurs perspectives de ce travail :
– Afin d’approfondir l’étude précédente, il sera intéressant aussi de voir la possibilité d’in-
troduire cette technique (RNA) pour faire une étude de sensibilité des paramètres des
130
procédés. Cette étude permet de détecter les paramètres les plus influents dans un pro-
cédé sans faire des expériences complémentaires. Cela permet aussi de réduire la phase
d’apprentissage du modèle RNA. Cette phase peut être développée en amont du modèle.
131
Références
[Aba2001] Abaqus, Theory Manual, Standard User’s Manuel et Explicit User’s Manual, Version
6.2, Hibbit, Karson et Sorensen, Inc, 2001.
[Ade1989] Adeli H., Yeh C., Perceptron learning in ingineering design, Microcomput Civil Engng,
vol.4, p.247-256, 1989.
[Akr1984] Akrout M.,Chaker C., Validation experimentale et numerique d’un modele pour l’etude
de l’emboutissage de toles minces, CPI, Maroc, 2005.
[And1998] Andersson K, Sellgren U., Modeling and simulation of physical behavior of complex
products. Proceedings of Productmodeller, Linköping, 10 November, 1998.
[Bah2005] Bahloul R., Optimisation du procédé de pliage sur presses de pièces en tôles à haute
limite d’élasticité, Thèse de doctorat, Ecole Natioanle d’Arts et de Métiers d’Angers, France,
2005.
[Bah2006-a] Bahloul R., Ben Eléchi S., Dal Santo Ph., Naceur H., Potiron A., Optimisation of
bending process by means of response surface and moving least squares methods, Far East
Journal of Applied Mathematics, Vol.22, p. 25-54, 2006.
[Bah2006-b] Bahloul R., Ben-Elechi S., Potiron A., Optimisation of springback predicted by
experimental and numerical approach by using response surface methodology, International
Journal of Materials Processing Technology, Vol.173, p.101-110, 2006.
[Bat1998] Batoz J.-L., Guo Y.Q, Mercier F., The inverse approach with simple triangular shell
elements for large strain predictions of sheet metal forming parts, Engrg. Comput.15,
Vol.7,P.864-892, 1998.
[Ben2004] Ben Elechi S., Analyse et conception rapides de paramètres du procédé d’emboutissage
pour le contrôle du retour élastique. Thèse de doctorat, université de Technologie de Com-
piègne, France, 2004.
132
[Ben2005] Ben Tahar M, Contribution à l’étude et la simulation du procédé d’hydroformage, Thèse
de doctorat, l’Ecole des Mines de Paris, Paris, 2005.
[Bie2000] Bielser D., Gross M.H., Interactive simulation of surgical cuts, Proceedings of Pacific
graphics, IEEE Computer Society Press,p. 116-125, 2000.
[Bis1995] Bishop C., Neural Networks for Pattern Recognition, Oxford University Press, 1995.
[Bou2001] Boumaza A., Louchet J,Dynamic flies : Using real-time evolution in robotics, EVOIASP
Workshop, Artificial Evolution in Image Analysis and Signal Processing, 2001.
[Bru2005] Bruni C., Forcelese A., Gabrielli F., Simoncini M., Pieralisi M., Spring back evaluation
and prediction in deep drawing of autenitic manganese steels, ESAFORM, 2005.
[Cha2003] Chamekh A., Simulation numérique de l’emboutissage des tôles minces, Mastère de
recherche, Ecole Nationale d’Ingénieurs de Monastir, Tunisie, 2003.
[Cha2004] Chamekh.A, Bel Hadj Salah H., Gahbich M. A., Ben Amara A., Dogui A., Identification
of the hardening curve using a finite element simulation of the bulge test, Journal of Steel and
Related Material, p.741-746, 2004.
[Dav1993] Davalo E., Naim P., Des Réseaux de Neurones, EYROLLES, Deuxième édition, 1993.
[Del2001] Delamizière A., Naceur H., Breitkoft P., Knof-Lenoir K., Batoz J.L., Villon P., Faisabilité
en emboutissage, Optimisation du matériau par surface de réponse, Mécanique et Industries,
Vol.3, p93-98, 2002.
[Dob2004] Dobrzanski L.A., SitekW., Krupinski M., Dobrzanski J., Computer aided method for
evaluation of failure class of materials working in creep conditions, Journal of Materials
Processing Technology, p.102-106, 2004.
[Dre2002] Dreyfus G., Martinez J-M., Samuelides M., Gordon M.B., Badran F., Thiria SS., Hérault
L, Réseaux de neurones : Méthodologie et Applications, Eyrolles, 2002.
[Fle1975] R. Fletcher, An Ideal Penalty Function for Constrained Optimization, J. Inst. Maths
Applics., Vol.15, p.319-342, 1975.
[Fos2002] Foskey M., Otaduy M.A., Lin M.C., ArtNova : Touch-enabled 3D model design,
Proceedings of the IEEE virtual reality, 2002.
133
[Gah2006] Gahbich A., Caractérisation expérimentale des tôles d’emboutissage : Application à
l’identification des lois de comportement, These de doctorat, L’Ecole Nationale d’Igénieurs de
Monastir, Tunisie, 2005.
[Gav1995] Gavrus A., Massoni E., Chenot J.L., Constitutive parameter identification using a
computer aided rheology approach, 5th International Conference on Numerical Methods in
Industrial Forming Processes, Balkema, Rotterdam, p. 563-568, 1995.
[Gav1996] Gavrus A., Massoni E., Chenot J.L., An inverse analysis using a finite element model for
identification of rheological parameters, Journal of Materials Processing Technollogy, Vol.60,
p.447-454, 1996.
[Gel1995] Gelin J.C., Ghouati O., Une méthode d’identification inverse des paramètres matériels
pour les comportements non linéaires, Revue Européenne des éléments Finis, Vol.4, p.463-485,
1995.
[Gen2004] Genel K., Application of artificial neural network for predicting strain-life fatigue
properties of steels on the basis of tensile tests, International Journal of Fatigue, Vol.26,
p.1027-1035, 2004.
[Gib1984] Gibson S., 3D ChaignMail : a fast algorithm for deforming volumetric objects, Procee-
dings of symposium on interactive 3D and graphics, Providence RI LISA, p. 149-54, 1997.
[Gil1995] Gelin J.C., Ghouati O., Une méthode d’identification inverse des paramètres matériels
pour les comportements non linéaires, Revue Européenne des éléments Finis, Vol.4, p.463-485,
1995.
[Gol1989] Goldberg D., Genetic Algorithms in search, Optimisation and Machine Learning, Addiso-
Wesley, 1989.
[Gou1998] Ghouati O., Gelin J.-C., Identification of material parameters directly from metal
forming processes, Journal of Materials Processing Technology, Vol.80,p.560- 564, 1998.
[Gou1999] Ghouati O., Gelin J.C., Baida M., Lenoir H., Simulation and control of hydroforming
processes for tubes or flanges forming, in : J.A. Govas (Ed.), 2nd ESAFORM Conference on
Material Forming, Guimaraes, Portugal,p. 473-476, 1999.
[Gou1999] Goupy J., Plans d’expériences pour surfaces de réponse, Jacques Goupy, Dunod, 1999.
[Gou2001] Goupy J., Introduction aux plans d’expériences, Dunod, Paris, 2001.
[Ham2002] Hamda H., Jouve F., Lutton E., Schoenauer M., Sebag M.,Compact unstructured
representations in evolutionary topological optimum design, Applied Intelligence, Vol.16, 2002.
[Ham2002] Hambli R., Prediction of burr height formation in blanking processes using neural
network, International Journal of Mechanical Sciences, vol.44,p. 2089-2102, 2002.
134
[Hor1989] Hornik K., Stinchcombe M., White H., Multilayer Feedforward Networks are Universal
Approximators, Neural Networks, Vol.2, p.359-366, 1989
[Hor1994] Hornik K., Stinchcombe M., White H., Auer P., Degree of approximation results
for feedforward networks approximating unknown mappings and their derivatives, Neural
Computation, Vol.6, p. 1262-1275, 1994.
[Hsu2002] Hsu C. W., Ulsoy A. G., Demeri M. Y., Development of process control in sheet metal
forming, Journal of materials Processing Technology, Vol.127, p.361-368, 2002.
[Hub2001] Huber N., Nix D. W., Gao H., Identification of elastic plastic material parameters from
pyramidal indentation of thin films, Proc. R. Soc. Lond. A, vol.458, p. 1593-1620, 2002.
[Jan2002] Jansson J., Vergeest J.S.M., A discrete mechanics model for deformable bodies, Comput
Aided, Vol.34, p. 913-928, 2002.
[Jin2000] Jin Q., Wu H., The parameter identication of superplastic constitutive model using
optimisation, Advances in Engineering Plasticity, Vol.177-180, p.607-424, 2000.
[Kan1996] Kanai S. and Takahashi H., Modeling and NC programming for free-form surfaces by
haptic interfaces, Proceedings of DETC/design for manufacturing, ASME, Irvine, California,
USA, p.509-18, 1996.
[Kha2004] Khalfallah A., Identification des lois de comportement élastoplastiques par essais
inhomogènes et simulations numériques, Thèse de doctorat, Faculté des sciences de Tunis,
Tunisie, 2004.
[Kle2003] Kleinermann J.P., J.P. Ponthot, Parameter identification and shape/process optimization
in metal forming simulation, Journal og Materials Processing Technology, Vol.139, p.521-526,
2003.
[Kuh1997] Kuhn D., Une approche neuronale pour l’asservissement visuel d’un robot manipulateur,
Thèse de doctorat, Université de Haute Alsace, 1997.
135
[Leg1984] Legorju-jago K., Bathias C., Fatigue initiation and propagation in natural and synthetic
rubbers, Vol.24, Issues 2-4, p.85-497, 2002.
[Ler1993] Leriche R., Haftka R.T., Optimization of laminate stacking sequence for buckling load
maximization by genetic algorithm, AIAA Journal, Vol.31, p.951-969, 1993.
[Lin2003] Lin J.C., Using FEM and neural network prediction on hydradynamic deep drawing of
T-piece maximum length, Finite Elements in Analysis and Design, Vol.39, p.445-456, 2003.
[Mal2003] Malinov S., Sha W., Software products for modelling and simulation in materials science,
Computational Materials Science, Vol.28, 179-198, 2003.
[Mar1984] Mars W. V., Fatemi A., A literature survey on fatigue analysis approaches for rubber,
Vol.24, Issue 9, p.913-1012, 2002.
[Mar2003] Martin A., Kuna M., Determination of deformation and failure properties of ductile
materials by means of the small punch test and neural networks, Computational Material
Science, Vol.28, p.633-644, 2003.
[Moz2000] Mozolin M., Thill J.-C., Lynn Usery E., Trip distribution forecasting with multilayer
perceptron neural networks : A critical evaluation, Transportation Research Part B, Vol.34,
p.53-73, 2000.
[Mul2002] Muliana A., Steward R., Haj-Ali Rami M., Saxena A., Artificial Neural Network an
Finite Element Modeling of Nanoindentation Tests, Metallurgical and Materials Transactions,
Vol.33A, 2002.
[Nac2004] Naceur H., Delaméziere A., Batoz J.L., GuoY.Q., Knopf-Lenoir C., Some improvements
on the optimum process design in deep drawing using the inverse approach, Journal of
Materials Processing Technology, Vol.146, p.250-262, 2004.
[Ner1993] Nerrand O., Roussel-Ragot P., Personnaz L., Dreyfus G., Neural networks and nonlinear
adaptive filtering : unifying concepts and new algorithms, Neural Computation, Vol.5,
p.165-199, 1993.
[Ogd1984] Ogden R.W., Non-linear elastic deformations, Ellis Horwood Ltd., Chichester, UK, 1984.
136
[Par1999] Park S.H., Yoon J.W., Yang D.Y., Kim Y.H., Optimum blank design in sheet metal
forming by the deformation path iteration method, International Journal of Mechanical
Sciences, Vol.41, p.1217-1232, 1999.
[Per1999] Pernot S., Lamarque C.-H., Application of neural networks to the modelling of some
constitutive laws, Neural Networks, Vol.12, p.371-392, 1999.
[Pon2005] Ponthot J.P., Kleinermann J.P., Optimization methods for initial/tool shape optimisa-
tion in metal forming processes, International Journal of Vehicle, Vol.39(1/2), p.14-24, 2005.
[Pon2006] Ponthot J.P., Kleinermann J.P., A cascade optimization methodology for automatic
parameter identification and shape/process optimization in metal forming simulation, Com-
puter Methods in Applied Mechanics and Engineering, Vol.195, Issues 41-43, p.5472-5508, 2006.
[Pre1992] Press W.H., Teukolsky S.A., Vetterling W.T., Flannery B.P., Numerical Recipes, Art of
Computing, Cambridge University Press, 1992.
[Ros1958] Rosenblatt F., The Perceptron : a probabilistic model for information storage and
organization in the brain, Psychological Review, Vol.65, p.386-408, 1958.
[Rou2002] Roux W. J., Stander N., Haftka R. T., Response surface approximations for structure
optimisation. International Journal for Numerical Methods in Engineering, Vol.42, p.517-534,
2002.
[Rum1986] Rumelhart D., Hinton G., Williams R., Parallel Distributed Processing, MIT Press,
Vol.1, Cambridge, 1986.
[San2005] Sanjay C., Neema M.L., Chin C.W., Modeling of tool wear in drilling by statistical
analysis and artificial neural network, Journal of Materials Processing Technology, Vol.170,
p.494-500, 2005.
[Shi2003] Shin H.S., Pande G.N., Identification of elastic constants for orthotropic materials from
a structural test, Computers and Geotechnics, Vol.30, p.571-577, 2003.
[Sin2005] Singh S. K., Kumar D. R., Application of a neural network to predict thickness strains
and finite element simulation of hydro-mechanical deep drawing, International Journal of
Advanced Manufacturing Technology, Vol.25, p.101-107, 2005.
[Tan1998] Tanaka A., Hirota K., Kaneko T., Virtual cutting with force feedback, Proceeding of
VRAIS, 1998.
137
[Ter2003] Tercelj M., Perus I., Turk R., Suitability of CAE neural networks and FEM for prediction
of wear on die radii in hot forging, Tribology International, Vol.36, p.573-583, 2003.
[Tom2004] Tomonari F., Mark H., Accurate cyclic plastic analysis using a neural network material
model, Engineering Analysis with Boundary Elements, Vol.28, p.195-204, 2004.
[Tou1992] Touzet C., Les réseaux de neurones artificiels : Introduction au connexionnisme : Cours,
Exercices et travaux pratiques, 1992.
[Tro1993] Trompette P., Marcelin J. L., Schmelding C., Optimal damping of viscoelastic constrai-
ned beams or plates by use of a genetic algotithm, In IUTAM, Zakopane Pologne, 1993.
[Was2001] Waszczyszyn Z., ziemianski L., Neural networks in mechanics of structures and
materials : New results and prospects of applications, computers and structures, vol.79, p.
2261-2276, 2001.
[Wat1987] Watous R. L., Learning algorithms for connectionist networks : Applied gradient me-
thodscof non lineair optimisation. IEEE, First International Conference On Neural Networks,
San Diego, California, 1987.
[Xio2005] Xiong Y.S., Withers P.J., An evaluation of recurrent neural network modelling for the
prediction of damage evolution during forming, Journal of Materials Processing Technology,
Vol.170, p.551-562, 2005.
[Yoo2000] Yoon J.W., Barlat F., Chung K., Pourboghrat F., Yang D.Y., Earing predictions based
on asymmetric non quadratic yield function, International Journal Of Plasticity, Vol.16,
p.1075-1104, 2000.
[Yua2004] Yuan S., Wang L., Peng G., Neural network method based on a new damage signature
for structural health monitoring, Thin-Walled Structures, Vol.43, Issue 4, p.553-563, 2005.
[Zha1994] Zhang W.H., Fleury C., Two-point based sequential convex approximations for structural
optimization, in : M. Hogge, E. Dick (Eds.), 3ème Congrès National Belge de Mécanique
Théorique et Appliquée, Université de Liège, 1994.
[Zha1997] Zhang W.H., Fleury C., A modification of convex approximations methods for structural
optimization, Computers and Structures, Vol.64, Issues 1-4,p.89-95, 1997.
[Zmu2005] Zmudzki A., Kusiak J., Neural networks based optimisation in inverse analysis,
Proceeding of the first invited COST 526 conference in automatic process Optimisation in
Materiels Technology, Morschach-Switzerland, p.236-241, 2005.
138
Liste de publications et de communications
1. Publications
(a) Chamekh.A, Bel Hadj Salah.H, Gahbiche.A, Ben Amara.A, Dogui.A, "Identification of
the Hardening Curve Using a Finite Element Simulation of the Bulge test", Journal of
Steel and Related Material, pp.741-746, 2004.
(b) Ridha Hambli, Abdessalem Chamekh, Hédi Bel Hadj Salah, "Real-time deformation of
structure using finite element and neural networks in virtual reality applications, Finite
Elements in Analysis and Design, Vol.42, p.985-991, 2006.
(c) Chamekh A., BelHadjSalah H., Hambli R., Gahbiche A., "Inverse Identification using
the bulge test and Artificial Neural Networks", Journal of Materials Processing, Vol.177,
p.307-310, 2006.
(d) Chamekh A., BelHadjSalah H., Hambli R., "Inverse technique identification of material
parameters using finite element method and neural network computation", International
Journal of Advanced Manufacturing Technology.
2. Communications
(a) Chamekh.A, Bel Hadj Salah.H, Gahbiche.A, Ben Amara.A, Dogui.A, "Etude expéri-
mentale et numérique de l’essai de gonflement hydraulique", Ecole de l’Aviation de Borj
El Amri-Tunisie, JS’2003, 21-22 Mai 2003.
(b) Chamekh.A, Bel Hadj Salah.H, Hambli.R, "Modélisation d’un essai d’emboutissage
profond par éléments finis et réseau de neurones artificiels", Hammamet-Tunisie, CM-
SM’2005, 23-25 Mars 2005.
(c) Chamekh.A, Bel Hadj Salah.H, Hambli.R, "Modélisation de l’emboutissage par réseaux
de neurones Artificiels", Casablanca-Maroc, 7ième congrès de Mécanique 2005, 19-22
Avril 2005.
139