TH T1739 Jcauge
TH T1739 Jcauge
TH T1739 Jcauge
4 46
THESE
présentée devant
pour obtenir
le titre de DOCTEUR
Spécialité: MECANIQUE
REMERCIEMENTS
Je remercie sincèrement M. GABRIEL et M. MARE qui ont accepté d'être rapporteurs pour
ma thèse et ont prêté attention aux travaux développés dans cette thèse.
Je tiens également à remercier tous les membres du service "Actionneurs" pour l'aide qu'ils
m'ont apporté pendant la durée de ma thèse et particulièrement M. GAUTIER, qui m'a aidé à
concevoir et à réaliser les bancs d'essais, MM. CLOSSON et VANDEN ECKHOUDT, qui
m'ont aidé pour le montage et le démontage de composants sur le bancs d'essais et pour le suivi
des essais, et enfin M. VILLECROZE, qui m'a parfaitement secondé lors des derniers mois de
mes travaux.
Enfin, je tiens à remercier tous les industriels qui ont suivi et soutenu mes travaux
M. ALLAIN (Joucomatic), M. ANSEAUME (Parker Pneumatique), M. BADOTJREAUX
(Parker "groupe motion and control), M. BOITARD (Compair Climax), M. BOUVERET
(Arden Vérins), M. BRUNET (Rexroth Sigma), M. JIEANDEL (Festo), M. LE ROUX (Legris
SA), M. POREL (Hydro René Leduc), M. PRIVE (Bosch Techniques d'Automation SA),
M. RIBOULET (Bosch Techniques d'Automation SA), M. STEDILE (FP Hydraulique), qui
ont fourni les composants testés, et tous les membres du groupe de travail CETIM/UNITOP
"Fiabilité des Composants de Transmission Hydraulique et Pneumatique".
SOMMAIRE
Remerciements 2
Introduction 6
INTRODUCTION
Dans un monde en perpétuelle évolution technologique, dans une industrie de plus en plus
performante et fiable, les constructeurs se trouvent confrontés à de nombreux problèmes. En
effet, les normes internationales (ISO 4413 notamment) imposent dorénavant à tout
constructeur d'indiquer clairement la durée de vie de ses composants; cependant, aucune
obligation n'est faite quant aux moyens d'obtention de ces données ni à l'indication des
conditions de fonctionnement ou de calculs. Les exigences des fournisseurs aussi bien que les
valeurs aberrantes avancées par certains fabricants ont conduit les industriels à s'interroger sur
les moyens de rationaliser et d'accélérer la détermination de la fiabilité de leur composants.
Une première partie de la réponse réside en un effort de normalisation et de reconnaissance
biunivoque des essais. Une seconde partie s'appuie sur la recherche et la description de
modèles théoriques et de méthodologie de mise en oeuvre d'essais et par la détermination de
durées de vie ou de fiabilité. Ainsi, de telles démarches permettent aux fabricants et aux
utilisateurs de discuter sur des bases robustes et "universelles".
Mais, comment estimer ou garantir la fiabilité à partir d'un essai en temps réduit, notamment
pour des composants mécaniques à très longue durée de vie? Un des enjeux de ce travail est
de trouver et de décrire des concepts et théories satisfaisant des contraintes multiples; en
particulier, on citera l'adaptabilité aux milieux industriels, la robustesse de la méthode et son
universalité. Ceci devrait permettre la détermination de paramètres conventionnels de fiabilité à
partir de données d'essais mais aussi d'avis d'experts et de retour d'expérience.
Cette démarche nécessite l'identification des problèmes pratiques. En effet, l'estimation des
paramètres de fiabilité de composants mécaniques tels vérins et distributeurs hydrauliques ou
pneumatiques soulève de nombreuses questions tant d'un point de vue fiabilité que d'un point
de vue mécanique des composants. Ces composants possèdent des durées de vie élevées et des
essais de caractérisation se révèlent être coûteux en matériel et en temps (certains essais
d'endurance pouvant durer des années...). Aussi, nous avons exploré la possibilité de mener
des essais "accélérés" sur des composants; cette démarche soulève de nombreux problèmes
parmi lesquels on peut noter:
4 fiabilité prévisionnelle,
5 fiabilité des composants et des systèmes,
4 définition du composant,
4 mode des défaillance du composant,
4 essais accélérés de fiabilité.
La plupart des PME-PIMT françaises étant peu au fait des calculs et des estimations de
paramètres de fiabilité, leur premier problème réside dans la prévision de la fiabilité de leurs
composants. Dans une majorité de cas, l'homologation d'un produit se fait par des tests
grossiers et peu exploités, les valeurs brutes obtenues étant alors comparées à celles obtenues
pour des essais précédents. La sévérisation d'essais est bien souvent pratiquée mais plutôt de
manière comparative et pour répondre à des exigences de marché bien particulières comme la
tenue aux froids glaciaux (-25°C) demandée par la SNCF pour les composants du TOY.
L'étude des modes de défaillance d'un système pourra, elle aussi simplifier le problème. En
effet, dans le cas d'un système série pour lequel les modes de défaillances sont indépendants,
l'étude du système complexe peut être effectuée à partir de l'étude des composants simples.
Dans le cas de modes de défaillancés non indépendants, une démarche de type risques
concomitants [CHE92] pourra également permettre de simplifier le problème en le ramenant à
l'étude d'un système série. L'étude des modes de défaillances peut être effectuée par diverses
méthodes comme des AMDEC, des données de retour d'expérience ou encore des avis
d'experts...
La méthode des essais accélérés, bien que connue depuis de nombreuses années en
électronique, n'est pour l'instant que peu utilisée en mécanique. En effet, de nombreux
problèmes se posent quant à la réalisation de tels essais mécaniques
S coût des "composants",
4 durée de vie des composants élevée,
S méconnaissance des lois de dégradation,
S méconnaissance des lois de comportement en fonction de l'environnement.
C'est dans une démarche d'application d'essais accélérés à des systèmes mécaniques
complexes et inconnus que se situe notre travail de recherche.
L'accélération d'essais se fait toujours par rapport à des conditions "normales" qui peuvent
être des conditions de référence (recommandations, cahiers des charges...) ou encore des
Nous nous attacherons, tout au long de ce mémoire, à mettre en valeur à la fois notre
démarche de recherche théorique et notre démarche didactique vis à vis des milieux extérieurs,
en particulier les industriels utilisateurs.
Nous rappellerons, dans un premier temps, l'état de l'art en matière de réduction de temps
d'essais ou d'accélération d'essais et les limites qui apparaissent quant à la détermination de la
fiabilité de composants mécaniques et plus particulièrement hydrauliques ou pneumatiques.
Dans un deuxième temps, nous décrirons les méthodes théoriques que nous avons mises en
oeuvre et parfois modifiées pour répondre aux problèmes de détermination de la fiabilité pour
des composants à durée de vie élevée.
Enfin, nous présenterons les essais que nous avons réalisé et nous en exploiterons les résultats
à l'aide des méthodes décrites précédemment.
1. ETATDE L'ART
1.1. Introduction
L'évolution actuelle des technologies et des techniques de production, ainsi que l'augmentation
de la concurrence, ont conduit les industriels à réaliser d'importants progrès dans le domaine
de la qualité de leurs produits, c'est-à-dire leur aptitude à satisfaire les besoins de l'utilisateur.
C'est dans cette démarche d'amélioration de la qualité que se place la fiabilité. En effet, celle-ci
mesure l'évolution des capacités d'un produit en fonction du temps de fonctionnement, en
tenant éventuellement compte des temps de dysfonctionnement des produits.
De plus, une connaissance précise et exacte de la fiabilité d'un produit permet de mettre en
place, quand cela s'avère nécessaire, des procédures de maintenance préventive qui diminuent
sensiblement les coûts en diminuant le nombre de pannes des matériels; une maintenance
préventive convenablement réalisée peut permettre d'éviter les ruptures critiques et les
accidents...
Il convient donc par une exploitation des données relatives au comportement du système, de
prendre les mesures nécessaires pour en assurer une meilleure efficacité: modifications au
niveau de la conception, de la fabrication, des conditions d'utilisation ou du soutien logistique
[LIG92a, LIG92b].
Ainsi, des études ont été menées pour évaluer le plus précisément possible la fiabilité d'un
système. C'est notamment le cas dans le domaine des composants électroniques, où les taux de
défaillances sont constants, les données de retour d'expérience précises et nombreuses; il existe
ainsi, pour les composants électroniques, des bases de données de fiabilité relativement
exactes. Ces données peuvent également permettre de prévoir la fiabilité de composants
nouveaux au niveau de la planche à dessin.
Les travaux s'avèrent cependant moins avancés dans le domaine des composants mécaniques
car les fiabilistes se heurtent à de nombreux problèmes tels que des populations d'échantillons
moins nombreuses, des taux de défaillances non constants, des essais longs et coûteux de mise
en oeuvre compliquée... En conséquence, les industriels cherchent de plus en plus à mettre au
point des techniques de fiabilité les moins onéreuses possibles. C'est ainsi que les recherches se
sont naturellement portées vers l'accélération des essais. Ces essais dans des conditions
extrêmes permettent de déduire le comportement d'un composant dans des conditions
déterminées à partir d'un essai dans des conditions sévérisées.
Ce chapitre regroupe les travaux de bibliographie que nous avons effectué au cours de notre
doctorat. Le contenu est issu d'ouvrages et d'articles qui nous ont semblé important pour la
compréhension de notre problème et de notre démarche. Nous présenterons ici des rappels de
fiabilité, un éventail des techniques de réduction d'essais et enfin une introduction aux essais
accélérés qui montreront l'utilité de notre démarche et illustreront son originalité.
1.2.1. Définitions
a. Fiabilité
La fiabilité d'une entité est son aptitude à accomplir une fonction requise, dans des conditions
données, pendant un intervalle de temps donné, sachant qu'elle était en état d'accomplir cette
fonction au début de l'intervalle de temps donné. En pratique, la fiabilité se traduit souvent
comme l'aptitude d'une entité à avoir une faible fréquence de défaillance [CET89].
La fiabilité d'un groupe d'éléments à un instant t est donc la probabilité de fonctionnement sans
défaillance pendant la période [O,t], donc la probabilité que l'instant de première défaillance T
soit supérieur à t:
R(t)=p(T> t)
Elle se calcule aisément
Nombre d'éléments en vie à linstant t
R(t)=
Nombre d'éléments en essai
IF(t)1R(t)
I. - k. d.Ii m.
p'.
On définit ensuite fìt), la probabilité de défaillance d'un élément à l'instant t. C'est la dérivée de
la fonction F(t)
dF(t) dR(t)
k (t) dt dt
b. Défaillance
C'est la cessation d'une aptitude à accomplir une fonction requise, c'est le passage de l'état de
fonctionnement à l'état de panne. On distinguera sa cause (circonstances ayant entraîné la
défaillance), son mécanisme (jrocessus ayant entraîné la défaillance) et son taux 2(t) qui
représente la proportion de dispositifs qui, ayant vécu un temps t, ne sont plus en vie à t + dt.
On peut alors exprimer ce taux de défaillance en fonction des fonctions cumulées de défaillance
et de fiabilité,
F(t + dt) - F(t) dF(t)
2(t). dt
- R(t) i - F(t)
On utilise aussi l'indicateur MUT (moyenne des temps de bon fonctionnement), (voir figure 5)
[LYO97aJ.
MUT= JR(t).dt
d censure
Une donnée "censurée" est une donnée pour laquelle on ne connaît pas la date exacte de
défhillance. Leur traitement est une des préoccupations majeures des mathémaliciens et des
flabilistes.
Dans cette méthode, on considère les contraintes appliquées au composant ainsi que la
résistance du composant à ces contraintes comme des variables aléatoires [LIG, LIT8OaJ.
Résistance
Contraintes
Les lois décrites ci-après sont les lois les plus utilisées en fiabilité. Pour plus de détails à leur
sujet, on pourra se reporter à l'annexe 1 [NEL9O,HAM96J. La figure 7 rappelle les formes
respectives des distributions de défi1lances f(t) pour chaque loi citée.
La loi Normale est la loi la plus répandue parmi les lois de probabilité car elle sapp1ique k de
nombreux phénomènes, notamment en physique et en économie (erreurs de- mesure) et car elle
est la forme limite de nombreuses distributions discrètes (en particulier, celle de la loi
Binomiale).
C'est une loi continue et symétrique dépendant de deux paramètres qui représente bien la fin de
vie des dispositifs subissants un phénomène de vieillissement : usure, fatigue et corrosion.
La loi Normale N(O,1) est appelée loi Normale centrée réduite et peut être trouvée dans des
tables de référence.
l_U,
U, U,
O
..OIIII1IIIIIIIIIIII...
,
U, k U,
iIIIIIFIIIIItIIP4tIIItItIIIII_T:
U,
0 0 00
1IP
4rI
fi 11h111.,
O
00 0011
Figure 7: rappel des distributions f(t) pour les lois de fiabilité usuelles
Une variable aléatoire continue, positive T est distribuée suivant une loi Log-Normale, si son
logarithme népérien est distribué suivant une loi Normale.
c. Loi Exponentielle.
C'est une loi qui ne dépend que d'un seul paramètre (le taux de défaillance ,%); elle s'applique
d'une manière générale aux matériels qui subissent des défaillances brutales, ou à des systèmes
complexes composés de plusieurs éléments dont les lois de fiabilité élémentaires sont
différentes.
La loi Exponentielle est associée au processus Poissonnien qui est un processus qui génère des
événements dont les temps d'occurrences sont indépendants et distribués identiquement.
Appliquée à un matériel, elle correspond à la période pendant laquelle le taux de défaillance est
constant avec le temps, c'est à dire la période pendant laquelle la probabilité de défaillance est
la même à tout instant, d'où l'inutilité d'effectuer toute action préventive.
d Loi de Weibull.
C'est une loi très souple, représentative d'une très grande variété de phénomènes aléatoires, qui
est souvent utilisée dans le domaine de la fiabilité des matériels mécaniques.
La loi de Weibull est une loi représentative des trois phases de la durée de vie d'un matériel:
jeunesse, maturité, vieillesse. Cependant, faute de statistiques réduites suffisantes, l'inférence
basée sur un modèle général de Weibull implique toujours une perte d'information.
e. Loi Gamma.
La loi Gamma est souvent utilisée pour modéliser les temps de défaillance d'un matériel et
peut, par conséquent, être employée comme distribution a priori dans l'analyse de la fiabilité
bayésienne. Elle est conjuguée avec la loi Exponentielle, ce qui facilite singulièrement leur
intégration.
Comme la loi de Weibull, la loi Gamma peut représenter toutes les phases de la vie d'un
matériel, mais elle est cependant plus simple car elle est décrite par deux paramètres au lieu de
trois pour la loi de Weibull.
La loi Gamma peut représenter une grande variété de distribution et est un modèle naturel
d'échantillonnage exponentiel.
La loi du Khi-deux est un cas particulier de la loi Gamma. Elle fait partie des principales lois
élémentaires utilisées pour les tests statistiques (avec la loi de Student et la loi de Fisher-
Snedecor) et pour définir l'intervalle de confiance.
Loi unforme
La loi Bêta.
C'est une loi très générale dont la distribution peut présenter des formes symétriques ou
asymétriques très diverses.
C'est la loi d'une variable aléatoire T prenant ses valeurs t sur l'intervalle [0,1] et dépendant de
deux paramètres, n et p (paramètres de forme).
Cette loi représente la probabilité pour qu'un matériel survive au moins jusqu'à un temps t,
quand n matériels sont testés simultanément, d'où son intérêt dans l'évaluation de la durée des
essais de fiabilité.
Cette loi de probabilité est souvent utilisée en statistique bayésienne (survie d'un matériel)
comme distribution a priori de la probabilité d'un événement qui suit une distribution binomiale.
Les deux lois étant conjuguées naturelles, le calcul de la distribution a posteriori est alors
simplifié (voir chapitre deux).
Si T suit une loi Bêta de type i (n,p), alors par définition, suit une loi Bêta de
type 2.
i. Loi Binomiale.
La loi Binomiale s'applique pour décrire un phénomène ayant des occurrences s'excluants
mutuellement (état défaillant ou en fonctionnement pour un matériel). Elle exprime la
probabilité de voir k fois la réalisation d'une des occurrences au cours de n essais, en fonction
Elle ne peut être employée au contrôle qualité que si le nombre de tirages n est faible comparé
au nombre d'individus, car elle s'applique rigoureusement que si les expériences sont non-
exhaustives (avec remise de l'individu en cas de prélèvement).
Dans le cas où le nombre d'expérience tend vers l'infini, mais que la probabilité de l'événement
reste faible, il est préférable d'utiliser la loi de poisson.
Cette loi a en particulier des applications économiques dans le domaine des files d'attente, ou
est utilisée pour calculer les probabilités d'accidents mortels.
D'une façon générale, c'est la loi qui traduit un nombre de réalisation d'événements très peu
probables, dans une suite très nombreuse d'épreuves aléatoires (n 50), la probabilité de
réalisation des événements étant toujours la même.
Remarque : La loi de poisson est une loi discrète dont la variable aléatoire est un nombre
d'événements, alors que dans la loi Exponentielle, la variable aléatoire est l'intervalle de temps
entre deux événements.
Processus Poissonnien:
La fiabilité des composants élémentaires peut être estimée à partir d'essais en considérant les
dates d'apparition des défaillances [DR089].
On teste alors l'adéquation des défaillances constatées avec les lois de statistique connues et on
identifie, quand c'est possible, la fiabilité du composant élémentaire (représentée par la
fonction de densité de probabilité de défaillance au cours du temps) à une loi connue
caractérisée par ses paramètres propres. Cette démarche n'est possible que si tous les essais ont
été menés exactement dans les mêmes conditions.
On peut appréhender dès cette étape les problèmes liés à Fenvironnement dans lequel
fonctionne le composant et donc la nécessité de caractériser l'influence de cet environnerrnt
sur le comportement du composant élémentaire.
Systàne mécanique
J
i i
1 il ¿
a. Système Série
C'est le cas le plus simple. Chaque composant est indispensable au fonctionnement du système,
la déi11ance de n'importe lequel entraîne la défillance de tout le système. On peut alors
exprimer la fiabilité du système de la manière suivante:
IIRcon,caii
2(t)3 =Â.(t),
où 2(t)3 est le taux de défaillance instantané du système,
2(t)1 est le taux de défaillance instantané du composant élémentaire i.
Système Parallèle
F5,
= i:i
=1 fl (1-
On peut noter que le fait de doubler ou tripler certains composants permet d'accroître la
fiabilité d'un système au détriment de l'encombrement et du prix du système.
En général, les systèmes mécaniques sont une combinaison de systèmes parallèles séries et la
fiabilité du système se calcule plus difficilement.
Vis à vis de ses différents modes de défaillance, le composant élémentaire se comporte comme
un système série vis à vis des composants élémentaires qui le forment. En effet, la défaillance
due à un mode de défaillance entraîne la défaillance du composant dans sa totalité. On peut
alors écrire la fiabilité F du composant élémentaire [CHE92]
RA RA
Dans toute étude de fiabilité, on étudie en fait la capacité d'un composant à ne pas défaillir. Il
est donc nécessaire de connaître les modes de défaillance que l'on peut rencontrer sur le
composant étudié. On cherche à en estimer les risques respectifs et on utilise fréquemment la
méthode de l'Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité (AMDEC)
[SUH92, R1O93, R1094].
L'AMDEC est une analyse critique consistant à identifier de façon inductive et systématique les
risques de dysfonctionnement des produits puis à en rechercher les origines et leurs
conséquences. Elle permet de mettre en évidence les points critiques et de proposer des actions
correctives adaptées. C'est une méthode le plus souvent préventive qui, par le biais d'un groupe
de travail, permet la mise en commun des connaissances et des expériences d'experts d'horizons
différents.
Elle se décompose en 2 étapes principales qui sont les suivantes:
4 identification exhaustive des risques de dysfonctionnement,
4 mise en évidence des points critiques,
Comme nous l'avons vu précédemment, l'étude de fiabilité d'un composant ou d'un système est
liée à ses conditions de fonctionnement et aux modes de défaillance qu'elles impliquent.
Une analyse AMIDEC permet de mettre en évidence les points critiques, ceux qu'il faut corriger
en priorité, mais aussi de quantifier les risques et de les classer entre risque acceptable et risque
inacceptable.
Pourtant, c'est une méthode relativement longue et coûteuse et elle ne doit être effectuée que
sur des composants jugés critiques par une première analyse. Il ne faut donc pas réaliser
systématiquement des AMDEC sur tous les composants mais plutôt une première analyse
générale, exhaustive et simple pour identifier les composants à risque et ensuite effectuer
En conclusion, I'AMDEC n'est qu'un outil de la fiabilité qui s'avère indispensable tant au niveau
de la conception qu'au niveau du fonctionnement et du maintien en service d'un équipement.
C'est la première étape de la construction et de la prévision de la fiabilité. De plus, par une
comparaison avec des matériels existants et des bases de données contenant des informations
relatives à une AMDEC, on peut modéliser les différences entre les matériels connus et des
matériel nouveaux et ainsi prévoir facilement, avec un très petit nombre d'essais, la fiabilité d'un
produit nouveau [V0G88].
1.3.1. Introduction
Pour réaliser une série d'expériences, il faut tenir compte d'un certain nombre de paramètres et
envisager la possibilité de modéliser le comportement d'un composant et de simuler sa
dégradation plutôt que d'effectuer des essais. Les contraintes tant au niveau financier qu'au
niveau du temps d'essai doivent être envisagées. Le domaine d'intérêt des expériences se situe
dans le domaine des composants peu chers et dans le domaine des tests rapides (voir figure 9).
Coût de t'sai
d'un compoaant
Trop élevé
Elevé mais
acceptable
Faible
Les différentes zones délimitées sur le graphique déterminent les stratégies suivantes
A grand nombre de composants testés
B quelques composants testés avec des mesures du taux de
dégradation
C mesures effectuées sur des matériels en service
D test de composants simplifiés ou simulation par ordinateur
Introduction
Généralement, quelqu'un qui effectue des expériences ou des essais le fait intuitivement, dans le
désordre et sans rigueur. Un plan d'expérience doit être compris comme un plan "optimal"
d'expériences, c'est-à-dire la planification des expériences pour optimiser le nombre d'essais,
leur coût et éventuellement la justesse et la véracité des résultats obtenus...
Ainsi, si on veut étudier l'influence de trois paramètres a, b, c (pouvant prendre chacun deux
valeurs distinctes) sur une grandeur y, l'étude de tous les cas possibles conduirait au minimum
à 2 expériences. Si on ne considère pas les interactions entre les différents paramètres, 4
expériences judicieusement choisies suffiraient [VIG9 1]. Sur cet exemple simple, on comprend
immédiatement que le choix d'un plan d'expérience optimal peut réduire fortement le nombre
d'essais à effectuer.
Généralités
Un plan d'expériences recouvre une série d'essais (ou de simulations d'essais) destinée à
éclaircir un problème complexe pour lequel on dispose cependant d'un minimum
d'informations.
Ill est également primordial de bien définir l'objectif du plan car c'est lui qui dirigera le choix du
type de plan utilisé. On n'utilisera pas le même plan pour débroussailler l'influence de 10
facteurs sur le comportement d'un système que pour modéliser le comportement du même
système en fonction de deux paramètres uniquement.
Une fois l'objectif fixé, il convient de décrire le mieux possible le système considéré (la "boîte
noire"). Pour cela on recense tous les facteurs, c'est-à-dire les causes possibles et élémentaires
des variations observées sur la réponse du système. La réponse est l'ensemble des
performances observées sur le système étudié et qui caractériseront le comportement de celui-
ci (voir figure 10).
Facteurs Réponse
Un plan d'expériences est une matrice d'essais, c'est-à-dire une liste de combinaisons des
différentes valeurs des facteurs associées à chaque essai. Les différentes valeurs que peut
prendre un facteur dans le plan est son nombre de niveaux.
On modélisera le comportement du système en fonction des valeurs prises par les différents
facteurs. Le modèle peut être linéaire ou non, homogène ou non [BEN94]. Ainsi on peut
estimer l'évolution de l'usure d'un pion en mouvement sur un plan en fonction de la pression de
contact (estimée non linéairement) et de la vitesse relative entre les deux surfaces (linéaire). On
peut également étudier l'importance de l'interaction entre les deux facteurs, c'est-à-dire
l'influence de l'action conjuguée des deux facteurs. Si l'action de la pression est symbolisée par
p, l'action de la vitesse par y, l'usure par U, un tel modèle s'écrirait:
les termes a1, a2, b1, ab1 et ab2 estimant l'influence des paramètres par rapport à U la
moyenne de la réponse sur l'ensemble des essais.
Une fois, les facteurs choisis et leur linéarité respective envisagée (c'est-à-dire une fois le
modèle choisi), on détermine le plan minimum permettant d'estimer ce modèle à partir de
l'analyse des degrés de liberté du système. Le degré de liberté d'un facteur ou d'une interaction
est le nombre minimum d'essais nécessaires pour estimer le facteur. Il est égal au nombre de
niveaux du facteur moins i pour un facteur simple, au produit des degrés de liberté des
facteurs la composant pour une interaction. Le plan minimum permettant d'estimer le modèle a
au moins autant d'essais que la somme des degrés de liberté du modèle (ne pas oublier le degré
de liberté de la composante d'ordre O, U).
On compare ensuite le plan obtenu aux contraintes fixées par l'étude (contraintes de coût mais
aussi de temps). Si les contraintes sont trop fortes, il faut reconsidérer le modèle et le simplifier
pour le rendre compatible avec celles-ci.
Cette méthode a été développée dans le cadre d'essais de détermination de limite de fatigue de
matériaux [LIT8Ob].
On choisit un pas de contrainte et on effectue, pour une durée d'essai donnée, une série de tests
pour des contraintes croissantes pas à pas. On augmente la contrainte appliquée jusqu'au
premier défaillant pour la durée considérée. On cycle ensuite la contrainte entre le premier
survivant et le premier défaillant (voir figure 11)
Cette méthode permet d'obtenir rapidement la limite de fatigue moyenne du composant testé, à
condition que le pas ne soit ni trop large ni trop étroit et que la première contrainte testée ne
soit pas trop faible par rapport à la limite de fatigue moyenne. On peut aisément s'affranchir de
ces deux contraintes en effectuant une première série de tests au hasard afin de déterminer une
valeur initiale et un pas convenable.
La méthode est ensuite complétée par une série d'essais pour les deux valeurs de contrainte
encadrant la moyenne trouvée. Cette série d'essais supplémentaires permet, par une stratégie de
minimisation de la variance, d'obtenir une précision sur la limite de fatigue équivalente à celle
obtenue à partir d'un échantillon de population entre 2 et 4 fois plus nombreuse pour lequel on
effectuerait des essais au hasard.
Contrainte
appliquée
£
C5 X X
C4 Ox 0X0
C3 Q xc o
C2 O Défaillance X
Cl O Survie
p.
1 5 10 15 Numéro d'essai
Ce sont des essais pour lesquels les contraintes sont fixes ou éventuellement cyclées [CR086]
pendant toute la durée de l'essai. On fait varier, d'un essai à l'autre, le niveau des contraintes
appliquées, contraintes par ailleurs de même nature. Il convient de bien préciser la nature des
contraintes qui sont fonction des conditions de fonctionnement auxquelles on s'intéresse pour
le composant étudié [SCH69, NEL9O].
De plus, le choix des niveaux de contrainte est primordial. En effet, le plus faible doit
correspondre au niveau minimum permettant d'observer la dégradation considérée, le plus
élevé doit correspondre au niveau le plus sévère pour lequel la dégradation considérée est
encore dominante.
24
J-C. AUGEFévrier 1998
C, '('f, lire un. Etat de ¡ 'art
L'hypothèse fondamentale de ce type d'essais est que la probabilité d'obtention d'une évolution
donnée, en un point donné du domaine contrainte-temps, est indépendante de la manière par
laquelle (à contrainte croissante) on est parvenu à ce point. De plus, on suppose que la
dégradation d'un composant à un palier de contrainte Ci est fonction de la durée du palier et
que la vitesse de dégradation d'un composant à un palier de contrainte Ci ne dépend que de ce
niveau de contrainte (elle est indépendante des dégradations éventuellement subies aux paliers
précédents à des niveaux de contrainte inférieurs à Ci).
On appelle "elephant tests" un essai réalisé avec une contrainte comparable à un éléphant
marchant sur le produit [NEL9O]. On ne cherche en aucun cas à effectuer des calculs de
fiabilité, il s'agit exclusivement d'un test. Le composant survit au test ou non. Un bon test est
celui qui reproduit les modes de défaillances observés dans la réalité, dans les mêmes
proportions mais il est délicat de concevoir un tel essai, surtout dans le cas de nouveaux
produits.
En règle générale, on fait appel aux experts qui, d'après le résultat d'un tel test estiment si le
produit est correct ou non. Il s'agit dans tous les cas uniquement de données qualitatives et on
ne peut pas utiliser ces essais pour déterminer les paramètres de fiabilité d'un composant. C'est
plutôt un outil à utiliser à la conception, pour choisir entre plusieurs solutions techniques.
Nous reviendrons plus en détail sur les techniques bayésiennes au chapitre deux.
Le principal intérêt de cette démarche est qu'elle prend en compte tous les résultats ou toutes
les observations disponibles au préalable et que quelques observations complémentaires
suffisent pour valider la vraisemblance de la connaissance a priori [PR092].
1.3.8. Conclusion
Toutes les méthodes présentées ci-dessus comportent un intérêt certain mais demandent un
bonne connaissance des phénomènes rencontrés. En tout état de cause, ces méthodes doivent
être utilisées avec prudence, par des experts, en complément de méthodes statistiques
classiques.
1.4.1. Introduction
Le caractère systématique des essais d'endurance imposés aux industriels par leurs clients
potentiels leur pose de graves problèmes. En effet, contrairement au domaine de l'électronique
où il est aisé de mettre en oeuvre un grand nombre de composants (ils sont souvent petits et
bon marché), les essais d'endurance de composants mécaniques sont souvent réalisés sur un
petit nombre de pièce et nécessite des infrastructures importantes. Aussi, pour minimiser les
coûts et les durées de développement de leurs produits, les mécaniciens se tournent de plus en
plus vers les essais accélérés, avec tous les problèmes que cela suppose [HAU75, BA196,
BAR96].
Il est très important de bien différencier un essai accéléré d'un essai d'endurance, aussi, nous
allons en rappeler les définitions.
1.4.2. Définitions
Ces définitions sont celles adoptées par l'lEC (International Electrotechnical Commission)
[V1L88}.
Essai d'endurance:
«Un essai d'endurance est une expérimentation conduite sur une période de temps pour
vérifier comment les propriétés d'une entité sont affectées à la fois par l'application de
contraintes spécifiées et par leur durée. »
C'est un essai prédictif, c'est-à-dire qu'il vérifie l'adéquation du composant avec son utilisation
prévue. Il faut veiller à ce qu'un essai d'endurance simule bien les conditions en service réel.
C'est alors qu'on peut chercher à accélérer l'essai.
Essai accéléré:
((Un essai accéléré est un essai au cours duquel le niveau des contraintes appliquées est choisi
au-delà du niveau fixé dans les conditions de référence, en vue de diminuer le temps nécessaire
pour observer l'effet des contraintes sur l'entité ou en vue d'accentuer cet effet dans un temps
donné. »
Un essai accéléré est également appelé essai sévérisé. Il peut être caractérisé par deux
considérations primordiales:
4 ce doit être un test prédictif significativement plus court que la durée de vie réelle du
composant dans les conditions spécifiées pour son utilisation,
4 on doit pouvoir contrôler, pendant le test, des paramètres directement liés à la fiabilité du
composant.
Pour être valable, un essai accéléré ne doit altérer ni les mécanismes de base des défaillance, ni
les modes de défaillance, ni leur importance relative.
Comme l'indique la définition, un essai accéléré est un essai pour lequel les contraintes sont
supérieures aux contraintes de référence.
Par extrapolation aux conditions de référence, il est possible d'estimer le taux de défaillance à
partir des résultats d'essais accélérés (voir figure 12).
De plus, l'estimation de la fiabilité d'un produit à partir d'essais de laboratoire est malaisée car
les conditions du laboratoire diffèrent notablement des conditions réelles d'utilisation sur le
terrain.
Dans la littérature, Yee and al. [YEE8O] ont proposé une méthode de détermination de la
distribution statistique de la vie d'un produit. Pour un mode de défaillance donné, on effectue
un produit de convolution entre la distribution de la vie du produit mesurée en laboratoire et la
distribution des conditions réelles d'utilisation du produit
Cette méthode s'avère utile pour des produits dont la durée de vie ne dépend que de leur taux
d'utilisation et pas d'éventuels régimes intermittents.
On remarque donc que la conduite d'essais accélérés nécessite une connaissance approfondie
du composant testé et des caractéristiques de dégradation:
4 connaissance des points sensibles à la dégradation,
4 connaissance du processus de dégradation,
4 maîtrise de la vitesse d'évolution.
Le facteur d'accélération est le rapport entre la durée de vie d'un produit dans les conditions
d'utilisation et sa durée de vie dans les conditions de l'essai accéléré:
A==2-
LTU
Dans le cas de taux de défaillance instantané, l'expression devient alors:
.%(t)T =A,%(A.t)0
où A est le facteur d'accélération,
L et A, sont les durée de vie et taux de défaillance à la température U,
LT et A. sont les durée de vie et taux de défaillance à la température T.
D'après Kitawaki [K[T88], on peut exprimer le facteur d'accélération d'un système complexe à
partir de données sur les composants élémentaires, moyennant quelques hypothèses.
A=eHTu T,.)
=A.
avec
A = e°
où z correspond à l'environnement,
ß correspond à la dépendance du produit par rapport à l'environnement z.
Remarque:
Les facteurs d'environnement sont peu explicités dans la littérature. On notera notamment
l'existence:
4 des coefficients de COX,
4 des coefficients BR&DC,
4 de la loi d'Arrhénius,
4 de la loi de la puissance inverse.
a. Coefficients de COX
Cela revient à dire que le risque, pour un sujet de caractéristique Z, à l'instant t, est le produit
d'une fonction (t) ne dépendant que du temps et d'une fonction c(b, Z) n'en dépendant pas
[K1T88, Dm96]. La fonction c(b, Z) dépend des caractéristiques Z du sujet, le vecteur b
exprime cette dépendance.
La fonction c(b, Z) peut être choisie de la forme suivante [COX7O]
c(b,Z) = b.Z
Cette forme offre l'avantage de garantir une fonction positive sans contraintes sur le vecteur b.
Remarque:
Ce modèle permet d'étudier l'influence de paramètres z. mais on peut également envisager
l'étude des interactions entre deux paramètres. On pourra, par exemple, définir un vecteur
contraintes de la forme suivante:
z'
z2
z3 = z, .z2
Ces coefficients ont été développés par le Belvoir Research Development & Engineering
Center pour des composants mécaniques et notamment des composants hydrauliques [SKE85,
RAZ86, RAZ87, RH088]. L'étude est placée dans le cadre d'un mode défaillance spécifique, le
système est décomposé en composants élémentaires et le taux de défaillance de chaque
composant élémentaire est modélisé par un taux de base multiplié par des facteurs
d'environnement. Ces facteurs prennent des formes diverses et variées.
Pour un joint par exemple, le taux de défaillance s'exprime par la formule suivante:
2-A.B
Ql
où A.B est le taux de défaillance de base du joint,
Ces facteurs semblent assez intéressants mais les publications où ils sont présentés ne donnent
pas d'exemples numériques de leur validité. De plus, il semblerait que même aux Etats-Unis des
réserves aient été émises quant à cette validité, notamment de la part de la Marine Américaine.
Loi d'Arrhénius
Cette loi traduit, pour les composants électroniques, l'influence de la température sur la
dégradation du circuit [SCH69]. Elle relie les durées de vie ou les taux de défaillance d'un
produit en fonction des deux températures d'essai
Eaf I I
k T0 T
L=L e
ou, pour les taux de défaillance,
Eaj'I I
A =.e k 1.,Tr To
C'est la loi qui, pour les systèmes électroniques, traduit les variations de tension d'utilisation
[SCH69}.
On exprime le rapport entre la durée de vie du produit dans les conditions normales
d'utilisation L et sa durée de vie dans des conditions de test spécifiées L
L (VT)N
L Lv)
où V, est la tension normale d'utilisation,
VT est la tension du test spécifié,
N est un coefficient qui dépend du type de circuit électronique.
On peut trouver d'autres types de modélisation mais ceux-ci sont souvent empiriques et ne
peuvent pas être généralisés [KAL92J.
Un essai accéléré doit prendre en compte toutes les considérations citées précédemment. On
peut le diviser en quatre étapes principales [LEF94}.
Etude préliminaire
On relève les modes de défaillance les plus significatifs du composant et on choisit celui ou
ceux que l'on va considérer. On modélise de la façon la plus simple possible les mécanismes
correspondant à ces modes de défaillance. On relève les facteurs d'accélération envisageables et
on détermine les modes d'accélération à adopter spécifiquement dans le cas du composant
choisi.
Essais préliminaires
On effectue quelques essais pour valider les modèles des modes de défaillance. On définit, à
partir de ces essais, les domaines de variation des facteurs d'accélération retenus. On choisit un
ou des critères pour mesurer l'avancement de la dégradation du composant et on cherche à
modéliser les lois reliant ces critères aux variations des paramètres d'accélération.
Essais systématiques
d. Interprétation
On effectue les prévisions de durée de vie des composants pour les conditions qui nous
intéressent. On tire des résultats les paramètres des lois de comportement et d'accélération. On
en déduit des considération théoriques sur les caractéristiques et le comportement du
composant testé.
1.4.6. Conclusion
Les essais accélérés semblent être une bonne alternative à la forte augmentation des durées de
vie des composants et à la part de plus en plus importante des essais dans la phase de
développement d'un produit.
Nous avons vu ici que de tels essais exigeaient des précautions importantes.
Le modèle de Cox peut être une réponse à ce besoin de modélisation. Nous montrerons au
chapitre deux qu'il est bien adapté.
1.5. Conclusion
Ce chapitre a regroupé un vaste éventail de méthodes de réduction d'essais. Celles-ci ont été
développées dans des cas relativement spécifiques et semblent peu adaptées au cas de
composants hydrauliques ou pneumatiques.
2. DEVELOPPEMENTS THEORIQUES
2.1. Introduction
Nous présenterons, dans ce chapitre, les travaux complémentaires que nous avons réalisés à
partir de la synthèse bibliographique présentée au chapitre un.
Nous aborderons tout d'abord la théorie concernant les statistiques de l'échantillon ordonné;
cette méthode, bien que purement mathématique, permet d'estimer plus rapidement les
paramètres de fiabilité mais nécessite de tester un grand nombre d'échantillons.
Nous reviendrons ensuite plus en détail sur les méthodes bayésiennes et sur leur utilisation
possible en fiabilité mécanique.
Nous détaillerons alors la théorie relative à l'utilisation des modèles de Cox ainsi que les
travaux réalisés afin de permettre leur utilisation (développement d'un logiciel de traitement en
collaboration avec l'ENISE).
Enfin, nous décrirons les méthodes de l'analyse de données qui nous semblent être
particulièrement intéressante car elle peuvent permettre de prévoir des données de fiabilité
sans développer de modèles théorique ou numérique.
Ce chapitre regroupe des travaux issus d'ouvrages existants ainsi que notre contribution à ces
divers problèmes.
Nous allons exposer ici des développements statistiques liés à l'échantillon ordonné [TAS89] et
à la place d'un élément dans cet échantillon.
2.2.1. Définitions
On se propose d'étudier les lois F,, des Y et de les relier à la loi F de l'échantillon global des
2.2.2. Lois
Rappel:
Si, dans , on note K la variable aléatoire "nombre de réalisation de A ", les expériences
étant indépendante, à x donné, on a:
P(AX) cte = p = F et L(K) = B(n,p)
donc P(K=k)=C.Fk.(1_F)h1.
a. Etude de J
exemple
Si L(X) est une loi de Weibull de paramètres ß, i,y L(X) = W(ß, on a:
F(x)=F=1e q)
avec
Etude de 1,
f1(x) n.f1(x).[F1(x)]"' =
exemple:
Si L(X) est une loi de Weibull de paramètres ß,17,r L(X) = W(ß,ii,y) , on a:
F(x)= 1e
7' J
Généralisation: étude de k
Nous allons nous intéresser ici à la loi de probabilité suivie par 1k' la variable aléatoire
décrivant le k élément de l'échantillon ordonné.
F (x) = = j) =
Y' Yk Yn
+dx
o
Donc f1 (x).dx est la probabilité que (k - 1) éléments X sur n soient dans l'intervalle [o;x],
que i élément X sur (n - k + 1) soit dans l'intervalle [x; x + dv] et que les (n - k) éléments
X restants soient dans l'intervalle [x + dx;+cx[.
frk(X) =
Remarques:
Par intégration, on retrouverait l'expression de F exposée précédemment.
De plus, les lois de 1 et Y, décrites aux paragraphes précédents sont des cas particuliers de la
loi de correspondant respectivement aux valeurs k i et k n.
Dans cette méthode, on se propose de réduire le nombre des essais à partir de la loi de la
valeur minimum 1.
R1(x)=R(x)
Ce résultat relie la fiabilité du composant étudié R1 (t) à la loi de la valeur minimum R1 (t).
Cette loi est généralement déterminée plus rapidement que la loi de fiabilité du composant dans
la mesure où seule la première défaillance de chaque groupe de n composants est nécessaire à
son calcul. C'est dans cette mesure que la méthode du minimum peut être considérée comme
une méthode d'accélération d'essais. On procède alors à des essais par groupe, les essais du
groupe étant censurés après le premier défaillant (voir figure 14).
Composants n 4
testés £
X
Groupe i
X
Groupe 2
ç.
Défaillance X
Groupe 3
X
o Censure O
p.
Temps
Des démarches similaires peuvent être menées avec les défaillances d'ordre supérieur à i mais
le gain obtenu est maximum dans le cas exposé ci-dessus.
Plus le nombre n de composants dans chaque groupe est élevé, plus le gain de temps est élevé,
plus le nombre de groupes en essai est élevé, plus l'intervalle de confiance sur la loi R1, (t) sera
fin et donc plus celui de R1 (t) le sera également. Il convient de déterminer l'optimum entre le
coût des essais (nombre de composants testés) et la finesse du résultat cherché.
Cette méthode peut également être utilisée pour déterminer rapidement une estimation de la
fiabilité d'un composant en l'absence de toutes les données de défaillance. Elle peut également
être couplée avec des méthodes bayésiennes [LYO97b] pour estimer plus rapidement la loi du
minimum par exemple.
2.3.1. Introduction
Pour fournir des données de fiabilité (durées de vie, intervalles de confiance...), il est nécessaire
d'effectuer des inférences statistiques à partir des données récoltées. Cependant on remarque
que les "composants" sont de plus en plus fiables ce qui a pour conséquence de diminuer le
nombre d'informations. On arrive ainsi au paradoxe suivant: plus la fiabilité d'un composant est
élevée, plus son évaluation est difficile. Cette difficulté réside dans le fait que les méthodes
statistiques classiques pour l'estimation de paramètres nécessitent un grand nombre de
données.
Une solution est de trouver de nouvelles méthodes statistiques permettant d'avoir un maximum
d'information à partir de très peu de données issues du retour d'expérience ou d'essais. La
méthode de Bayes répond bien à cette attente. L'utilisation des techniques bayésiennes dans le
domaine de la fiabilité industrielle est cependant un phénomène récent, lié à l'apparition
d'ordinateurs puissants à grande capacité de calcul {YUC8OJ.
Les techniques bayésiennes s'appliquent aux problèmes des entreprises disposant de systèmes
uniques très chers et qui veulent en estimer ou en maîtriser la fiabilité. La rareté des
informations fait qu'une analyse objective donne bien souvent des résultats erronés. Dans ce
cas, il est préférable d'utiliser la démarche subjective qu'est la méthode de Bayes. Pour cette
approche, la probabilité est considérée comme un concept personnalisé, dépendant du degré de
croyance que chaque individu porte sur l'occurrence d'un événement {FAU86]. Ces techniques
Bayésiennes mettent en oeuvre un raisonnement bien adapté à la logique expérimentale, se
basant sur l'enrichissement dynamique de la connaissance par les informations du terrain
[SUIH94].
Dans Fapproche statistique classique, le paramètre 6 qu'on cherche à estimer est considéré
comme une inconnue mais déterministe et estimée par une méthode traditionnek (méthode du
maximum de vraisemblance par exemplt' brns Iapprache Bayésienne, leparaniètr O est une
variable aléatoire sur l'espace probabilisablei O (ensemble auquel appartient G), admettant wie
densité de probabilité g(0).
L'incertitude sur l'occurrence d'un événement est modélisée par une probabilité subjective,
déterminée à partir de connaissances. sur des. matériels simikres: c'est 1'iinionsapriori
a. Théürème de Bayes
Formulation discrète:
P(A, IB)=j)j
où A1 : événement étudié,
B : événement(s) observé(s),
P(A1) probabilité a priori de réalisation de l'événement A.,
P(B / A.) : vraisemblance de l'occurrence de l'événement A. sachant que B a été
observé,
P(AI / B) : probabilité a posteriori de réalisation de l'événement A, sachant que- B
a été observé.
Formulation continue:
f(X/O).g(9)
g(O/X)
- JD(9)
f(X/9).g(9).d8
où 9 paramètre étudié,
x=(x1,..,x) observations de la variable aléatoire X,
g(9) densité de probabilité a priori,
f(X/8) distribution de probabilité conditionnelle de X sachant O, fonction de
vraisemblance de l'occurrence de l'échantillon observé,
g(9/X) densité de probabilité a posteriori de e sachant qu'on ait observé X,
D(9) domaine d'intégration du paramètre O étudié.
Toute la difficulté réside dans la détermination de la distribution a priori qui jouera un rôle
important et dans l'intégration du dénominateur. L'utilisation du théorème de Bayes a été
rendue possible par l'augmentation des performances des moyens informatiques mais
l'utilisateur se heurte encore à deux problèmes principaux qui sont le prix du matériel et des
outils de calcul ainsi que la difficulté d'intégration du dénominateur.
b. Principe de conjugaison
Afin de palier au problème d'intégration du dénominateur, il est conseillé de choisir une loi a
priori de même nature que la fonction de vraisemblance afin d'aboutir à une distribution a
posteriori connue; c'est ce qu'on appelle le principe de conjugaison.
Dans le cas général, la distribution a priori n'a aucune raison d'être de la même famille que la
distribution a posteriori. Lorsque l'on procède à des itérations bayésiennes, c'est-à-dire que,
suite à une première application, nous avons obtenu de nouvelles données, l'on procède à un
nouveau traitement avec la distribution a posteriori du premier traitement comme a priori pour
le second traitement (voir figure 16).
Par conséquent, pour des raisons techniques on choisit souvent une distribution a priori qui
soit de la même nature que la distribution finale supposée.
Le principe de conjugaison est très important si ce genre d'itération se répète plusieurs fois car
sinon on aboutit très vite à des expressions complexes inexploitables. La table présente les
distributions conjuguées de lois fréquemment utilisées en fiabilité; en analyse bayésienne on
choisira, de préférence, celles qui permettent un bouclage et n'aboutissent pas à des
expressions complexes et inconnues.
A chaque itération, le modèle est enrichi par de nouvelles données, ce qui permet de converger
ou de mieux se rapprocher de la valeur vraie du paramètre recherché. Ainsi, on aboutit à
chaque itération à une meilleure approximation du paramètre étudié.
i. Distributions a priori.
En principe, de nombreuses possibilités de modèles a priori existent. Pour dea raisons liées à
l'intégration du dénominateur de la formule de Bayes et pour des raisons de conjugaison, ce
choix est fortement limité (voir table 1).
Dans le domaine de la fiabilité des matériels et des systèmes, les principales distributions
utilisées sont: la loi exponentielle qui est directement associée au processus poissonnieaet qui
est représentative de la durée de vie de matériel qui ont un taux de défaillance aléatoire
constant, la loi de Weibull qui généralise la loi exponentielle mais dont le taux de défaillance
varie dans le temps, la loi Log-normale représentative en particulier des temps de réparation
des matériels et enfin la loi Gamma.
Il est nécessaire avant d'aborder toute démarche de bien analyser le type de données
disponibles. Elles sont de deux formes:
4 informations objectives:
Ce sont des données opérationnelles, provenant d'essais ou de retour d'expérience sur des
systèmes antérieurs, de technologies proches, donc similaires.
4 informations subjectives:
Ce sont des données représentant le degré de croyance exprimé par un expert connaissant
parfaitement le matériel étudié.
Ces informations sont souvent données sous forme d'intervalle de confiance avec un certain
niveau de confiance.
d. Principe de dualité.
On cherche à estimer le taux de défaillance 2 sachant que T suit une loi exponentielle de
paramètre 2. Sa densité de probabilité est:
f(t/2) =
avec :7
d'où
2 ke2.T
g(2 / T) - 2,
f2 k.e2r .d2
o
(o;2),
2, T
l'intégrale I devient 1 JY".edY
d'où
F(k+1,20.7)
J Tk+I
Espérance mathématique:
A0
ainsi
A0 l;
T
E(2/T)=
T2F(k+120T) o
Aol;
Or fX.e.dX=r(k+2,20.1)
d'où
F(k +2,2.7)
7.F(k+1,20.7)
Variance:
V(2/7)=E(22 /fl-E2(2/T)
avec
Ao
Tk+l
E(22/fl F(k+1,20.)
.22.e.d2
Posons X=2.7 ,d'où 2=-f et d2,
Tk+ Aol;
ainsi E(22/fl= Tk+3F(k+120T) JX2.eX.
F(k +3,2.7)
donc E(2 2 / 7)
T2.F(k + 1,2 )
d'où, finalement:
Remarque:
i
g(2) -
2 -2
La distribution a posteriori est la suivante:
gQJT) A
12
A01 -2 0
soit, après simplification,
2k
.e
g(2 / T) - A
12k .e4 .d2
2,
Espérance mathématique:
I'(k+2,21.7)F(k+2,20.7)
Variance:
Supposons que la distribution a priori g(%) de 2 soit une loi Gamma de paramètre a0 et fi0.
i --
ß0C0 .I'(a0)
g(2).L(T / 2)
g(2/T)
f g(2).L(T/ 2).d2
o
a
fi0
g(2/T) i.
i fib 2k
J e' . d2
0 fi0
d'où
g(2 / T) =
f2ao_1.e0d2
o
Posons I = J 2 ao+k1e d2 et X =
O
fi0
X dX
onaalors2= et
(1 (1
I+T I+T
a0+k-1
X dX
I s'écrit donc 1=f
i Jxao1.e.dx
et donc I - a0+k
or f Xaoki.ex.dX = T(a0 + k)
d'où
_
r(+k)
(
I-+r e
a0+k
g(2/T)= ,%ao+k.Ie
I'(a0 +k)
La loi g(2 / T) ainsi obtenue est une loi Gamma de paramètres fi0
a = a0 + k
où a représente le nombre cumulé de défaillances,
fi représente le temps cumulé (de test ou de retour d'expérience).
Les inférences statistiques déduites à partir de la distribution a posteriori g(2 / T) sont les
suivantes:
Espérance mathématique:
E(,% / T) -
a_ a0+k ß0.(a0+k)
ß.2+1
fib
Variance:
a fi02.(a0+k)
fi2 (ßo.T+1)2
Elle est utilisée pour des matériels susceptibles de subir des défaillances à la sollicitation, donc,
par exemple, des matériels subissants des essais d'endurance ou de fiabilité.
On essaie n matériels indépendants, soit pendant une durée déterminée au bout de laquelle on
dénombre les matériels survivants et les matériels défaillants (essais censurés de type 1), soit
jusqu'à ce qu'un nombre prédéterminé de matériels soient défaillants (essais censurés de type
2).
En fiabilité, le paramètre p est la probabilité pour que le matériel survive à la durée t du test, et
c'est le paramètre que l'on cherche à estimer p = R(t).
f(k?) = c.pk.(lp)
avec k=1..n et O<p<l
Cette distribution est utilisée lorsque les informations sont vagues, ou lorsque l'on souhaite
donner plus d'importance aux données d'essais. p suit une loi uniforme sur l'intervalle [o;i]
1.C.p".-p7'
g(pik)-1
.1. i.C.pk)1p).dp
o
k
(1-p)"
soit g(pik,fr
pk (1-p).dp
J
F(k+1).T(n-k+1)
1= Jpk(lp)ndp
o
F(n+2)
ainsi on a finalement
F(k+1).F(n-k+1)+1)
g(p/lç)=z I
.(l-p) (n-k+I)-1
F(n+2)
Ja = k +1
Cette fonction correspond à une distribution Bêta de paramètres
1,8 = n - kO +
Espérance mathématique:
k+ i
E(pik)-----
Variance:
(lc+1). (n-k+l)
V(p/k)'
(n+3). (n+2)2
F(;
I'(aP)
T( +)(i)ßo1Ckk(1)n4d
pao +k1
d'où g(p/k,)
fpX +k-1 .('l_p)ßo1
.dp
o
F( + k).F( + n - k)
or f pao+kl (1ptdp T(a0+ß+n)
o
On obtient finalement:
F(;+ß+n) ° .(i_p)ßo
- I'(a0 + k).F(/.% + n - k)
ía = a0 + k
c'est une loi Bêta de paramètres
= +-k
Espérance mathématique:
a0+k
E(ñç)=
a0 + fi0 + n
Variance:
(a0 +k).(ß,+n-k)
V(p/k)-
(a0+ß0+n+1).(a0+ß+n)2
Afin de montrer l'importance de cette distribution, je vais traiter un petit exemple. Il s'agit du
célèbre exemple du 'joueur tricheur":
Un joueur honnête joue avec un joueur inconnu: la règle du jeu consiste à tirer un roi dans un
jeu de trente deux cartes. Le joueur inconnu retourne un roi la première fois qu'il distribue les
cartes, quelle est la probabilité pour qu'il soit un tricheur?
Une information supplémentaire est nécessaire: c'est la probabilité pour que le tricheur tire un
roi chaque fois qu'il joue. On peut supposer qu'il évitera de tirer le roi trop souvent sous p eine
de se faire démasquer rapidement.
P(R/H) = = 0.125
Si P(7) est la probabilité pour que le joueur soit un tricheur, P(T/ R) est la probabilité pour
qu'il soit un tricheur sachant qu'il a tiré un roi, le théorème de Bayes donne alors
P(T).P(R/7)
P(T/R)
- P (RIT) .P (T) +P (R/J-J). (1-P(T))
P (T) .0.2 5
d'où P(T/R)-
0.25.P(T)+0.125. (1-P(T))
4 si le joueur honnête suppose très fortement que cet inconnu est honnête, l'estimation de sa
probabilité a priori sur la malhonnêteté de l'inconnu sera très faible, soit, par exemple,
P(7) = 10 et il s'ensuit que
iO4 *025
P(T/R)= -- 20.10-a
0.25*10 +o.125*(11o)
donc, même si l'inconnu tire un roi du premier coup, la confiance du joueur honnête n'est
pas ébranlée sensiblement,
4 par contre, si le joueur honnête soupçonne que l'inconnu soit un tricheur, l'estimation de sa
probabilité a priori sur la malhonnêteté de l'inconnu sera élevée, soit, par exemple,
PÇI) 0.5, la probabilité pour qu'il tire un roi est
0.5*0.25 2
P(T/R)-
0.25*0.5+0.125*(1_0.5) 3
On voit dans cet exemple toute l'importance de l'hypothèse a priori, et les controverses qu'elle
peut soulever. En fait et bien entendu, la suite du jeu permettra au joueur honnête de préciser
très rapidement son jugement a priori.
Cet exemple utilise le théorème de Bayes appliqué aux lois discrètes. Les conclusions
concernants l'importance de la distribution a priori sont les mêmes si on utilise le théorème de
Bayes appliqué aux lois continues.
4 données issues de l'historique de matériels identiques, disponibles soit dans les banques de
données, soit au sein même de l'entreprise. Ces informations seront sous la forme suivante:
un nombre k de défaillances et un temps cumulé T d'essai ou de fonctionnement. A
partir de ces informations et en utilisant la méthode du f, on estime facilement un
intervalle de confiance a priori du taux de défaillance à (1-a)%:
f a
(I.)
(2k) fa (2k+2)
() k
2e 2T ' 2T
à(1a)% et2moy_T.
4 données issues d'avis d'experts. A partir de consultation d'experts, on peut déduire des
intervalles de confiance. Ces données sont totalement subjectives puisqu'elles dépendent de
l'expérience et du degré de croyance de chaque expert.
L'information a priori qu'on cherche est l'intervalle de confiance avec un niveau de confiance.
Par la méthode des quantiles, on peut grâce à l'outil informatique déterminer les paramètres de
la loi a priori.
Exemple: estimation de 2.
On connaît 2 et 2 sup tels que 2 e [2 mf; 2] à (i a) %.
On suppose que 2 suit une loi gamma de paramètres a0 et ß0. Ces paramètres sont solutions
du système suivant:
A:
Nous disposons d'un matériel totalement inconnu. Aucune donnée de retour d'expérience n'est
à notre disposition. Pourtant, le client désire connaître la durée de fonctionnement sans
défaillance. C'est en quelque sorte la durée de garantie ou d'essais de fiabilité de notre
équipement.
Rappel:
a0 est le nombre de défaillances cumulées a priori,
a = k + a0
Evaluation de
On souhaite que 2 E [2 ;2] a (i y) %
f(2k+2)
2T
Onaici T=T.
On désire trouver T (f2) pour k = O,
X27(2)
T0(2)
z2(2k+2)
I-i.
- 2T
2(+Tc)
2
(2a0+2)
2 i
TC =
fib
i
Or fi0 >0, donc >0, et donc on peut affirmer que TC(B) <TC
fi0 (z)
2
27(2a0 +2)
2 i
T
= 2.2 sup fib
2.3.7. Exemple
Un exemple de traitement de données par des méthodes bayésiennes est présenté en annexe 3.
Il s'agit du cas d'un échangeur bouilleur.
Nous traitons, dans cet exemple, des capacités comparées des traitements classiques et
bayésiens. La puissance de la méthode est illustrée dans le cas de données de vraisemblance
nombreuses ou peu nombreuses. Dans le premier cas, les résultats obtenus par les deux
méthodes sont équivalents. Dans le second, on constate une convergence plus rapide de
l'intervalle de confiance pour le traitement bayésien.
2.3.8. Conclusion
Nous avons, dans ce paragraphe, présenté rapidement les techniques bayésiennes. Nous avons
ensuite montré, à travers un exemple, comment ces techniques pouvaient se révéler plus
performantes que les techniques classiques dans le cas de données sur le matériel faibles et peu
nombreuses.
En fait, techniques bayésiennes et analyse fréquentielle classique ne sont pas deux techniques
antagonistes ou exclusives mais doivent plutôt être utilisées de concert de manière à optimiser
les campagnes d'essais (détermination de durées d'essais par des techniques bayésiennes) et à
obtenir rapidement des résultats de fiabilité. Dans le cas de données nombreuses, les résultats
obtenus par les deux méthodes sont similaires et il n'est pas nécessaire d'utiliser les techniques
bayésiennes.
Un des inconvénients des techniques bayésiennes est l'utilisation de données a priori qui
doivent être déterminées et utilisées avec beaucoup de précautions et de soins.
En conclusion, les techniques bayésiennes sont de puissants outils au service du fiabiliste mais
il convient de se montrer prudent quant à leur utilisation et à leur interprétation.
a. Introduction
Le modèle que nous avons choisi de mettre en oeuvre a été proposé par D.R. Cox en 1970
pour le traitement des données binaires [COX7O]. Il a cependant fallu attendre plus d'une
décennie avant d'en trouver des applications concrètes. Ce furent les biostatisticiens qui en
trouvèrent les premiers, et quasiment les seuls jusqu'à ce jour, un intérêt substantiel pour
mesurer l'effet des traitements thérapeutiques sur des populations humaines [0HN97, NOU].
On trouve également quelques utilisations dans le cas de matériaux [JOH91] ou d'applications
électriques [H0N88].
Nous décrirons ici les raisons qui nous ont poussé à utiliser ce modèle dans un domaine a
priori très différent, celui de la fiabilité en mécanique. Notons cependant que si l'on considère
la population étudiée comme étant un système, que si l'on s'intéresse plus particulièrement à
ses composants et leurs interactions, ses entrées et sorties, on peut alors trouver des similitudes
entre une population humaine et une population de composants mécaniques. Il n'est donc pas
aberrant d'utiliser des lois identiques pour les analyser.
Dans le cadre des études de fiabilité en mécanique, le modèle de Cox se révèle être très
intéressant car il permet de prendre en compte simultanément plusieurs variables pour
expliquer la durée de vie des mécanismes testés, sans donner de forme précise aux fonctions de
fiabilité [C0X84]. Ce modèle a déjà été mis en oeuvre pour des essais thérapeutiques car il a la
capacité de traiter des données censurées.
Notre objectif étant de réduire le nombre et la durée des essais tout en ayant une précision
accrue sur les paramètres de durée de vie des composants testés, nous avons choisi d'appliquer
le modèle de Cox. En effet, la durée des essais peut être diminuée en forçant le niveau des
contraintes environnementales; de plus, les essais ne doivent pas obligatoirement être menés
jusqu'à leur terme du fait de la prise en compte des censures. L'analyse des données par le
modèle de Cox permet d'obtenir le coefficient d'accélération entre deux niveaux de
fonctionnement, les résultats étant validés par un test de confiance [BAG95]. Dans ce
paragraphe, nous présenterons de manière plus précise le modèle de Cox.
Le modèle de Cox établit une relation paramétrique entre les facteurs d'environnement, ou
facteurs de risque de défaillance, et la distribution des durées de vie, sans préciser cette
dernière.
Notations
On note Z = (Z1, Z2,.., Z) le vecteur ligne des p facteurs d'environnement considérés pour
l'étude. Concrètement, ce vecteur représente les niveaux des contraintes (pression,
températures,...) appliquées. Chaque essai est caractérisé par son vecteur "contraintes".
A chaque facteur d'environnement Z, est associé un coefficient d'environnement b, qui
quantifie l'influence du facteur d'environnement sur le comportement du composant et qu'il
s'agira d'estimer. On note b = (b,,b2,..,b,) le vecteur ligne des p coefficients d'environnement
correspondant aux p facteurs d'environnement considérés.
d Modèle
Le modèle multiplicatif de régression pour des données de survie s'écrit sous la forme d'une
relation entre une fonction de fiabilité dépendante du temps 2 0(t) établie dans des conditions
environnementales données et d'une fonction g(Z) du vecteur d'environnement Z [KUK86]:
2(t,Z)= 20(t).g(Z)
On fait ici une hypothèse de non interaction entre l'influence des contraintes et du temps sur le
risque instantané de défaillance (hypothèse de risque proportionnel). Tous les modèles où la
fonction risque est séparable en deux termes dont l'un dépend seulement du temps et l'autre
n'en dépend pas, sont dits à risque proportionnel [KUM96].
Remarque:
Il est fait mention dans la littérature de modèles additifs [McK93], du type
2 (t, Z) = 20(t) + g(Z), mais ils sont moins utilisés. En effet, le modèle de Cox présente
l'avantage d'assurer la positivité des risques instantanés sans faire d'hypothèses sur la forme de
la fonction 20(t).
On peut montrer que, sous l'hypothèse d'un modèle multiplicatif, le rapport des risques
instantanés, à un instant t donné, sous des contraintes Z1 et Z2 différentes, ne dépend pas du
temps, mais uniquement des valeurs des facteurs d'environnement:
b, .,
g(Z) = eb.Z = e'
A. (t,Z1)
A. (t, z2) -
¿2
e2 -
e¡
bZ2
e b.(Z,4_Z24)
De plus, dans le modèle de Cox, la relation entre le risque instantané et les facteurs
d'environnement est log-linéaire:
e. Vraisemblance de Cox
Les durées de vie observées sont ordonnées indépendamment de leurs conditions d'essais.
On note t. i = i.. n les n défaillances observées et Z. i = 1.. n les n contraintes associées.
A chaque date de défaillance t., on considère R(t) l'ensemble de la population "à risque",
c'est à dire l'ensemble des "composants" encore en test au moment de la défaillance t..
X(tj,Zk)
kER(t)
Soit, après simplification:
ebuuj
kR (ti)
La vraisemblance partielle se calcule alors comme le produit des contributions pour chaque
date de défaillance
n n eLZ1
Vs = I_Iv; =
j=1 1=1 e
kER(t,)
AUGEFévrier 1998 58
J.-C.
C' ««itre deux. Développements théoriques.
o
db
La confiance sur l'estimateur b peut être calculée par des tests usuels tels que:
4 le test de Rao ou test du score,
4 le test de Wald ou du maximum de vraisemblance,
4 le test du rapport de vraisemblance f = 2[L(b) - L*(0)J.
Ces trois tests suivent asymptotiquement des distributions de à p degrés de liberté, p étant
la dimension du vecteur b.
2(t,Z1)
= t(t,z)
e (b. Z-b.Z1)
Cela signifie que lorsqu'on passe de l'environnement Z. à Z., on a Cp. fois plus de chances
d'avoir une défaillance.
On peut donc procéder par itérations directement sur la fonction de vraisemblance, en donnant
au vecteur b un accroissement db1 dans toutes les directions b. et en gardant à chaque pas le
vecteur b permettant d'obtenir la plus grande valeur de L*.
L'inconvénient majeur de cette méthode est sa lenteur à converger vers le maximum, le nombre
d'itérations nécessaire est en fait principalement fonction de la valeur de p, dimension du
vecteur b.
Nous avons donc jugé utile d'avoir recours à un algorithme plus performant, nous avons choisi
de mettre en oeuvre un algorithme de type Newton-Raphson.
a. Description de ¡ 'algorithme
dL
Le système n'étant pas linéaire par rapport aux b., il n'existe pas toujours de solutions
explicites. On cherchera donc une valeur numérique approchée de la solution en procédant par
approximations successives. L'algorithme que nous avons mis en oeuvre est le suivant:
1) Choix d'une valeur initiale arbitraire. On prend généralement b égal au vecteur nul pour
trouver la valeur initiale de la fonction de vraisemblance. Par expérience, cette valeur
convient bien car elle n'est généralement pas trop éloignée de la solution recherchée,
2) Calcul de L(0) (b = O) l'indice correspondant au rang de l'itération,
3) Calcul de l'accroissement à donner aux paramètres b., ce calcul est développé dans le
paragraphe suivant,
4) Calcul de L(k+I) avec les nouveaux paramètres b.,
5) Deux cas de figure peuvent alors se présenter:
L(k)* <L(k+I)* alors la nouvelle solution de départ sera
L(k) > L(k+l) alors L(k) sera conservée comme solution de départ,
6) Tant que l'accroissement donné aux paramètres b. est supérieur à un choisi a priori,
boucler sur l'étape 3):
fIb b»ll <e
Lorsque l'algorithme est terminé on dit que le processus a convergé et on prend pour
estimation les valeurs des b. obtenus après convergence. Ces valeurs sont en effet celles qui
maximisent la fonction de vraisemblance à près.
b. Calcul de l'accroissement
C'est à ce niveau que la méthode mis en oeuvre diverge de l'algorithme classique Newton-
Raphson.
Nous avons choisi de donner comme accroissement aux paramètres b. les valeurs des dérivées
partielles respectives au point considéré, pondérées d'une valeur appelée pas de l'itération
(pas). Ainsi nous progressons vers le maximum suivant la ligne de plus grande pente, selon un
pas qui sera défini plus bas. Ceci permet en effet de converger en un nombre d'itérations
suffisamment faible pour que le temps de calcul nécessaire à la convergence soit acceptable.
Nous avons également choisi de progresser à pas- constant tant que l'on se rapproche du
maximum, sinon le pas est réduit de moitie. Autrement dit, lorsque k Fétape 5 de
l'algorithme, on se trouve dans le cas (a), le pas est inchangé et dès que l'on se trouve en
configuration (b), on divise le pas-par deux. Soit pour tous les paramètres b
L'avantage de progresser à pas constant est de se rapprocher. plus vite d inimnm lorsque la
valeur de départ, calculée en b = O, en est éloignée. En outre, on est sûr de dépasser le point
maximum, donc d'avoir un algorithme convergent, ce qui nest pas le cas pour wi pas' égal
à (i / 2)k (voirfigure 17).
Ainsi, nous avons tit la synthèse des connaissances théoriques nécessaires- pour Ia mise en
oeuvre du modèle de Cox, il reste désormais à trouver comment l'adapter à notre problérnede
fiabilité mécanique.
a. Introduction
Nous avons présenté au paragraphe précédent L'état des connaissances à propos duniodèle de
Cox qui nous serons utiles pour l'appliquer à notre domaine de la fiabilité mécanique ainsi que
nos travaux en matière de détermination du vecteur b des coefficients daccélération
(algorithme de détermination des coeflidents b).
Cette présentation repose d'une part sur l'étude bibliographique des ouvrages théoriques de
référence de D.R. Cox, d'autre part sur des travaux de recherche appliquée dans le domaine
des essais thérapeutiques [COX7O, NOU]. L'objet de cette étude consiste en quelque sorte à
réaliser un travail similaire à celui fait par les biostatisticiens pour adapter le modèle de Cox
aux spécificités de notre problème.
Par exemple, l'hypothèse de base sur laquelle repose tout le modèle, et donc la qualité des
résultats, est la constance des facteurs environnementaux dans le temps. Or, de telles
conditions ne peuvent pas être toujours réunies en pratique, c'est pourquoi il a été créé des
modèles stratifiés dans lesquels les facteurs environnementaux sont considérés comme
constants sur un intervalle de temps. Pour les essais mécaniques, il est relativement facile de
pouvoir respecter cette hypothèse, notamment grâce à la plus faible durée des essais. La suite
de ce chapitre, qui constitue en fait le cahier des charges du programme d'analyse de données
(voir annexe 4), décrit les solutions apportées aux nouveaux problèmes.
b. Codage
Dans l'application du modèle de Cox aux essais thérapeutiques, il n'est généralement question
de ne comparer que deux groupes de traitement, c'est-à-dire de comparer deux gammes
d'essais à travers un seul critère. Cela a peut-être été un frein à son exploitation et il a fallu par
la suite étendre ce modèle à un nombre d'essais supérieur à deux, ce qui est généralement le
cas dans notre spécialité. De plus, on souhaite également pouvoir analyser les essais à travers
plusieurs critères (facteurs d'environnement) qui peuvent prendre plus de deux valeurs
distinctes (voir plan d'expérience chapitre trois).
Tout d'abord, il est indispensable que le codage soit établi par un spécialiste de la discipline en
question, afin de déterminer les facteurs d'environnement à prendre en compte. En effet, la
qualité du traitement dépend fortement de la manière dont le codage à été réalisé. Outre le
choix des facteurs d'environnement, les valeurs qui leur sont affectées doivent également être
choisies judicieusement.
Par exemple, si l'un des facteurs d'environnement est la température et que trois gammes de
composants sont testés sous trois températures différentes
= 20°C
= 50°C
83 = 110°C
Il est recommandé de respecter un écart semblable pour Z1, Z2 et Z3.
Z1 = O condition normale
Z2 =i
Z3 = 3
En revanche, les valeurs prises par tous les facteurs d'environnement doivent être comparables
afin de ne privilégier aucun d'entre eux. Pour avoir une plus grande souplesse dans le codage,
nous proposons également de coder en "continu", c'est-à-dire d'affecter aux facteurs
d'environnement des valeurs réelles et non pas seulement des valeurs entières positives.
Finalement, le programme que nous allons mettre en oeuvre devra satisfaire tous ces objectifs,
que nous rappelons ci-dessous:
4 nombre de "gammes" « illimité » (le nombre d'essais n'a pas de limite autres l'espace
mémoire disponible),
4 nombre de facteurs d'environnement « illimité » (au problème de mémoire près),
4 valeurs prises par les facteurs d'environnement: codées ou réelles.
On peut s'interroger sur la signification des valeurs négatives affectées aux facteurs
d'environnement, nous n'utiliserons pas cette éventualité pour le codage. Des essais devront
être menés pour élargir ce nouveau champ d'application. Toutefois, le programme sera capable
de traiter ces données au cas où elles seraient nécessaire pour une application particulière,
notamment pour traiter le cas de températures négatives.
Nous insistons de nouveau dans ce paragraphe sur l'importance de la préparation des essais,
puisqu'il parait a priori très facile d'obtenir des résultats par cette méthode. Malheureusement,
ces derniers ne sont significatifs que si les essais, le codage des facteurs d'environnement et le
nombre de chacun d'entre eux sont judicieusement choisis, par un expert.
On constate qu'il est possible, sans altérer la véracité des résultats, de prendre en considération
un grand nombre de facteurs d'environnement; dans ce cas, il faut choisir deux niveaux de
fonctionnement par facteur, car la taille des gammes d'essais croît très rapidement.
c. Censures
Un intérêt essentiel du modèle de Cox qui n'a pas encore été abordé est le fait que ce dernier
permet d'envisager le cas des données censurées. On trouve généralement dans la littérature la
prise en compte des censures simples à droite car cela correspond à l'arrêt d'un essai avant la
défaillance de tous les composants.
L'inconvénient de cette méthode est qu'il peut intervenir des aléas durant la durée de l'essai
occasionnant l'arrêt du test d'un composant avant d'avoir pu observer sa défaillance. On doit
donc pouvoir considérer le cas des censures multiples à droite, à savoir des dates de censures
précédant la dernière date de défaillance.
Cl C2
Dl D2D3 D4
Cl C2
Pt
Dl D2D3 D5
On considère que les censures font augmenter le rang de une unité pour la défaillance suivante,
autrement dit, on prend le cas le plus défavorable où le composant censuré est défaillant dans
l'intervalle de temps situé entre la date de censure et la défaillance suivante. Dans l'exemple
des figures ci-dessus, la présence de la censure Cl décale la défaillance du rang 4 au rang 5.
Cette méthode à l'avantage de pouvoir traiter tous les cas possibles, avec cependant un degré
de réalisme perfectible. Ainsi, on pourrait améliorer le processus en calculant le rang moyen de
chaque défaillance, suivant le nombre de censures suspendues (un composant suspendu est un
composant censuré jugé défaillant), ou en utilisant la méthode de Johnson, améliorée par
Lyonnet [LY092] pour le calcul du rang après suspension. Dans ce dernier cas, le calcul du
rang moyen est effectué à partir d'une loi binomiale:
R(moy,t) =, +n.P
d Conclusion
Les spécificités du domaine de la fiabilité mécanique dans lequel nous travaillons nous ont
conduit à aménager le modèle de Cox pour pouvoir l'appliquer dans de bonnes conditions. Ces
spécificités sont, d'une part, le grand nombre de paramètres que l'on souhaite étudier pendant
les essais de fiabilité mécanique et, d'autre part, la répartition des censures sur toute la durée
de l'essai.
Finalement, on s'aperçoit que l'on a besoin de traiter un plus grand nombre de données que
dans le cas des essais thérapeutiques. C'est pourquoi le choix de l'algorithme de convergence
décrit au paragraphe est très important puisqu'il va conditionner, avec la puissance du matériel
informatique utilisé, la durée de calcul de l'estimateur du vecteur b.
Enfin, nous avons pu apporter une solution théorique satisfaisante à chacune de ces
contraintes. Il reste à démontrer la validité des solutions adoptées et à réaliser le programme de
traitement de données.
L'objet de ce chapitre est de montrer d'une part que l'hypothèse permettant d'utiliser
l'algorithme de convergence choisi est respectée, et d'autre part que le modèle de Cox est bien
approprié au contexte des essais accélérés.
a. Approche mathématique
Nous avons donc tenté d'apporter des éléments théoriques sur ce point. Notre démarche a
consisté à vérifier l'hypothèse précédemment citée sur des exemples, avant d'établir une
démonstration dans le cas général. Devant la complexité des calculs, que ce soit pour traiter
des exemples, donc des valeurs numériques, ou effectuer une démonstration avec des termes
symboliques, nous avons eu recours au logiciel de calcul MAPLE.
i. Exemple
Nous avons dans un premier temps recherché le' maximum avec des routines proprs à Maple,
en vérifiant les résultats graphiquement.
Les données de l'exemple que nous allons ters présentées-dans les-2 tables-ci-dessous:
N°delaganime 'Z1 Z2
i o 1 fl
2 0 0 .11
Table 2: gammes / contraintes
Les résultats obtenus pour l'estiniatioiide b par les rantine de Maple sont. les. suivants:
b1 =1.695
b2 =3.192
z2 = 11.56
Une fois ces résultats obtenus, on cherche à vérifier graphiquement qu'ils correspondent bien
au maximum de la fonction de vraisemblance. Pour cela, on trace les courbes représentatives
des dérivées partielles par rapport à b1 etb2 de lafonctionàmaximiser (vairfigure2Û) Notons
que sur le graphique ci-dessous, l'échelle ne correspond pas à b-mais à son exponentielle, c'est-
à-dire au coefficient d'accélération. Ce coefficient ne peut donc pas être négatif nous nous
intéresserons donc qu'au premier cadrant.
Ce tracé ne garantit pas que le point d'intersection est unique pour b1 et b2 variant sur
l'intervalle [O,+]. Cependant, on peut constater que ce point d'intersection est unique pour
b1 et b2 variant sur l'intervalle [o,+ioo]. Or un coefficient d'accélération supérieur à 100 serait
aberrant compte tenu des données du problème. L'essai est donc validé.
Pour prouver la concavité de la fonction de vraisemblance, nous devons dériver son expression
jusqu'à l'ordre deux et montrer que cette dérivée seconde garde un signe constant sur le
domaine des réels. Pour un modèle à deux facteurs, il faut calculer le discriminant des termes
de second degré de la formule de Taylor, à savoir:
Ô2L
1.ôb2
Ô2L Ô2L
<o
ab1.6b2 22
Comme nous n'avons pas pu aller plus loin dans la démonstration, nous avons étudié
analytiquement et graphiquement quelques exemples de modèles à plus de deux facteurs, Il est
toujours ressorti de ces études que le maximum de la fonction de vraisemblance est unique, du
moins dans un voisinage de valeurs plausibles de b. De plus, l'éventualité de trouver des
solutions incongrues n'étant pas écartée de manière absolue, (cela peut notamment se produire
dans le cas d'un nombre trop faible de données et on trouve alors des résultats du type plus ou
moins l'infini) l'utilisateur doit toujours être vigilant face aux solutions trouvées.
b. Simulation
Nous avons donc fait réaliser un programme générant des listes de défaillances suivant le
modèle de Cox. Ces données sont alors des cas d'étude qui ont été finement analysées pour
vérifier à chaque fois l'unicité du maximum de la fonction de vraisemblance. Ce travail à
toujours été réalisé à l'aide du logiciel Maple.
Ensuite, lorsque le programme de traitement de données a été mis au point, nous avons
cherché à retrouver les paramètres entrés lors de la simulation afin de pouvoir valider le
modèle de Cox pour le traitement de données provenant d'essais de fiabilité mécanique.
Pour réaliser ce programme de simulation, nous avons utilisé un logiciel existant de simulation
de défaillances pour les lois mentionnées ci-dessous:
Loi Exponentielle
Loi Normale
Loi Log-normale
Loi de Weibull
Loi Gamma
Table 4: liste des lois statistiques simulables par le logiciel utilisé
R (t, Z) = R0 (t).ebZ
Ainsi, on pourra générer une liste de défaillances correspondant à une loi de départ, par
exemple exponentielle ou de Weibull, et à un coefficient de Cox fonction des valeurs prises par
les facteurs d'environnement et des valeurs données aux paramètres b.. Chaque liste de
défaillance obtenue correspond en fait à une gamme d'essais, puisque toutes les dates de
défaillances sont fonctions des mêmes valeurs des facteurs d'environnement.
Exemple:
Nous avons choisi de traiter ici le cas de la loi exponentielle:
ft '\ (o.z1J
JA o(t).dtJ.et
R(1,Z) = e°
Gamme d'essais 2 1 0
Gamme d'essais 3 0 1
CO31 =2
co.2 =3
Les valeurs simulées (voir table 6) ont été obtenues en générant trois listes de défaillances
suivant une loi exponentielle de coefficient 2 = 0.05, les colonnes 2 et 3 ayant été pondérées
par le coefficient choisit.
Le traitement de ces données par le modèle de Cox donne les résultats suivants:
Pour connaître la confiance sur l'estimateur [b1 ,b2], nous avons procédé au test du rapport
de vraisemblance:
f = 2.[r(b) - L(0)] = 6.57
On constate que les valeurs théoriques prises arbitrairement au départ sont retrouvées avec une
précision satisfaisante vu la faible taille des échantillons, et ce avec une confiance correcte.
Ainsi, on dispose d'un outil qui permet de traiter un grand nombre de données et donc de
justifier de la bonne adéquation du modèle choisi avec la nature des données. En effet, le
modèle de Cox permet de quantifier le risque pris en passant d'un environnement à un autre.
Ce risque est donné sous la forme d'un coefficient d'accélération que les industriels pourront
utiliser pour simuler le comportement de leurs composants sous divers environnement au lieu
d'effectuer des essais pour chaque niveau de contrainte.
a. Méthodes classiques
Pour cela, il est possible d'effectuer une campagne d'essais et d'appliquer les statistiques
classiques aux données ainsi obtenues. Le choix des contraintes d'essais est primordial. On
peut utiliser les facteurs d'accélération calculés précédemment pour déterminer un essai qui
donnera des résultats plus rapidement que dans les conditions de base. On ramènera ensuite
cette loi de comportement dans les conditions standard.
Exemple:
Supposons que l'on ait modélisé l'influence de trois paramètres Zi, Z2 et Z3 sur la durée de
vie de vérins hydrauliques:
C1= e =3
C2 =e =1.9
C3 = eL1 = 0.5
On réalisera alors l'essai le plus sévère (Z11; Z21; Z30) et on déterminera la loi de
comportement A3 (t). On revient à la loi de fiabilité de base en divisant par les coefficients
d'environnement:
(t)
.% (t) =
C1 .C2
Méthodes bayésiennes
Nous disposons des données d'essais réalisés pour déterminer les coefficients d'environnement;
ces données constitueront la vraisemblance.
A partir d'avis d'experts, de données de retour d'expérience ou de résultats d'essais sur des
matériels similaires nous déterminons la loi a posteriori de comportement du composant testé
qui est la loi de base du composant [RUG94, RA097].
Les deux méthodes décrites en a) et b) peuvent être combinées puisqu'on peut utiliser les
techniques bayésiennes pour estimer la loi de comportement du composant dans des conditions
Z et la ramener ensuite aux conditions de base en la divisant par les coefficients
d'environnement.
Après avoir calculé les coefficients d'environnement, nous avons eu l'idée d'utiliser les
coefficients calculés et les résultats des essais réalisés pour déterminer la loi de base du
composant.
Pour cela, on "ramène" les données des essais aux conditions standards.
Pour chaque essai, on calcule le coefficient d'accélération par rapport à l'essai O Ci et on divise
les données de ces essais par Ci:
On dispose alors de nombreuses données dans les conditions standards sur lesquelles on peut
effectuer des inférences statistiques classiques en vue de déterminer la loi de base A0 (t).
2.4.6. Conclusion
Les informatiques de simulation et de traitement de données selon le modèle de Cox ont été
développés à l'ENISE [B0U97} et il reste à mettre en oeuvre cette nouvelle méthode sur des
cas concrets.
2.5.1. Introduction
Nous allons exposer ici des techniques connues dans le domaine des statistiques et
essentiellement appliquées aux sciences sociales ou médicales.
Historiquement, ces techniques ont été développées non pas par des mathématiciens ou des
statisticiens mais par des utilisateurs qui en avaient besoin sur le terrain [BEN77, BEN8O].
Ceci peut expliquer le manque de formalisme de l'analyse de données à ses débuts.
Même si l'utilisation de ces techniques nécessite des moyens informatiques puissants et des
logiciels adaptés, il ne faut pas confondre l'analyse de données avec l'informatique ni même
avec les mathématiques. C'est un outil de représentation, d'aide à l'interprétation et qui
demande un important travail de réflexion.
Nous présenterons ici les principes de base de l'analyse des données que nous illustrerons par
des exemples simples. Nous exposerons aussi comment adapter la méthode à la fiabilité
mécanique et notamment à la modélisation d'essais accélérés [AUG97].
2.5.2. Représentation
La méthode décrite ici permet de représenter des données complexes de manière à les rendre
compréhensible ou au moins plus facilement interprétables [BES88].
On part des informations brutes qui sont de la forme suivante (voir figure 21)
Cette enquête avait pour but de choisir le nom de marque optimum pour toucher une certaine
catégorie de fumeurs ; elle a parfaitement rempli son rôle en permettant de représenter l'image
de chaque marque proposée en fonction des critères définis et en extrayant deux noms parmi
les douze proposés.
Description de la méthode:
Il s'agit en fait de représenter graphiquement les données contenues dans une matrice à n
lignes (que l'on nommera "individus") et p colonnes (que l'on nommera "variables"). L'idée
est de représenter ces données dans un espace multidimensionnel. Deux démarches sont alors
possibles
4 représentation des n lignes dans un espace à p dimensions dans un repère noté R (i),
4 représentation des p colonnes dans un espace à n dimensions dans un repère noté R (j).
Nous nous intéresserons ici au premier cas mais la même démarche peut être menée en
présentant les données dans le repère défini au cas 2.
Codage
La première phase consiste à coder les données de manière à pouvoir chillier chaque
possibilité; par exemple si une donnée est la réponse à une question de type «Aimez-vous le
chocolat? Oui/Non », on pourra coder la valeur "Oui" par i et la valeur "Non" par O. Cette
phase est très importante car elle permet de transformer des variables qualitatives en variables
quantitatives et donc de simplifier le problème. On peut cependant conserver des données
qualitatives mais ceci sous-entend de définir certaines propriétés pour les réponses (notamment
une relation d'ordre pour pouvoir les comparer et les classer et une distance pour pouvoir
estimer des écarts relatifs). Nous considérerons par la suite que toutes les données ont été
codées de manière à ne disposer que de variables qualitatives.
Cette première phase ayant été effectuée, on représente donc, dans l'espace à p dimensions, le
nuages des n points M. correspondants aux individus de notre échantillon de données. La
position de ces points dans le repère R (i) est la base de la méthode.
Changement de repère
Dans un premier temps, on détermine le centre de gravité G du nuages de point ainsi que
l'écart type propre à chaque variable:
¡(x1 _g1)2
g1= cr1
n n
G= et a
xi.p
n
a
n
xi.1 =
x,1 g, Vi,3
a1
La division par l'écart type propre à chaque variable est facultatif mais il permet de normaliser
chaque variable et supprimer l'importance de l'une par rapport à l'autre. Par exemple,
imaginons deux variable, pression et température étudiées respectivement entre O et 500 bar
pour la pression et entre O et 50 oc pour la température. Sans la normalisation par ap et a0,
la méthode proposée ci-après donnerait 10 fois plus d'importance à la pression qu'à la
température.
On effectue alors l'analyse des composantes principales (qui est dite "normée" si le changement
de repère a impliqué une division par les écarts type respectifs des différentes variables), c'est à
dire qu'on recherche les axes principaux d'inertie (ceux qui marquent le plus la dispersion du
nuages de points) [CAU85]. Pour cela, on cherche les droites (F,), orthogonales deux à deu;
qui minimisent la somme des distances des points M. aux droites. Les axes principaux
d'inertie permettent de déterminer de nouvelles variables qui permettent de mieux représenter
et de mieux distinguer les différents points du nuage des points de données. Par projection dans
des repères partiels, on peut ainsi mieux présenter la dispersion réelle des données.
L'exemple présenté ci dessous a pour but d'illustrer les différentes étapes de la méthode; le
cas traité est celui de vérins pneumatiques soumis à deux contraintes variables, la pression du
fluide et la charge appliquée sur la tige du vérin [AUG97].
Pression P (bar) 9,76 5,90 5,34 8,44 0,13 5,37 3,54 8,12 7,31 0,76 0,52 6,56 4,33 6,50 1,59 1,48 7,95 0,14 9,21 5,55
Charge L (kg) 3,79 0,53 4,23 0,91 2,18 4,18 3,97 0,94 0,25 2,90 2,05 2,20 3,63 0,76 0,09 2,52 1,55 3,33 0,97 3,70
Table 9: contraintes appliquées aux vérins pneumatiques
Le nuage des points de la table est d'abord représenté dans un repère R(o,P,L)
On calcule alors le centre de gravité G et les écart types propres à chaque contrainte:
P=4.92 = 3.11
G= eto
L = 2.23 = 1.38
On définit:
Figure 23: représentation du nuage de points et des axes principaux d inertie dans le repère
barycentrique des contraintes normées
L = 0.22
P
F2:P= O.22L
Un essai effectué sous une pression P et une charge L est représenté dans le repère
R12(G,F,F2) par le point de coordonnées x1 et x2 définies ci-dessous:
x1 = P'
O.22 L'
X2 =0.22 P' L'
soit, finalement,
x1 =O.32POEI6LI.23
x2 =0.07P+0.72Ll.96
2.5.3. Classification
Il existe plusieurs méthodes de classification automatique mais nous ne parlerons ici que de la
classification ascendante hierarchique [F'ENSlII.. Pour des détails sur dautres méthodes de
classification, on pourra se reporter aux ouvrages de Benzecri [BEN77, BENOJ.
La classification permet de regrouper en classes les éléments proches les uns4es autrts. Lebut
est d'obtenir un regroupement des individus suivant dea classes de variable& Ainsi,, on pourrait
imaginer la classification automatique des élèves: d'une classe en fonction de leur notes
obtenues 1ans différentes matières.
6
6
4
5
8
9
17
Véronique 8 5 2 :
3
Figure 25: exemple de classWcation automatique sur les notes d'un groupe délèves
Description de la méthode:
Comme pour la représentation, la première phase de la classification est une phase de codage
afin de présenter les données sous la forme d'une matrice numérique.
Comme précédemment, il convient également de. choisir ou: de définir une tmce stw les
éléments du tableau de données.. On pourra, par exemple,choisir une distaneeeucIidienae:
d(E1E2}=.1j[(xi1 _Xf.2)2]
Une fois la distance sur le tableau de données déflnie, onca1cnie le ta roi' dea ditmiçes
entre éléments du tableau de données. Dans l'exemple des noies des élèves dune classe (wir
table 10), on obtiendrait le tableau de distances suivant:
La première classe regroupera les deux élèves séparés par la plus petitedistance (présentée ici
en rouge), c'est à dire Jean et Nathalie.
Pour la deuxième classe, il convient de définir la distance d'ua élément àune classe. Plusietirs
distances sont possibles comme la plus petite des- distances entre le nouvel élément et les
éléments de la classe (stratégie du saut minimiim), lapins grnndc des distanres entre le.no'el
élément et les éléments de la classe (stratégie du diamètre de.la réunion)... Lexemp1e proposé
ci-dessus (voir figure 25) a été réalisé à partir d'une stratégie de type saut minimum. Le
nouveau tableau des distances devient a1ojs
(onnoteraqueadistanced'unélémentàaclasseestégaleàIapluspetitedesdistancesde
l'élément aux diflërents éléments de la classe ; ce calcul set illustré par les correspondances- de
couleur entre la table et la table)
On procède ainsi, par étapes succ.essives,. jusquk alxnjtir & une classe unique. Cette démarthe
peut bien entendu être informatisée car elle devient rapidement complexe. L'intérêt de la
classification est de permettre de regrouper, par des critères, purement mathématiques, des
éléments en classe. C'est une. étape. essentielle. car dans le cas de l'analyse fonctionnelle, .on
peut adopter des repères principaux. quine représentent pas les classes minoritaires. La phase
de classification permet d'identifier ces-classes et de ne pas-les oublier.
Si, au départ, les paramètres de colonnes- ont été convenablement choisis,, on pourra. dégager
des paramètres- induisants des comportements différents Sur notre exemple, on remarquera un
comportement semblable entre Rager, Jean,, Nathdit et Gérard qui sont Bons- en
Mathématiques, en Chimie et en. Gymnastique, Mauvais en. Dessin et en Músique et Moyens. en
Français.
Dans le cadre d'essais, on pourra cnnstitner dea classes dressais aux conditions-proches- même
si au départ les similitudes ne sont pas évidentes. De même, en observant cette fois ei des
paramètres de réponses, on pourrait classer des essais en- classes de types de résultats, à partir
des conditions d'essais. Cette dernière remarque neusm,?ne naturellement fia, troisième phase
de l'analyse de données, la reconstitution de données et la-prévisions de résultats.
Cette méthode est mise en oeuvre lorsque l'on. désire déduire des informations peur des
éléments donnés, à partir d'informations sur dautres éléments. La méthode est illustrée sur la
figure 26:
Notations:
X = (X1 i = 1. .n) est la matrice des paramètres du fichier d'apprentissage, avec
xi =(x,j=1..p),
y = (Y1 i = 1..n) est la matrice des réponses du fichier d'apprentissage, avec Y1 = (y,, j =
A = (Ak = i. .m) est la matrice des paramètres des anonymes,
R = (Rk = 1..m)est la matrice des réponses des anonymes (données que l'on cherche à
reconstruire).
On peut également, à partir des réponses Y1, construire des classes de comportement. On
cherchera ensuite à trouver la classe de comportement contenant Ak, ce qui déterminera
l'intervalle dans lequel se trouve la réponse Rk.
Exemple:
Nous traiterons ici le cas de vérins pneumatiques. Nous reprendrons les données présentées au
§ 3.5.2. pour lesquelles lesdurées de vie des composants ont été relevées (voir table 13):
Pression P(bar) 9,76 5,90 5,34 8,44 0,13 5,373,54 8,12 7,31 0,76 0,52 6,56 4,33 6,50 1,59 1,48 7,95 0,14 9,21 5,55
Charge L(kg) 3,79 0,53 4,23 0,91 2,18 4,18 3,97 0,94 0,25 2,90 2,05 2,20 3,63 0,76 0,09 2,52 1,55 3,33 0,97 3,70
Duróedeviekm 1910 3470 7060 4200 5160 7150 7240 4530 4260 5490 6120 3860 7270 4370 8570 6400 3780 6940 5020 7580
Table 13: contraintes appliquées aux vérins pneumatiques et durées de vie correspondantes
Figure 27: classjflcation des essais en fonction des durées de vie observées
La classe i regroupe des essais dont la durée de vie est coniprise entre 3000 et 5000Ekm
La classe2 regroupe des essais dont la durée de vie est comprise entre 5000 et 700km.
La classe3 regroupe des essais dont la durée de vie est comprise entre 7000 et 800Okm.
On peut alors estimer la durée de vie du composant dans des conditions quelconques en
fonction de la position du point représentant cet essai dans le repère principal.
Par exemple, supposons que l'on veuille connaître ladur&. de vie de notre vérin pneumatique
(celui utilisé dans cet exemple) dans les conditions suivantes:
P = 8 bar
L =2 kg
On trace le point correspondant à cet essai (voir figure 28) et on estime la durée. de viedu
composant à partir de la position du point dans le plan.
x1 =0.32P-O.16L-l.23=l.0l
x2 =0.07P+0.72L-l.96=Ci.04
Le point appartient à la classel, on en déduit donc ime durée de vie curnprie entre 3000 et
5000 km. Un essai réalisé drns ces conditions conduit à une durée de vie de 3670km, ce quiest
en accord avec l'estimation.
On peut estimer plus précisément la durée de vie obtenue d*ns des conditions donn en
regardant la position du point représentant l'essai par rapport à plusieurs classes, à un ou
plusieurs points d'une classe... On estime alors la durée de vie par pondération des durées de
vie des entités de références (points, classes...).
Figure 28: positionnement chi nuud essatdan kplazr des essais (contrafriWs)
Dans notre exemple, le point de Ia classe i le plus- proche de celui représentant notre essai est
celui qui représente l'essai (P7.95 bar L1.55 kg correspondant à une. diie de vie dc378O
km. On peut donc estimer la durée de vie dans les conditions. (P=8 bar; L2 kg) à 3r7 kin,
estimation plus proche de la réalité.
2.5.6. Conclusion
L'analyse de données est un outil puissant qui permet de représenter, plus simplement, des
données complexes. Il semble bien adapté à l'analyse d'essais de fiabilité car il permet de
dégager des tendances principales-et de regrouper des-classes-d'essais aux résultats analogues,
tout en conservant l'intégralité- des données.
On peut ainsi effectuer des estimations- grossières de__u&rs (en utilisant des classes-à forte
population) niais aussi des estimations plus précises en. revenant à des classes plus petites
(faible population) voire même aux données initiales.
C'est cependant un outil délicat à manier et qui demanrie, uil important effort d'anase.
L'ordinateur peut être utilisé pour accélérer les calculs mais pour effectuer la synthèse et tirer
les conclusions.
2.6. Conclusion
Les quatre méthodes décrites dans ce chapitre sont des méthodes connues mais jusqu'ici peu
utilisées dans le domaine de la fiabilité.
Les statistiques de groupe sont, à l'origine, des outils propres aux mathématiciens et elles sont
peu ou pas appliquées aux autres sciences.
Les techniques bayésiennes, malgré leur puissance, sont encore pénalisées par deux défauts
majeurs; d'une part la lourdeur des calculs rebute encore (notamment dans le cas de
composants à taux de défaillance variable au cours du temps); d'autre part, la grande
dépendance des résultats obtenus vis à vis des connaissances a priori (notamment dans le cas
où l'on dispose de peu de données) exige une grande connaissance de la méthode pour une
obtention et une interprétation correctes des résultats.
Enfin, l'analyse de données est un outil graphique puissant qui nous semble intéressant car
c'est un outil de visualisation qui peut également être utilisé pour estimer d'autres données. Sa
puissance réside dans la fait que toutes les données sont utilisées mais que l'analyse peut être
effectuée à différents niveaux plus ou moins complexes.
3. METHODOLOGIE DEVELOPPEE
3.1. Introduction
C'est alors que l'idée a été proposée de réaliser une étude pour développer une méthodologie d'essais
accélérés, de la conception à l'interprétation en passant par la réalisation des essais. Il a été décidé de
mettre au point cette méthode et de l'illustrer en la mettant en oeuvre pour deux types de systèmes
hydrauliques et pneumatiques vérins hydrauliques et vérins pneumatiques. Les systèmes étudiés
étant des vérins, l'étude sera également menée sur les distributeurs hydrauliques et pneumatiques
indispensables à l'actionnement des vérins.
C'est dans ce contexte que s'est déroulé notre étude, à mi-chemin entre la recherche fondamentale et
la recherche appliquée de type industriel; la collaboration entre le CETIM et les industriels s'est
effectuée dans le cadre de "Groupes de Travail" se réunissant quatre à cinq fois par an.
Nous exposerons ici la méthodologie de réalisation d'essais accélérés que nous avons élaborée. Les
outils théoriques que nous avons développés ou mis en oeuvre ont été présentés au chapitre deux.
Elle se décompose en six étapes
4 analyse du système,
4 recensement des facteurs influents,
4 plan d'expérience,
4 réalisation des essais,
4 expertise des composants,
4 exploitation des résultats d'essais et validation du modèle.
La première étape de la démarche doit, bien entendu, être l'acquisition d'une excellente connaissance
du système étudié. Cette connaissance doit englober aussi bien les données géométriques du système
que des données de fonctionnement ou même de dysfonctionnement.
Elle peut se diviser en trois phases
4 connaissance géométrique du système,
4 connaissance fonctionnelle du système,
4 connaissance des modes de défaillance du système.
Cette phase couvre en fait les connaissances des plans du système, des différents composants
élémentaires le constituant, des matières utilisées, des caractéristiques des graisses, des instructions
de montage...
Elle est généralement très rapide surtout dans le cas d'une démarche interne où toutes les données
sont facilement disponibles et où les problèmes de confidentialité ne s'appliquent pas. Elle est
cependant importante car elle permet d'affiner les informations sur le produit et, par la suite, de
mieux appréhender les problèmes rencontrés en séparant les anomalies du produit des anomalies
d'utilisation.
On collecte ici toutes les données ayant conduit à la conception du système. Celles-ci peuvent
consister en des notes de calculs, des résultats de simulation, des résultats d'essais préliminaires, des
données de retour d'expérience...
Cette phase a normalement déjà été menée lors de la conception afin de vérifier la réponse du produit
aux spécifications. Elle permet également de fixer des limites d'utilisation qui induisent des modes de
défaillance aberrants (déformation plastique d'un joint sous l'effet de la chaleur, séparation des
éléments d'une graisse en présence d'eau...).
Cette dernière phase est primordiale car c'est elle qui va permettre de recenser les modes de
défaillance "normaux" du système et de choisir celui ou ceux que l'on va chercher à accélérer. Ce
sont ces modes de défaillance qui serviront de référence pour valider la valeur d'un essai accéléré et
des résultats obtenus.
Il convient de recenser le maximum de modes de défaillance en s'appuyant, par exemple, sur une
démarche de type AMDEC. Les données recueillies dans les deux phases précédentes, alliées à des
avis d'expert, permettront de mener rapidement et efficacement ce travail.
A l'issue de ces trois phases, la connaissance du système et de son environnement est excellente et il
est alors possible de passer à l'étape suivante.
Les connaissances géométrique et fonctionnelle des produits ont été menées de manière incomplète
dans la mesure où les informations étaient en possession des industriels et que celles-ci ne nous ont
pas été communiquées pour des raisons de confidentialité.
La phase de recensement et d'analyse des modes de défaillance a, elle, été menée intégralement par
une compilation des avis des industriels participant à l'étude. Les résultats de cette compilation
peuvent être trouvés en annexe 5.
Tous les composants hydrauliques se révèlent très fiables, les défaillances étant souvent dues à de
mauvaises utilisations des produits. Dans le cas des vérins hydrauliques, en dehors des défaillances
pour mauvaise utilisation, les modes de défaillance les plus fréquents sont des usures de joints,
notamment au niveau des chambres d'amortissement; pour les distributeurs hydrauliques, on constate
plutôt des défaillances au niveau des accessoires (bobines, tirants...).
Pour les composants pneumatiques, on a également affaire à des composants très fiables mais
l'absence de pouvoir lubrificateur de l'air comprimé explique que l'usure est plus marquée que pour
les composants hydrauliques. Pour les vérins, l'usure a lieu principalement au niveau des joints de
piston; pour les distributeurs, on constate principalement des défaillances au niveau des
électrovannes de pilotage mais aussi au niveau des joints dynamiques (usure).
Cette analyse des modes de défaillance a servi de base à la définition des facteurs d'environnement
influent sur le comportement des composants et, par la suite, à l'élaboration du programme d'essais.
Cette étape recouvre en fait une analyse critique des modes de fonctionnement du système étudié. Il
s'agit de lister tous les facteurs d'environnement susceptibles d'influer sur le comportement du
système. Tous les facteurs extérieurs au système doivent être listés et on les séparera en deux
catégories distinctes
4 facteurs contrôlables,
4 facteurs non contrôlables.
Ce sont les facteurs extérieurs au système, supposés influents sur le comportement du système, dont
on peut fixer la valeur ou tout au moins la garantir. C'est le cas, par exemple, d'une pression de
fonctionnement pour un composant hydraulique ou pneumatique ou encore d'un indice de filtration.
On peut distinguer les facteurs quantitatifs (pression, tension de commande, volume transféré...) des
facteurs qualitatifs (expérimentateur, lieu d'essai, type de raccords et flexibles...).
Il convient d'être prudent en classant un facteur dans cette catégorie car il faut effectivement être
capable de maîtriser le facteur. Par la suite, les facteurs d'accélération étudiés seront choisis parmi la
liste des facteurs contrôlables pour lesquels on peut maîtriser des changements de valeurs. Les
facteurs non retenus pour l'étude devront être fixés et leur valeur garantie tout au long des essais.
Ce sont des facteurs dits "perturbateurs". On cherchera si possible à maîtriser leurs valeurs ou leurs
variations; si cela n'est pas possible, on cherchera à aléariser les valeurs prises par le facteur pour
limiter leur influence et la noyer dans le flot des erreurs de répétabilité.
Les facteurs influents ont été recensés dans le cas des vérins hydrauliques et des vérins
pneumatiques. La liste de ces facteurs peut être trouvée en annexe 6.
3.4.1. Généralités
Une fois le contexte général relatif au système et à ses conditions de fonctionnement connu, il
convient de planifier les essais nécessaires à l'évaluation de la loi de comportement du système en
fonction de l'environnement.
On peut, par exemple, organiser les essais par des techniques de type plan d'expérience qui
permettent, entre autres, d'optimiser le nombre d'essais nécessaires à la modélisation. De plus, par
une analyse de la variance réalisée sur les résultats des essais du plan, on peut dissocier les facteurs
réellement influents des facteurs qui ne le sont pas (influence du même ordre que le bruit ou erreur
de répétabilité).
La démarche décrite ci-après est une démarche classique de type plan d'expériences et est explicitée
dans la littérature [BEN94].
La construction d'un plan d'expérience nécessite une démarche progressive et structurée. Les deux
premières phases regroupent l'acquisition des connaissances sur le système et sur son environnement.
Une liste de tous les facteurs extérieurs influents doit être établie, semblable à celle décrite au 3.3.
On choisit ensuite la réponse du plan d'expérience c'est à dire le paramètre mesuré. C'est cette
réponse que l'on contrôle et qui détermine soit la fin de l'essai (un objectif ayant été atteint) soit le
résultats de l'essai (si on cherche à modéliser l'influence de l'environnement sur le paramètre).
Une réponse déterminant une fin d'essai peut être, par exemple, la valeur de fuite du système et une
valeur limite. Une réponse déterminant un résultat d'essai peut être, par exemple, une pression de
décollement et une durée d'essai limite. On peut éventuellement fonctionner en conjugaison des deux
comme nous le verrons dans le cas pratique.
Il convient ensuite de bien recenser les objectifs du plan d'expériences (en fonction des connaissances
a priori sur le système et des résultats escomptés ou recherchés) mais aussi les contraintes de temps
et d'argent (devis externe, date butoir pour les résultats...).
On construit enfin un plan d'expérience en accord avec les objectifs; on vérifie le respect des
contraintes temps/argent. S'il y a accord, on valide le plan et on le réalise; s'il n'y a pas accord, on
reconsidère la construction du plan en modifiant éventuellement les objectifs de manière à respecter
les contraintes. On peut également être amené à modifier les contraintes temps/argent mais cela doit
être fait uniquement si les objectifs ne peuvent être diminués. On préférera souvent séparer les
objectifs en deux parties, la deuxième étant soumise aux résultats de la première.
Exemple:
Supposons que l'on veuille modéliser l'influence de la pression, de la température du fluide et du
diamètre de canalisation sur la perte de charge mesurée dans une ligne hydraulique. On suppose que
l'influence de ces deux paramètres est non linéaire; aucune hypothèse n'est faite quant aux
interactions. Les contraintes de temps/argent sont de ne pas dépasser 18 essais. On préférera étudier
d'abord, de manière linéaire, par un plan à 8 essais, l'influence de 6 paramètres extérieurs (en
rajoutant par exemple l'aération du fluide, la longueur de la canalisation et la forme de celle-ci
(droite ou coudée)) puis, éventuellement, l'influence non linéaire des facteurs influents par un plan à
9 essais plutôt que d'effectuer directement un plan à 18 essais étudiant l'influence non linéaire des
trois paramètres recherchés. La première solution peut révéler d'autres facteurs influents non
soupçonnés et montrer qu'aucun de ces facteurs n'est influent (après seulement 8 essais), rendant
inutile le deuxième plan (9 derniers essais).
Les phases de réalisation des essais et de dépouillement des résultats seront abordés ultérieurement
aux chapitres quatre et cinq.
Dans le cadre de la méthodologie de mise en place d'essais accélérés, nous avons choisi de chercher
à modéliser le comportement de vérins pneumatiques et hydrauliques. Aussi, la technique des plans
d'expérience nous a paru adaptée pour minimiser le nombre d'essais et maximiser la quantité
d'informations obtenues.
En collaboration avec les industriels fabriquants des vérins, nous avons mené le recensement des
facteurs extérieurs influents (voir annexe). En accord avec les contraintes de temps/argent, nous
avons défini un plan d'expériences pour chaque type de composants, vérins hydrauliques et vérins
pneumatiques (voir annexe 6).
Les essais ont été conçus à partir des recommandations de 1'UNITOP [UNT94a, UNI94b, UNI95a,
UNI95b].
Une butée temporelle et un critère d'arrêt ont été fixés (voir tablel4).
Vérins hydrauliques:
Conformément à la recommandation de IUNITOP RU H/i [IJNT95a], les essais seront effectués
jusqu'à 3000 km. Pour le critère d'arrêt, il a été choisi d'arrêter tout composant présentant des ftiites
trop importantes. Les vérins étant, à l'origine, très étanches au niveau du piston et de la tige, on
distingue facilement une flute "normale" d'une fluite trop importante et cela malgré le caractère
subjectif du critère. En effet, la flûte constatée est très peu progressive et on constate des coefficients
supérieurs à 10 entre les flûtes "normales" et les flûtes importantes.
Les distributeurs étant utilisés pour actionner les vérins, on considère les résultats obtenus sur ceux-
ci mais aucun plan d'expérience spécifique n'a été prévu pour les étudier.
Les autres composants hydrauliques des bancs d'essais seront eux aussi étudiés mais uniquement d'un
point de vue fiabiliste de tenue en service (flexibles, limiteurs de pression, limiteurs de débit,
pompes...).
Vérins pneumatiques:
Conformément à la recommandation de ItUNITOP RU P/i [UNI94a], les essais seront effectués
jusqu'à 3000 km. Pour le critère d'arrêt, il a été choisi d'arrêter tout composant présentant des flutes
trop importantes. A cet effet, les spécifications de RU P/i ont été modifiées en les rendant plus
sévères. De plus, la forme de l'évolution des thites a également été définie (voir figure). II a été
convenu que tout composant dépassant à un instant t les flûtes tolérées serait arrêté et considéré
comme défaillant.
a
a
¿
0
0 1000 2000 3000 4000
kilométrage parcouni
Les distributeurs étant utilisés pour actionner les vérins, on considère les résultats obtenus sur ceux-
ci mais aucun plan d'expérience spécifique n'a été prévu pour les étudier.
Les autres composants pneumatiques des bancs d'essais seront eux aussi étudiés mais uniquement
d'un point de vue fiabiliste de tenue en service (limiteurs de pression, limiteurs de débit, capteurs de
position, raccords rapides...).
Les deux plans d'expériences ayant été définis, il ne reste plus qu'à réaliser les essais.
Cette étape est certainement la plus longue et la plus exigeante. En effet, il s'agit d'effectuer
l'ensemble des taches suivantes:
4 conception des bancs,
4 suivi des essais dans le respect des conditions spécifiées,
4 compilation des résultats d'essais.
C'est l'étape cruciale car c'est elle qui fournit les résultats qui seront étudiés, traités et exploités par la
suite; elle est cependant indispensable pour vérifier l'adéquation des modèles développés ou simulés
avec le comportement réel des composants étudiés. Il s'agit d'un travail auquel il faut apporter
beaucoup de soin. La réalisation des essais sera abordée en détail au chapitre quatre.
Nous avons vu au chapitre qu'un essai accéléré ne pouvait être valable que si le ou les modes de
défaillance constatés étaient les mêmes dans les conditions accélérés que dans les conditions
standards.
Cette étape est celle qui permet de tirer des essais le maximum d'information. C'est à ce niveau que la
théorie peut apporter l'aide maximale en permettant, à travers des traitements riches et variés,
d'obtenir un grand nombre de connaissances sur les composants testés.
L'exploitation des résultats passe souvent par une phase préliminaire de conception d'outils
spécifiques répondant aux besoins du problème. On peut souvent utiliser le temps des essais pour
développer ces outils d'analyse et de traitement en parallèle avec le suivi des essais.
Cette étape est en général plus courte dans la mesure ou on utilise principalement les outils
développés précédemment. Elle nécessite cependant un temps de réflexion et d'analyse important qui
ne doit pas être négligé. En effet, c'est souvent une tache négligée car elle demande un effort de
réflexion et de synthèse. C'est la plus importante car c'est elle qui permet de tirer le maximum de
conclusions à la fois des essais et de leurs dépouillements.
Cas pratique:
Dans le cas de nos essais de vérins hydrauliques et de vérins pneumatiques, nous avons développé
trois outils principaux d'analyse et de dépouillement:
+ module de traitement des plans d'expériences simples (module 1),
4 module de simulation de données répondant à une loi connue (module 2),
4 module de calcul des coefficients de Cox à partir des résultats d'essais, censurés ou non
(module 3).
Le premier module permet d'exploiter des plans d'expériences simples pour des facteurs à deux
niveaux. Il sera utilisé pour exploiter le sous plan d'expériences des essais 2 à 9 défini au §3.4.2. et
présentés en annexe 6.
Le deuxième module a été développé pour simuler des données d'essais lors de la mise au point
d'autres outils (voir module 3) ou pour permettre la présentation des techniques en l'absence de
résultats complets.
Le troisième module a été réalisé pour calculer les coefficients du modèle de Cox adopté pour la
modélisation du comportement des systèmes en fonction de l'environnement. Ce module comble un
manque en matière de logiciels de fiabilité et notamment dans le domaine des essais accélérés et de la
modélisation de facteurs d'environnement ou d'accélération. Ce module peut être utilisé dès lors que
l'on cherche à modéliser l'influence de l'environnement par des modèles de Cox, à condition de bien
respecter la méthodologie décrite dans ce chapitre. Le programme est présenté en annexe 4.
Les résultats qui seront obtenus à l'issue de l'ensemble des essais seront les suivants (résultats
valables sur les vérins de diamètre 32 mm):
4 facteurs d'environnement pour la pression, la température ambiante et la température du fluide,
4 lois de base pour les vérins hydrauliques et pneumatiques,
4 données de retour d'expérience sur les autres composants des bancs d'essais.
3.8. Conclusion
La méthode présentée ci-dessus a été développée dans le cadre de l'étude de vérins hydrauliques et
pneumatiques. Elle est cependant généralisable à tous les composants mécaniques pour lesquels la
durée de vie est élevée et pour lesquels les lois de comportement ou de fiabilité ne sont pas connues.
Les résultats numériques obtenus (facteurs d'environnement et loi de base) ne devraient, a priori, être
applicables qu'à des systèmes rigoureusement identiques à ceux testés lors des essais. Pourtant, sous
réserve de technologie similaire, si l'on dispose de données sur d'autres systèmes, l'adéquation du
modèle numérique à ces composants peut être vérifiée et le modèle généralisé à des familles de
"composants". De toute façon, les facteurs reconnus comme accélérant pourront être retenus pour
des systèmes hydrauliques et pneumatiques différents afin de restreindre le champ des investigations
pour des études ultérieures.
4. ESSAIS
4.1. Introduction
Ce chapitre recouvre tout le travail expérimental efictué- tout au long. de' notre' doctorat;
conception de bancs d'essais, mesures expérimentales, suivi d'essais, expertises de
"composants"... Toutes ces phases seront abordéesdans.les p*raphessuivants.
La méthodologie présentée précédemment (voir chapitre trois) a été appliquée au cas de vérins
hydrauliques et de vérins pneumatiques. La majorité des: composants: hydrauliques: et
pneumatiques des bancs d'essais a été gracieusement thurnie par les industriels ayant fincé
l'étude (vérins et distributeurs hydrauliques et pneumatiques, limiteurs de débit hydrauliques et
pneumatiques, embases de distributeurs, régulateurs: de pression pneumatiques:. et éléments: de
filtration, flexibles et raccords: bydranligues, pompes: hydraiilfrjues, capacités: thmpnns...).
Les températures d'essai variant de O à 6O OC, il était nécessaire de disposer dun groupe
réfrigérant et thin groupe réchauff.mt ainsi quecPenceinte:isothermes piipts.
k'
Figure 32 : photographies de l'enceinte frigorfÎque (contrôle de la température ambiante)
Pour le groupe réchauffant, nous avons thalidemc c,Ites isothermes (voir figure 35) et
deux soufflantes à air chaud (voir figure. 36) pour assurer le réchauflge- de- Fintéiieur des
enceintes.
Nous avons réalisé les enceintes isothermes en intercalant. des plaques cFisolant entre- deux
panneaux de bois constituant une paroi de l'enceinte. Elle ont été conçues en panneaux
amovibles et modulables de manière à. permettre,. k partir des.panneaux fabriqués, de construire
des enceintes de taille différentes (de 3 k 12 m3)de plus,. Fáccès à l'intérieur des bancs. até
facilité du fait du déplacement aisé des panneaux supérieurs ou latéraux.
J.-C.AUGÉFévrierl998 95
e quaüe. Esiis
Figure 36. photographie d'une soufflante à air chaud pour groupe réchauffant
Tous ces dispositifs de contrôle de la température ont été commandés ouréalisés dansle cadre
de nos travaux de recherche mais pourront être utilisés pour d*autres essais par la suite.
Une fois le plan d'expérience construit (voir chapitre trois) il convenait de concevoir et de
fabriquer des moyens d'essAis aptes à permettre la réalisation: des essais dana les coixlitions
définies dans le plan.
Nous avons conçu les bancs d'essais, en colla1xration avec un ingénieur spécialiste du dessifl et
de la conception. Les bancs ont ensuite été réalisés dans les ateliers de fabriòation du CETIM
et nous les avons assemblés pour les rendre opérationnels. Le montage et le réglage de tousles
composants a également été efictué par nos soins. Nons avons calculé lea caractéristiqueades
flexibles reliant les différents orgmes testés de: manière à respecter un encombrement vertal
minimum tout en respectant lea rayons de courbure spécifiés par le constructeur.
Conception:
Nous avons conçu les bancs de manière à pouvoir assurer les conditions d'essais suivantes:
4 pression d'essai réglable en fonction de l'essai (voir plan dexpérience),
4 température de fluide réglable en fonction de: Fessai (voir plan d'expérience),
4 température ambiante en fonction de ressai (voir plan dxpétience),
4 fréquence de cyclage réglable,
4 test simultané de 3 composants,
4 interchangeabilité des composants (quelle que soit leur marque),
4 adaptabilité des implantations pour les moyens de mesures,
4 fonctionnement simultané et indépendant de deux banes dressais en paraffle,
4 remplissage et vidange complète de l'huile présente dans les vérins.
Les bancs d'essais peuvent fonctionner de risiire ptndnte sauf e ce qui concerne la
température du fluide, la pompe double. débit. aspirant Thuile dans le mème réservoir pour
alimenter les deux bancs d'essaia La températuredu fluide est régulée directement au niveau
du réservoir, des résistances thw1Itrites ayant ét prévnessurFinstallatiozrtxisUuit auCEflM.
Les autres paramètres d'essais (pression,. température ambiante) peuvent être assurés
séparément pour chaque essai.
Le plan d'expérience que noua avons construit (voir annexe; prévoit tmis répétitmona pour
chaque essai; en conséquence chaque banc dessai reçoit trois vérins et troia distributeurs- (wir
figure 39). En l'absence de limiteur de débit, les trois vénus., doivent fbuctknmer en même
temps pour assurer une vites- de. rentrée et de .sortie de tige confrvrn;. aux cnn&irns
spécifiées dans le plan d'expérience En cas darrêt de composant par dépassement du critère
d'arrêt, un composant neuf est monté à sa place pour permettre aux autres- composants de
continuer à. fonctionner dans lesnn conditions De phis,. le nouveau: composant nhir le
même essai avec cependant un décalage thriginedes temps.
La température de fluide a été mesurée dans le flux d'huile incident sans volume mort tampon.
La position de la sonde et les caractéristiques de la chaîne de mesure garantissent une mesure à
l°C.
L'huile est filtrée à 25 microns en sortie de pompe k Faide de filtres, haute. preasinn Des
prélèvements d'huiles ont été réalisés régulièrement; la classe de propreté du fluide est une
classe 6.
J.-C.AUGÉFévrierl99 98
Chapitre qiiiaIre Eis
Les bancs d'essais ont été entièrement automatisés- de manière à ponvoir fonctionner 2424,
7j/7; un automate programmable aété utilisé pour réai rcette: fonction: nous avons- réali le
programme d'automatisation des bancs selon l'organigramme-suivant (voirflgwe 40):
En fonctionnement normal, tous les vérins étant. rentrés, rautomate reçoit les- trais signaux
électriques des capteurs de position correspondant à la rentrée complète de la tige des vérins.
L'automate envoie alors un signal électrique commandant la sortie des- vérhis et le maintien
jusqu'à leur sortie effective, cest-àdire- l&détection des- trois- signaux électriques-des- capteurs
de position correspondant à la sortie complète de la tige des..vérins. L'automate envoie-alors im
signal électrique pour commander la rentrée des vérins. Untemps maximum de cycle a été fixé
(2 fois le temps de sortie normal pii; siF est dépassé. conditionne un comptage t4tfiiits- de
cyclage. Des sécurités correspondant à. une chute- de- pression, à un trop grand. nombre 1e
défauts ou à un niveau d'huile trop- important dans un récipient collectant toutes- les fuites
externes sur les bancs d'essais, ont été mises en place pour assurer un fonctionnement correct
des composants en essai.
Le bon état de fonctionnement était vérifié quotidiennement et les bancs remis en marche en
cas d'arrêt constaté. Nous avons rencontré de nombreux incidents pendant le fonctionnement
des bancs d'essais dans la mesure où des phénomènes externes sont venus perturber les essais:
9 rupture d'organes de fixation sous l'effet des vibrations,
4 usure rapide des flexibles, des joints et des raccords effectuant la liaison entre la pompe et
les distributeurs,
9 détérioration des limiteurs de pression,
4 détérioration des entrées et des sorties de l'automate programmable,
4 détérioration des contacteurs de puissance,
4 pannes de courant survenant la nuit ou les week-ends...
Tous ces phénomènes ont ralenti considérablement les essais mais n'ont heureusement pas
perturbé le fonctionnement dans des conditions correctes.
Nous avons mesuré régulièrement les fuites au niveau des composants (entre 2 et 4 fois par
mois) afin de mesurer leur usure et de vérifier que leurs caractéristiques demeuraient bien
inférieures aux critères d'arrêt définis (voir chapitre trois). Nous avons mis au point les
procédures de fuites en tenant compte de l'expérience des industriels ayant fourni le matériel et
des compétences et moyens disponibles au CETIM.
a. Vérins hydrauliques
Trois mesures de fuites étaient effectuées, toutes les mesures étant effectuées pour une
pression appliquée de 90 bar, à la température ambiante:
4 mesure des fuites au niveau de la tige tQ1,
9 mesure des fuites au niveau du piston, la pression étant appliquée sur la petite section
AQ2,
4 mesure des fuites au niveau du piston, la pression étant appliquée sur la grande section
Q3.
Ces mesures ont été effectuées à l'aide de buvards préalablement exposé à l'air ambiant de
manière à ne pas être trop sensibles à l'humidité.
La mesure se déroulait alors en quatre phases (voir figure 41)
9 pesée du buvard avant mesure,
9 nettoyage de l'extrémité du vérin, la tige étant rentrée et la pression maintenue sur la petite
section,
9 placement du buvard à l'extrémité de la tige pendant un temps donné &,
4 pesée du buvard après mesure.
et donc
APmaqu,
AQ1 = AQwjjunnqu.
- p (T)
Buvard
Au niveau du critère d'arrêt, la présence d'une fuite au niveau de la tige suffit pour justifier un
arrêt car en fonctionnement normal, on n'observe aucune fuite à ce niveau.
Ces mesures ont été effectuées à l'aide de pipettes graduées placées sur les orifices non soumis
à la pression, le piston étant maintenu en position centrale par un montage de bridage de
tige(voirfigures42 et 43).La mesure se déroulait alors en quatre phases:
4 positionnement à mi course du piston du vérin par une butée mécanique,
4 commutation du distributeur de manière à appliquer la pression sur une des sections,
4 disposition d'une pipette graduée sur l'orifice non soumis à la pression,
4 relevé de la variation du niveau dans la pipette et donc de la variation de volume pendant
un temps donné At.
Les fuites au niveau du piston peuvent alors être calculées de la manière suivante:
AV
AQ2
=-;-
la pression étant appliquée sur la petite section,
AQ3 +AQ1
AQ3 =ÇAQ1
la pression étant appliquée sur la rande section.
Figure 42 : schéma du principe de mesure des fuites piston, pression appliquée sur la petite
section
Figure 43 schéma du principe de mesure des fuites piston, pression appliquée sur la grande
section
Une fuite supérieure aux fuites initiales dans un rapport 5 à 10 sera le critère d'arrêt retenu.
b. Distributeurs hydrauliques
Trois mesures de fuites étaient effectuées, toutes les mesures étant effectuées pour une
pression appliquée de 160 bar, à la température ambiante:
4 mesure des fuites en position centre fermé AQ4,
4 mesure des fuites en position de distribution, orifices P et A reliés LQ5,
4 mesure des fuites en position de distribution, orifices P et B reliés Q6.
Ces mesures ont été effectuées à l'aide de pipettes graduées placées sur les orifices non soumis
à la pression, le tiroir de distribution étant successivement amené dans ses trois positions (voir
figures 44, 45 et 46). La mesure se déroulait alors en trois phases:
4 commutation du distributeur vers une de ses positions de fonctionnement,
4 disposition de pipettes graduées sur les orifices non soumis à la pression,
4 relevé de la variation du niveau dans les pipettes et donc de la variation de volume sur
chaque orifice pendant un temps donné &.
(AV (iW
AQ5=(-K-) +tK T B
(iV (tV
tQ6
''T
le distributeur étant en position de distribution, P et B reliés.
Les schémas de principe correspondant aux mesures de ftiites dans les trois positions des
distributeurs sont représentés ci-dessous:
Figure 44 : schéma du principe de mesure des fuites du distributeur, position centre fermé
Des résultats surprenants faisant apparaître des valeurs de fuites importantes ont été obtenus
sur les premières mesures de fuites effectuées sur les premiers distributeurs; nous avons alors
réalisé une étude pour caractériser la dispersion des fuites initiales sur l'ensemble des
distributeurs et comparer les fuites obtenues expérimentalement avec les valeurs théoriques
calculées en fonction des jeux fonctionnels. Les résultats de cette étude seront exposés au
chapitre.
Tous les composants testés spécifiquement ont été démontés après chaque essai (vérins,
distributeurs) et expertisés (qu'ils soient défaillants ou non). Les autres composants ne sont
démontés que lorsqu'ils sont défaillants (Jerte des fonctions mécaniques ou perturbation trop
importante de type fuites, bruit...).
Les vérins et les distributeurs ont été expertisés chez chaque industriel, l'expertise étant menée
conjointement par le CETIM et les industriels. Tous les composants ont été démontés et
expertisés (qu'ils soient défaillants ou non) et nous avons vérifié que les modes de défaillance
étalent semblables pour tous les essais. Les composants présentant des modes de défaillance
différents du mode standard ont été isolés et leurs durées de vie n'ont pas été prises en compte.
Les autres composants ont été démontés, expertisés au CETIM puis renvoyés aux industriels
fournisseurs. Les données de leurs défaillances pourront être utilisées pour enrichir des
banques de données existantes.
Les résultats de ces expertises, comme ceux des mesures de fuites, sont décrits au chapitre
cinq.
La phase de préparation représente un travail d'environ une semaine par banc d'essai (3
composants) si aucun incident n'intervient.
La mesure des flutes d'un banc d'essai nécessite 4 heures de travail pour deux personnes. Le
dépannage des pannes dépend de l'ampleur de celles-ci et peut durer de quelques minutes à
quelques jours.
La durée d'un essai hydraulique varie de 3 à 5 mois (4 mois en moyenne) suivant les essais et
les incidents rencontrés.
Une fois le plan d'expérience construit (voir chapitre trois), il convenait de concevoir et de
fabriquer des moyens d'essais aptes à permettre la réalisation des essais dans les conditions
définies dans le plan.
Nous avons conçu les bancs d'essais, en collaboration avec un ingénieur spécialiste du dessin et
de la conception. Les bancs ont ensuite été réalisés dans les ateliers de fabrication du CET1M
et nous les avons assemblés pour les rendre opérationnels. Le montage et le réglage de tous les
composants a également été effectué par nos soins.
Conception:
Les bancs ont été conçus pour assurer les conditions d'essais suivantes
4 pression d'essai réglable en fonction de l'essai (voir plan d'expérience),
4 température de fluide réglable en fonction de l'essai (voir plan d'expérience),
4 température ambiante en fonction de l'essai (voir plan d'expérience),
4 fréquence de cyclage réglable,
4 test simultané de 5 ou 6 composants,
4 interchangeabilité des composants (quelle que soit leur marque),
4 adaptabilité des implantations pour les moyens de mesures,
4 fonctionnement simultané et indépendant de quatre bancs d'essais en parallèle,
4 remplissage et vidange complète de l'air comprimé présent dans les vérins.
Le schéma pneumatique de fonctionnement des bancs est représenté ci-après (voir figure 47).
L'alimentation en air comprimé est assurée par un réseau autonome réglable pouvant délivrer
des pressions variant de O à 12 bar. Chaque banc est alimenté à l'aide d'un régulateur de
pression qui permet de régler la pression d'essai de chaque banc, indépendamment de celles des
autres bancs. De plus, ces régulateurs permettent d'isoler chaque banc en vidangeant l'air
comprimé contenu dans tout le circuit aval.
La pression d'essai est réglée par le régulateur de pression en amont du banc d'essai, la pression
d'essai étant la pression stabilisée de sortie ou de rentrée des vérins (voir figure 48). Cette
courbe a été réalisée à partir des données de capteurs de pression placés sur les orifices
d'utilisation d'un vérin, convenablement enregistrées à l'aide d'un enregistreur temporel. De tels
enregistrements ont été réalisés pour régler la pression d'essai à chaque nouvelle configuration
d'essai.
Les limiteurs de débit placés entre les distributeurs et les vérins permettent eux, en
combinaison avec le réglage des amortisseurs des vérins, de régler les vitesses de rentrée et de
sortie de tige des vérins.
Les bancs d'essais peuvent fonctionner de manière indépendante sauf en ce qui concerne la
température du fluide pour laquelle nous ne disposons que de deux dispositifs de chauffage de
l'air comprimé; ainsi, seules deux températures de fluide pourront être testées simultanément.
Les autres paramètres d'essais (pression, température ambiante) peuvent être assurés
Le plan d'expérience prévoyant cinq répétitions pour chaque essai (sauf pour l'essai central qui
comprend six composants), chaque banc d'essai reçoit cinq (ou six) vérins et cinq (ou six)
distributeurs (voir figures 49 et 50). Pour des raisons d'encombrement et pour simplifier le
repérage et le travail sur un couple de composants, les bancs ont été conçus sous la forme d'un
châssis rigide sur lequel on vient monter des platines interchangeables, chaque platine
comportant un vérin et un distributeur et toute leur connectique (voir figure 51). Ainsi, en cas
d'arrêt d'un "composant" par dépassement du critère d'arrêt, la platine contenant ce
"composant" est isolée et arrêtée mais les autres platines peuvent continuer à fonctionner. On
peut alors travailler sur la platine défaillante sans perturber le fonctionnement du banc d'essais.
En cas d'arrêt d'un vérin, la platine est arrêtée définitivement, en cas d'arrêt d'un distributeur,
celui-ci est remplacé et la platine remise en marche.
Nous avons mesuré la température de fluide à Faide thin thermocouple rapide placé
directement sur un orifice d'ti1isatiou di vérinetune urrditkin a été efftu p rpr* à
la mesure effectuée, avec une: sonde. Pt 100, à &tlethme capacité tam!xn en amont des
distributeurs (voir figures 52 et 5&). La courbe fine représente la température mesurée â la
sortie de la capacité tampon, la courte épaisse rpiéut latempérature instantanée ausuC
directement sur un orifice du: vér On. s'est ainsi 2siré de la vali1ié- dea mestwes -de
température effectuées en enregistrant lévolutioft temporelle des deux signaux et en les
comparant (voir figure 54). L'écart constaté entre lesdeuK mesures a été pris: en compte lors
des réglages des températures d'essais.
oc
L'air comprimé est filtré à 4& uwns ezr sortie du systèwe du production. Suite à nu incident
du système de conditionnement d'air comprimé ayant provoqué l'annulation dtune s&ie
(injection d'eau dans les composants), il a été décidé de filtrer également l'air comprimé à
l'entrée des régulateurs de pression à l'aide de filtrescoalesceuts.
Les bancs d'essais ont été entièrement automatisés de manière à pouvoir fonctionner 24h/24,
7j/7; un automate programmable a été utilisé pour réaliser cette fonction et nous avons conçu
le programme dautomatisation des bancs sur l même- modèle que cehii des bancs d'essais
hydrauliques (voir figure 40).
En fonctionnement normal, tous les vérins étant rentrés, l'automate reçoit les cinq signaux
électriques des capteurs de position correspondant à la rentrée complète de la tige des vérins.
L'automate envoie alors un signal électrique commandant la sortie des vérins et le maintien
jusqu'à leur sortie effective, c'est-à-dire la détection des cinq signaux électriques des capteurs
de position correspondant à la sortie complète de la tige des vérins. L'automate envoie alors un
signal électrique pour commander la rentrée des vérins. Un temps maximum de cycle a été fixé
(2 fois le temps de sortie normal) qui, s'il est dépassé, conditionne un comptage de défauts de
cyclage. Des sécurités correspondant à une chute de pression, à un grand nombre de défauts
ont été mises en place pour assurer un fonctionnement correct des composants en essai.
Le bon état de fonctionnement était vérifié quotidiennement et les bancs remis en marche en
cas d'arrêt constaté. Nous avons rencontré de nombreux problèmes quant au fonctionnement
des bancs d'essais dans la mesure où de nombreux phénomènes externes sont venus perturber
les essais
4 étanchéité des implantations de raccords coniques dans les taraudages cylindriques
(l'utilisation d'une résine d'étanchéité a été nécessaire),
4 problèmes de détection de la fin de course des vérins (rupture ou déplacement du
détecteur),
4 problème de qualité de l'air comprimé (accident du sécheur et présence d'eau dans le
circuit),
4 détérioration des régulateurs de pression,
4 détérioration des entrées et des sorties de l'automate programmable,
4 détérioration des contacteurs de puissance,
4 pannes de courant survenant la nuit ou les week-ends...
Tous ces phénomènes ont ralenti considérablement les essais mais n'ont heureusement pas
perturbé le fonctionnement dans des conditions correctes sauf dans le cas de la présence d'eau
dans le circuit qui a entièrement ruiné une série d'essais.
Nous avons mesuré régulièrement les fuites au niveau des composants (entre 2 et 4 fois par
mois) afin de mesurer leur usure et de vérifier que leurs caractéristiques demeuraient bien
inférieures aux critères d'arrêt définis (voir chapitre trois). Nous avons mis au point les
procédures de fuites en tenant compte de l'expérience des industriels ayant fourni le matériel et
des compétences et moyens disponibles au CETIM.
a. Vérins pneumatiques
Deux mesures de fuites étaient effectuées, toutes les mesures étant effectuées à 6.3 bar en
accord avec la recommandation de l'UNITOP [UNT94a
4 mesure des fuites au niveau du piston pression sur la petite section ¿Q1,
4 mesure des fuites au niveau du piston pression sur la grande section Q2.
Les mesures ont été effectuées en commutant le vérin dans une de ses deux positions extrêmes
et se déroulaient en quatre phases
4 "gonflage" de la chambre sous pression (remplissage par de l'air comprimé à 6.3 bar),
4 isolement de la chambre sous pression (vanne à tournant sphérique),
4 quantification de la chute de pression pendant un temps & (relevé des pressions et
températures du fluide dans la chambre),
4 calcul de la fuite volumique.
J.-C. AUGEFévrier 1998 110
lire quatre. &sais
La flute volumique ANR est alors calculée de la manière suivante (en considérant l'air
comprimé comme un gaz parfait):
Pv
n=
où P pression dans la chambre
V volume de la chambre
R constante des gaz parfaits
T température absolue dans la chambre
(n2-n!).VM
Q
&
AQ1 représente la somme des fuites au niveau du piston dans le sens petite chambre 4 grande
chambre et des fuites au niveau de la tige,
Q2 représente les fuites au niveau du piston dans le sens grande chambre 4 petite chambre.
Au niveau du critère d'arrêt, un critère d'arrêt spécifique a été établi (voir chapitre trois).
b. Distributeurs pneumatiques
Deux mesures de fuites étaient effectuées, toutes les mesures étant effectuées pour une
pression appliquée de 6.3 bar (voir [UNI94b]):
4 mesure des fuites en position de distribution, orifices P et A reliés ¿Q3,
4 mesure des fuites en position de distribution, orifices P et B reliés Q4.
Les mesures ont été effectuées en commutant le distributeur dans une de ses deux positions
extrêmes et se déroulaient en quatre phases:
4 "gonflage" de la capacité tampon sous pression (remplissage par de l'air comprimé à 6.3
bar),
4 isolement de la capacité tampon sous pression et du distributeur (vannes à tournant
sphérique),
4 quantification de la chute de pression pendant un temps & (relevé des pressions et
températures du fluide dans la capacité),
4 calcul de la fuite volumique.
On calcule alors les fuites volumiques ANR comme pour le cas des vérins:
Tous les composants testés spécifiquement ont été démontés après chaque essai (vérins,
distributeurs, limiteurs de débit, électrovannes) et expertisés (qu'ils soient défaillants ou non).
Les autres composants n'ont été démontés que lorsqu'ils étaient défaillants (perte des fonctions
mécaniques ou perturbation trop importante de type fuites, bruit...).
Les vérins et les distributeurs ont été expertisé chez chaque industriel, l'expertise étant menée
conjointement par le CETIM et les industriels. Tous les composants ont été démontés et
expertisés (qu'ils soient défaillants ou non) et nous avons vérifié que les modes de défaillance
étaient semblables pour tous les essais. Les composants présentant des modes de défaillance
différents du mode standard ont été isolés et leurs durées de vie n'ont pas été prises en compte.
Les autres composants ont été démontés, expertisés au CETIM puis renvoyés aux industriels
fournisseurs. Les données de leurs défaillances pourront être utilisées pour enrichir des
banques de données existantes.
La mesure des fuites d'un banc d'essai nécessite 4 heures de travail pour une personne. Le
dépannage des pannes dépend de l'ampleur de celles-ci et peut durer de quelques minutes à
quelques jours.
La durée d'un essai pneumatique varie de 4 à 6 mois (5 mois en moyenne) suivant les essais et
les incidents rencontrés.
4.4. Conclusion
La partie essai a représenté une part certaine de notre travail dans la mesure ou la mise en
oeuvre (conception, montage, réglage) a duré environ une année. Par la suite, le suivi des essais
(mesures de fuites, dépannages...) a également demandé beaucoup de temps (4 heures en
moyenne pour mesurer les fuites d'un banc hydraulique ou pneumatique), d'autant plus que
nous avons rencontré quelques problèmes inattendus (étanchéité des raccords pneumatiques
qui faussaient les mesures de fuites, isolation thermique des canalisations pour les essais à
basse température ambiante (O °C et 14 °C)).
Parallèlement aux essais, les recherches théoriques ont été réalisées et les outils spécifiques
développés. Cependant, de nombreux retards sur les essais ont perturbé la réalisation du plan
d'expérience décrit au chapitre trois. Les essais seront poursuivis après la fin de notre doctorat
et les données complètes seront dépouillées et analysées, à l'aide de notre méthode et de nos
outils, conjointement par I'ENISE et le CETIM.
5. RESULTATS ET SIMULATION
5.1. Introduction
Ce chapitre regroupe tous les résultats expérimentaux que nous avons obtenus au cours de
notre doctorat.
Dans un premier temps, nous décrirons les résultats des essais que nous avons effectués sur les
vérins et les distributeurs hydrauliques et pneumatiques. Nous décrirons les phénomènes
qualitatifs observés et les résultats partiels obtenus par la méthode que nous avons développée.
Les résultats que nous présenterons ne sont que des résultats partiels car, à ce jour, tous les
essais prévus n'ont pas encore été effectués et toutes les données ne sont donc pas disponibles.
Pour des raisons de confidentialité, les données expérimentales ont été adimensionnalisées en
les divisant par un coefficient de normalisation connu uniquement du CETIM.
Les essais seront poursuivis après la fin de notre doctorat et les données complètes seront
dépouillées et analysées; à l'aide de notre méthode et de nos outils, conjointement par l'ENISE
et le CETIM.
A ce jour, trois essais du plan d'expérience ont été menés à termes, dans les conditions
suivantes:
L'essai i comportait six composants. Les deux bancs d'essais ont donc été utilisés
simultanément pour réaliser cet essai. Par la suite, les essais 2 et 6 ont été menés de concert, et
deux nouveaux essais sont actuellement en cours (essais 4 et 8).
L'architecture du banc et les méthodes de réglage de vitesse nous ont imposé de toujours
fonctionner avec trois composants par banc d'essai. En cas de défaillance d'un composant ou
d'arrêt par dépassement du critère d'arrêt, un composant neuf était monté en remplacement du
composant "défaillant" et nous avons considéré qu'il subissait le même essai que les autres
composants et que seule la date de début d'essai changeait. Nous disposons ainsi, dans la
plupart des cas, de plus de trois données par essai.
Tout au long des essais, nous avons ré&ulièrement effectué des mesures de- fuites au niveau des
vérins hydrauliques. En fonction du critère d'arrêt défini au chapitre trois, les composants
"défaillants" étaient démontés et remplacés. L'évolution des fuites de chaque- composant au
cours du temps était portée sur des courbes semblables à celle de lafigure 58:
EaMhydra1thq1s. EssaI 1.
Filtes 'éHss au-niveau du-pm, presMon-ppllquéedaits la grande chamhre
I -,
FI
L'ensemble des courbes-d'évolution des fuites des composants est présenté en annexe 7.
Le bilan des essais sur les vérins hydrauliques est le suivant:
L'expertise des composants a révélé que le cisaillement du joint était dû à-un mauvais-montage
du joint, tout comme la rupture de la ti&e.
La rupture du système d'amortissement est le mode 41e défaillance le plus représentatifs 41es
vérins testés- et c'est donc celui Que nous chercherons à accélérer. Les deux défaillances
marquées en rouge (210 km) et en bleu (439 km) -ne seront-pas utilisées-pour-nos calculs-car
elles correspondent à un mode de défaillance différent de-celui étudié. -
Au niveau des vérins intacts et arrêtés après 3000 km, l'expertise a révélé-un bon-état -général
et pas d'usure visible- Seuls les joints depiston présentaient un aspect plus affaissé- ue lejint
neuf.
a. Résultats
Tout au long des essais, nous avons régjilièrement effectué- dea mesures de fuites au niveau des
distributeurs hydrauliques. En fonction du critère d'arrêt - défini au -chapi1re trois, 'les
composants "défaillants" étaient démontés et remplacés. L'évolution des fuites de chaque
composant au cours du temps était portée sur deseourbes semblables à ceile,-de-lajìgzae.59;
DH7 DH8
1k
'k
(1 1000000 2000000 3000000
--:----
4000000 5000000
--
6000000 7000000
Cyde etiectué
Figure 59: exemple de courbe d'évolution des fuites d'un distributeur en fonction du temps
Les faites présentées ont été divisées par la pression appliQuée au moment des mesures de
fuites. Les fuites présentées sont donc des fuites par bar de pression appliquée. Le paramètre
de normalisation est le même que celui utilisé pour les vérins hydrauliques.
On notera, sur cette figure, les valeurs importantes des fuites initiales de 4 distributeurs sur 6.
Ces valeurs ont motivé l'étude des fuites qui sera présentée au paragraphe suivant.
L'ensemble des courbes d'évolution des fuites des composants est présenté en annexe 7.
Tous les composants testés ont survécus aux essais sauf quelques uns qui ont été détériorés par
des particules solides issues de vérins défaillants.
Nous présenterons ici les résultats de l'étude statistique de la distribution des fuites initiales des
distributeurs hydrauliques. Nous établirons dans un premier temps une formule théorique des
fuites des distributeurs en fonction des jeux fonctionnels; dans un deuxième temps nous
présenterons les mesures effectuées sur 48 distributeurs et nous vérifierons l'adéquation entre
la théorie et l'expérience.
Théorie:
Les développements présentés ici ont pour but de redémontrer la formule de fuite bine connue
des hydrauliciens [FAI7O]. Pour cela, nous sommes partis de calculs effectués sur des pistons
de pompe hydraulique [LAL82].
yA
A
o x
e
a2u
(le terme en est négligeable)
II vient donc
32u lap
soit
au ia
aypax
et finalement
i at
.y2 +A.y+B
21uax
B=
i ap (e'2
2u 2)
UY
i ai( 2
T
e
a iP
Or-r=---j-
D'où
i i.p(e 2
u
TIT
Le palier fin est en fait constitué d'un axe de rayon r dans un alésage de rayon R.
On note j le jeu sur les diamètres j = 2(R - r).
Q=fu.ds
or ds=ír.D.dy
donc
I I
Q= r.D.u.dy = 2.$7r.D.u.4y
et donc, finalement
Q=f4 ii
96 ¡ p
Dans le cas d'un axe excentré par rapport à l'alésage, on note a l'excentricité absolue (écart
entre les centres) et e
Rr l'excentricité relative.
Q =!...4..2_.11+3.L
96 ¡ L 2
Expérimentation:
Nous avons alors effectué des mesures de fuites sur l'ensemble des distributeurs devant être
testés dans le cadre du plan d'expériences décrit au chapitre trois, c'est-à-dire 48 distributeurs.
Dans un premier temps, pour chacun des trois fournisseurs de distributeurs, nous avons
déterminé les jeux fonctionnels des distributeurs et calculées les fuites théoriques minimales
(jeu minimum sans excentrement) et maximales (jeu maximum et excentrement maximum) de
chaque type de distributeur. La plus petite de ces valeurs a constitué ce que nous appellerons le
minimum théorique (Min th), la plus grande de ces valeurs a Constitué ce que nous appellerons
le maximum théorique (Max th).
Dans un deuxième temps, nous avons mesuré les fuites des 48 distributeurs que nous avons
comparé aux valeurs Min th et Max th (voir figures 62, 63 et 64).
Sur ces trois courbes, on trouve en abscisses un numéro de distributeur et en ordonnées des
fuites "normalisées" (c'est à dire que les valeurs réelles ont été divisées par un coefficient de
normalisation N). On trouve également les droites correspondant respectivement aux minimum
et maximum théoriques. Les points bleus représentent les fuites initiales mesurées avant essai.
Les points roses représentent, pour les premiers composants testés, les fuites mesurées après
une semaine d'essai.
On peut noter que les points aberrants qui ont motivés cette étude disparaissent dès la
deuxième mesure et qu'il est donc raisonnable de penser que les mesures initiales effectuées sur
les 6 premiers distributeurs (43 à 48), avant l'écriture des procédures de mesure, n'ont pas été
effectuées dans- les mêmes conditions q.ue les suivantes. D'autre part,, on peut noter qie la
formule présentée ci-dessus permet une excellente estimation des fuites -d'un -distributeur
notamment dans- le-cas des positions P vers A et P ver-s B.
Figure 62 : distribution des fuites des distributeurs -en position pression P v-ers B
Figure 64: distribution des fuites des distributeurs en position centre fermé
Comme nous l'avons décrit au chapitre quatre, tous les composants constitutifs des bancs
d'essais ont été suivis; leurs défaillances ont été relevées de manière à enrichir les bases de
données existantes sur les composants hydrauliques.
Seules les défaillances de matériel ont été considérées. Sur l'ensemble des trois essais réalisés,
les défaillances suivantes ont été relevées:
Les défaillances des tirants de distributeurs et des joints statiques sont dues aux vibrations des
bancs d'essais et sont connues des constructeurs.
Les défaillances des bobines de distributeurs sont dues à des coincements de tiroir de
distributeur pour cause de pollution ou à des phases de maintien sous tension trop longues.
Les défaillances des limiteurs de pression sont dues soit à de la pollution, soit aux vibrations.
Les défaillances des limiteurs de débit sont dues à de la cavitation induite par le fonctionnement
de nos bancs d'essais.
Les défaillances des flexibles sont dues aux vibrations ayant entraîné des frottements entre
flexibles et donc une usure des gaines protectrices.
Les défaillances des organes électriques n'ont pas été expertisées car les fournisseurs ne
participaient pas à notre étude.
Les résultats des trois essais hydrauliQues terminés (vair tables 15 et 16) ont été analysés à
l'aide du module "Cox" présenté aux chapitres deux et trois et en annexe 4.
Nous avons adopté le coda&e décrit dans la table ci-dessous (codag en accord avec le pan
d'expérience décrit en annexe 6):
Essai
-6
Z
P
9OO-
IOS
72
Facteur 1
Z1
¶
t
-1 56 1
Facteur2.
Tf
60-
7_5_
75
Z2
Table 18 : codage des essais hydrauliques pour un traitement par le module "Cox"
-- Facteur3
Ta Z3
IMPRiMER
La valeur calculée pour le test du (3.597) assure une confiance inférieure à 5()% alors que le
nombre d'itérations a atteint le maximum autorisé par le programme. Les résultats analysés
sont donc insuffisants pour tirer des conclusions conectes et exploitables. Le traitement sera
effectué ultérieurement lorsque des données supplémentaires seront disponibles.
suivantes:
4 Six essais du plan d'expérience ont été menés à termes, dans les conditions
8 11 13 15
Numéro de ressai dans le plan d'expériences 1 4
9,4 4,6 3 7 7
Pression (bar) 7
34 34 47,5 25 47,5
Température de fluide (°C) 47,5
56 56 35 35 0
Température ambiante (°C) 35
5 5 5 5
Nombre de composants testés 6 5
4 Deux essais sont sur le point de finir, dans les conditions suivantes:
4 Quatre essais ont été interrompus par un incident survenu dans le circuit pneumatique
cours);
d'alimentation des bancs (ces essais seront relancés à l'issue de la campagne en
les conditions
nous disposons de résultats partiels pour ces essais qui ont été réalisés dans
suivantes:
3 5 7 9
Numéro de l'essai dans le plan d'expériences
9,4 9,4 4,6 4,6
Pression (bar) 34
61 34 61
Température de fluide (°C)
14 14 14 14
Température ambiante (°C) 5
5 5 5
Nombre de composants testés
Table 21 : liste des essais pneumatiques interrompus
Le bilan des essais sur les vérins pneumatiques est rappelé table 22.
s'explique par un phénomène de déformation
Le dépassement du critère d'arrêt par les vérins
Les essais 1,
du joint de piston au cours de l'essai qui entraîne une diminution de l'étanchéité.
été décidé de les
3000 premiers km et il a
11, 13 et 15 ont présenté peu de défaillances lors des
continuer jusqu'à 400 km pour disposer de plus de données de composants "défaillants".
123
j.-c. AUGEFévrier 1998
ChcJp?i lire cñrq. Rést&litcits e sai1ç
Essapn F1.
Fuites véiins auiive&u du piston, pression appliquée dans la petite chambre
's
/
j
- 1
VP3
VP5
'VP4
0
A 1000 2000 3000 4000
3 94 61 14 5 1098
4 94 34 56 207 1711 1711 z 3122
5 64 34 14 5 1848
7 46 61 14 2497
8 46 34 56 3112 4 3112
9 46 34 14 753 4 1247
11 3 47 5 35 2927 4 4004
13 7 25 35 1906 2044 3121 2 4076
15 7 47 5 o 2797 3306 3 4040
Table 22: bilan des essais réalisés, à ce jour, sur les vérins pneumati ques
défaillance
censure
L'expertise des composants a révélé quei,. malgré le dépassement du critère d'arrêt, les- vérins
arrêtés fonctionnaient encore correctement. Les flutes -finales ont été effectuées e1w' les
industriels et ont confirmé les valeurs que nous avons mesurées. Tous les vérins présentaiçnt
les mêmes aspects d'usure et on peut confirmer que le mode de défaillance 4e chaciin -des
vérins était le même.
On peut noter que la déformation du joint de- piston s'accompagne d'une détérioration de la
graisse utilisée (séparation de l'huile et du savon).
Tout au long des essais, nous avons régulièrement effectué-des mesures-de-fuites au niveau des
distributeurs pneumatiques. En fonction du critère d'arrêt défini au chapitre trois, les
composants "défaillants" étaient démontés et remplacé& L'évolution des fuites de chaque
composant au cours du temps était portée sur des courbes semblables à celle de la figure 67:
Ks*t1.
Fttes ditrfluiteur, preen -appliquée del ver32.
DP1 DP2 DP3 DP4
01234561;9 Cyddfrøés(mlU.n
IO U 12
Le paramètre de normalisation est le même ue celui- utilisé pour les vérins pneumatiques. Le
caractère irrégulier et chaotique des courbes peut s'-expliquer, a priori, -par -4es particules
extérieures s'insinuant au niveau du tiroir puis-étant éjectées
L'ensemble des courbes d'évolution des fuites des composants est présentéenannexe 7.
L'expertise des distributeurs a révélé des- phénomènes- propres à- chaqie industriel parmi
lesquels on peut noter les défaillances suivantes:
4 détérioration des électrovannes de-pilotage,
4 détérioration des graisses (séparation huile savon),
4 détérioration de l'état de surface de certains tiroirs.
De plus, tous les distributeurs contenaient des particules extérieures (provenant de raccords,
du produit utilisé pour réaliser l'étanchéité, des joints dea vérins...) qui peuvent expliqer le
caractère irrégulier et chaotique des courbes d'évolution des fuites des distributeurs
pneumatiques. En effet, on peut supposer qu'au cours dea essais ces particules ont voyag au
coeur des distributeurs déformant temporairement les joints et modifiant l'étanchéité.
Cependant, ces particules extérieures n'ont pas causées de dommagçs- au niveau- des
distributeurs.
Seuls quatre distributeurs ont présenté des-défaillances; elles sont rappelées table 23.
Dans les quatre cas, le distributeur était bloqué et ne pouvait plus commuter. Les-électrovannes
fonctionnaient encore; c'est donc bien le distributeur ui était défaillant. Un seul de ces
distributeurs a été expertisé révélant une détérioration du piston commutant-le -tiroir qui s4tait
désacé.
Comme nous l'avons décrit au chapitre quatre, tous les composants -constitntifs des -bancs
d'essais ont été suivis; leurs défaillances ont été relevées de- manière à -enriehir les bases de
données existantes sur les composants pneumatiques.
Seules les défaillances de matériel-ont été- considérées. Sur l'ensemble des-douze essais réalises,
les défaillances suivantes ont été relevées:
Table 24: bilan des défaillances des composants annexes des bancs d 'essais pneuinatques
Les défaillances constatées sur l-es raccords rapides et leurs- bouchons n'ont pas encore été
expertisées avec le constructeur. Il semble cependant que la température élevée du fluide et les
échauffements dus aux compression et décompression rapides de l'air soient responsables de
ces défaillances.
Comme pour les- essais hydrauliques, les sous-ensembles électriques n'ont pas été expertisés.
Sur les huit défaillances observées sur les régulateurs de pression, une -(celle présentée -en
rouge) est due à un mauvais montage du composant en usine Les- sept autres sont dues à la
forte température du fluide; en effet, celle-ci se situait parfois aux alentours-des a1eurs-.limites
préconisées- par les constructeurs. La haute température a entraîné une déformation- p1astiEue
de la membrane du régulateur qui ne pouvait donc plus assurer sa fonction.
Les résultats des six essais pneumatiques terminés (voir table 19) ont été-.ana1ysés41aide4u
module "Cox" présenté aux chapitres deux et trois et en- annexe 4. -
Les résultats partiels sur les vérins pneumatiques sont donc les suivants:
b=+65
b2 =-0.59
0.05
On peut ainsi calculer les coefficients multiplicatifs C1 à appliquer pour- passer d'un
essai i (Z1,Z2,Z31) à l'essai i (0,0,0).
G. = eZhi+Z1)
Les données obtenues pour les six essais ont été ramenées aux conditions centrales
(Z 1=0 ;Z2=0 ;Z3=0) (voir table 26). La loi de base des vérins pneumatiques-a alors été estiniée
par la méthode décrite au chapitre deux (statistiques classiques sur les données ramenées aux
conditions centrales).
2819.000
207.000 '1711.000 1711.000
T3Ej3112.000
k 2927.000 -
i1tts. ----------
des essais du otan
-- F -- dexcérience
- -
(données de-départ
- -
Ces nouvelles données ont été traitées à l'aide de statistiques classiques. Nous avons supposé
que les vérins pneumatiques suivaient une loi de Weibull à: deux paramètres.
Figure 69: traitement des donné es pneumatiques par les statistiqu classiques
La loi de fiabilité des vérins pneumatique& testés- est- une-loi de Weibull de paramètrçs:
i=955O km
-ß =1 34
Ces résultats restent des résultats partiels mais ils tendent à montrer eque la emperaüire
ambiante agit peu sur la durée de vie des vérins pneumatiQues; au contraire, il est confirmé-que
la pression et la température du fluide ont une importance certaine.
Les conclusions définitives ne pourront être tirées qu'à: la fin de l'ensemble des essais.
Les résultats expérimentaux que nous avons obtenus au cours de notre doctorat ne recouvrant
pas la totalité des essais prévus par le plan d'expérience (voir chapitre trois),nous -avons choisi
de simuler des données d'essais afin d'illustrer notre méthode (simulation de données- de
défaillances pour une loi de fiabilité et des coefficients d'accélération choisis it imeni a
priori).
Nous avons considéré que la loi de probabilité suivie est-1a loi de Weibull4uxWzuèin't
suivante:
i710000Ekn
6 11 25 70
7 11 0 30
Z
8 Ii 0 70
Table 27: essais simulés pour des vérins pneumati ques
Les coefficients d'accélération (suivant le modèle de Cox presenté au -chapitre 4eux) dus -a
chaquefacteur ont été choisis comme présentédans latable- ci-dessous(choix des coefficients
Ci à partir desquels on déduit les bi):
Facteur Zi Z2 Z3
Coefficientbi 0.83 .0-64 0.l8
Coefficient Ci correspondant- - 2.3- - 1.2 - I.9
A l'aide de l'outil développé à 1'ENTSE et présenté au chapitre trois, nous avons simule, pour
chaque essai, 5 défaillances correspondant à la loi de Weibull choisie et accéléré (au sens de
Cox) à l'aide des coefficients fixés.
J.-C.AUGÉFévrierl998 F30
Cí itre cinq. Résultats et simulation
Nous avons alors analysé les données obtenues ci-dessus par simulation à l'aide du module de
traitement des plans d'expériences décrit au chapitre trois. Au vu des résultats simulés, Une
analyse de la variance a été réalisée [BEN94] et le facteur Température ambiante (P<0.5) a
été reconnu non significatif alors que les données prouvent que la Pression (P>0.99) et la
Température ambiante (P>0. 95) sont significatives.
Nous avons alors, à l'aide du logiciel de traitement de données de Cox (voir annexe 4),
dépouillé les mesures obtenues en considérant que les deux modalités de la température
ambiante ont des influences similaires sur la durée de vie des vérins et que le problème étudié
est donc un problème à deux facteurs extérieurs. Les résultats que nous avons obtenus sont
présentésfigure 70.
La valeur calculée pour le test du x2 (10.298) donne la confiance sur les valeurs estimées des
coefficients bi; le risque d'erreur a est inférieur à 0.01.
Les coefficients Ci obtenus doivent alors être comparés aux coefficients fixés au départ:
C1 =2.3 C1 = 2.28
départ: C2 =1.2 résultats: C2 = 1 non significatif
C3 =1.9 C3 =2.02
On constate un bon accord entre les valeurs de départ et les valeurs obtenues par traitement
des données simulées, ce qui prouve la qualité du logiciel développé; une confiance certaine
pourra donc être accordée aux résultats qui seront obtenus sur les vérins hydrauliques et
pneumatiques, à l'issue de l'ensemble des essais.
Comme nous l'avons décrit au chapitre deux, nous pouvons également, à partir des données
d'essais, calculer la loi de probabilité de base R0(t). Pour cela, il convient de ramener les
données d'essais (voir table 30) dans les conditions de base en les multipliant par le coefficient
d'accélération calculé précédemment. Les nouvelles données sont présentées table 31.
- 4- - __,___
10.290
Figure 70: dépouillement des données de la table par une méthode -de Cox
On peut alors réaliser des inférences statistiques classiques sur les nouvelles -données -afin
d'obtenir, par exemple, une estimation-de la loi de- fiabilitédu composant testé.
La loi pressentie est ici une loi de Weibull à deux paramètres Un calcul -c1assiue e Aoi e
Weibull permet d'obtenir les données suivantes (voirfigure 71).
Les paramètres obtenus doivent alors être comparés aux paramètres fixés -au départ:
77 = 10000 km 7/ = 10500 km
départ: résultats
.-ß-=1.87
Ici encore, on constate un bon accord entre les valeurs- de départ et les valeurs obtenues ar
traitement des données simulées.
x).n Pl*que:5%
lelti-te.7
-
2.-
Les exemples traités cidessus montrent la puissance deiaméthode développée ainsi que sa
grande simplicité d'utilisation.
Dans le -cas -de -données simulées, on -constate-uit bon- accord entre les valeurs fixées a priori et
les résultats obtenus après simulation de données ce qui prouve la validité -des outils
développés.
Les résultats obtenus expérimentalement ne sont pour I' instant que des résultats partiels et les
conclusions définitives ne peuvent pour l'instant pas être tirées. Cependant des phénomènes
intéressants ont été mis à jour et il conviendrade les confirmer par la suite.
CONCLUSION
Les dernières années ont vu l'apparition de méthodes théoriques plus générales mais celles-ci
se heurtent encore à des difficultés quant à leur application pratique, en raison notamment de
la lourdeur des calculs qu'elles supposent ou des connaissances théoriques importantes
nécessaires à leur mise en oeuvre.
Dans le cadre de l'amélioration des performances des composants, il est demandé d'estimer
leur fiabilité; les durées de vie pouvant atteindre plusieurs années, l'estimation de la fiabilité
est longue et coûteuse.
Tout au long de ce mémoire, nous avons relevé les méthodes (spécifiques ou générales)
rencontrées dans la littérature concernant la réduction de durée et de coûts d'essais de
fiabilité; nous en avons retenu quatre qui nous ont semblé particulièrement intéressantes et
que nous avons approfondi et adapté au cas de composants mécaniques et plus
particulièrement au cas de composants hydrauliques et pneumatiques:
5 statistiques d'ordre,
+ méthodes bayésiennes,
+ modèles à hasard proportionnel,
+ analyse de données.
Statistiques d'ordre.
Cet outil, bien que purement mathématique, permet d'estimer la fiabilité de composants en
Ieme
fonction de la distribution de défaillance du élément d'un groupe. On peut ainsi estimer
la fiabilité de composants à partir de la distribution de la première défaillance d'un groupe,
réduisant le temps d'essai de manière significative. L'inconvénient majeur de ce type d'essais
est qu'il nécessite un grand nombre de composants à tester.
Méthodes bayésiennes.
Les méthodes bayésiennes sont les techniques les plus explorées à l'heure actuelle dans la
mesure où elles permettent d'estimer la fiabilité d'un composant à partir d'un nombre très
limité de données (c'est dans le cas d'absence de données de défaillances que ces techniques
sont les plus performantes et intéressantes). On estime la fiabilité d'un composant à partir de
connaissances dites «a priori» sur le composant (connaissances provenant de banques de
données externes ou internes sur des matériels similaires, d'avis d'experts...) en les corrélant
avec des données réelles et personnelles (« vraisemblance »). Le problème majeur de ces
techniques est lié à la subjectivité des données «a priori)) et aux calculs importants qu'elles
demandent.
Analyse de données.
Les quatre méthodes citées ci-dessus peuvent être utilisées en complément les unes des autres;
notamment, on peut combiner un modèle à hasard proportionnel avec des méthodes
bayésiennes pour augmenter la confiance sur l'estimation de la "loi de base" de fiabilité d'un
composant.
Nous avons proposé une utilisation possible de l'analyse de données pour la modélisation de
l'influence de l'environnement sur le comportement de composants et son application aux
essais accélérés.
Par ailleurs, ces travaux théoriques ont été complétés par une phase expérimentale importante
au cours de laquelle nous avons conçu, suivi et exploité deux bancs d'essais hydrauliques et
quatre bancs d'essais pneumatiques.
Seule une exploitation partielle des données a été possible mais la méthode a été validée par
simulation. De plus, la méthode, bien que développée pour des composants hydrauliques et
pneumatiques est tout à fait généralisable pour d'autres composants, mécaniques ou
électroniques...
REFERENCES BIBLIOGRAPHIQUES
[BEN77J BENZECRI F.
«Analyse discriminante et analyse factorielle»
Cahiers de l'Analyse de Données (C.A.D.), vol. II, n°4, pp. 3 69-406, 1977.
[BEN8O] BENZECRI F.
«Introduction à la classification automatique d'après un exemple de données médicales»
Cahiers de l'Analyse de Données (C.A.D.), vol. V, n°3, pp. 311-340, 1980.
[BOU97] BOUIT B.
«Validation et extension du Modèle de Cox pour la réduction de la durée des essais
mécaniques>)
Rapport de DEA, ENTSE, 1997.
[CAU85J CAUSSINUS H.
« Models and uses of Principal Components Analysis»
Multidimensionnal Data Analysis, Leiden, Ed. J. de Leeuw, pp. 149-178, 1985.
[CET89} CETIM
<(La fiabilité en mécanique au service de la qualité»
Recueil de Conférences; Senlis, 28 novembre 1989.
[CHE92] CHEVALIER C.
« Modélisation de la fiabilité des matériels mécaniques nucléaires à partir de données issues
du retour d'expérience»
Thèse de l'Université PARIS VI, 1992.
[CR086] CROOK A.
« The effect of cyclic test frequency on the fatigue life of fluid power components»
7th
International Fluid Power Symposium, pp. 313-322, 16-18 september 1986.
[EIR91] EIREDA
«The European Industry REliability DAta bank Handbook»
Paris, Ed. Europstat, vol. 1, october 1991.
[IFM7O] FAISANDER J.
«Les mécanismes hydrauliques et électrohydrauliques»
Paris, Ed. Dunod, 3 édition, 1970.
[GER88] GERICKE W.
« Analyse des modes de défaillance, de leurs effets et de leur criticité (AIvIDEC) en vue de la
détection, la localisation et de la correction des défauts »
6ême
colloque international de fiabilité et de maintenabilité, Strasbourg, pp. 714-717, 1988.
[HAM96] HAMDI H.
«Application de la méthode Bayésienne dans le cadre de l'étude de la fiabilité des
composants mécaniques dans le but de réduire les durées d'essais»
Rapport de DEA, ENISE, 1996.
[HIL9O} HILL C.
« Analyse statistiques des données de survie»
Paris, Ed. INSERM, ISBN 2 257 10310 6, 1990.
[K11T88] KITAWAKI K.
«Facteur d'accélération d'un assemblage: étude basée sur modèle aléatoire proportionnel »
6eme colloque international de fiabilité et de maintenabilité, Strasbourg, pp. 669-672, 1988.
[LAL82] LALLEMENT J.
«Analyse hydrodynamique des éléments d'une pompe hydrostatique à pistons))
PV CETIM 7.43.090/3118, septembre 1982 (document confidentiel CE TIM).
[LYO97a] LYONINET P.
«La qualité, outils et méthodes»
Paris, TEC & DOC, Ed. Lavoisier, 1997.
[NEL9O] NELSON W.
«Accelerated Testing - Statistical Models, Test Plans and Data Analyses»
New York, Ed. Wiley Series in Probability ans Mathematical Statistics, 1990.
[NOUJ NOUGUE c.
«Données de survie », pp. 109-127.
[0HN97} ORNO-MACHADO L.
« A comparison of Cox proportional hazards and artificial neural network models for medical
prognosis »
Comput. Biol. Med., vol. 27, n°1, pp. 55-65, 1997.
[ORE92] OREDA
«Offshore REliability DAta»
Ed. Technica, Edition, 1992.
[R1093] RIOUT J.
« L'AMDEC sauvegarde un savoir d'expert»
CETIM-Informations, n° 135, pp. 57-61, octobre 1993.
[R10941 RIOUT J.
<(Le guide de I'AMDEC machine»
Publication CETIM n° 6CO5, 1994.
[ROT81] ROTEM A.
« Accelerated fatigue testing method»
International Journal Fatigue, pp. 211-215, october 1981.
[RU94J RUGGERJO M.
« Bayesian semiparametric estimation of proportional hazard models »
Journal of Econometric, vol. 62, pp. 277-300, 1994.
[SUH94] SUHNERM.-C.
« Utilisation de la démarche bayésienne pour optimiser la démarche de fiabilité »
Thèse de l'Université de Nancy I, 1994.
[TAS89] TASSI P.
«Méthodes statistiques »
Paris, Ed. Economica, 1989.
[UNI94a] UNITOP
«Vérins pneumatiques 10 bar simple tige suivant NF E 49-003-1 Performances »
Recommandation UNITOP RU P/i, Juin 1994.
{UNT94b] UNITOP
« Distributeurs pneumatiques - Conditions et Méthodes d'essais d'endurance des distributeurs
à 5 orifices de tailles ISO»
Recommandation UNITOP RU P/2, Juin 1994.
[UNI95a] UNTTOP
«Vérins hydrauliques 160 bar compact - Diamètres 25 à 200 mm - Cahier des charges»
Recommandation UNITOP RU H/i, Mai 1995.
[UNI95b} UNITOP
«Vérins hydrauliques 160 bar médium - Diamètres 32 à 200 mm - Cahier des charges »
Recommandation UNITOP RU 11/2, Mai 1995.
[VIG91] VIGIERM.G.
<(Pratique des plans d'expériences - Méthodologie de Taguchi »
Paris, Les Editions d'organisation, 1991.
[V1L88] VILLEMEUR A.
«Sûreté de fonctionnement des systèmes industriels»
Paris, Ed. Eyrolles, 1988.
BIBLIOGRAPHIE
[1]BARBEM.-C.,DIDRIC.
« Evolutions de la méthode Renault d'analyse des défaillances et estimation prévisionnelle
des taux »
Journée d'Etude « La fiabilité dans le cycle de vie de l'automobile », Paris, SIA, juin 1994.
BAUDET J.P.
« Méthodologie de démonstration de la fiabilité et d'optimisation des plans d'essais »
6e colloque international de fiabilité et de maintenabilité, Strasbourg, pp. 172-176, 1988.
JOZWIAK I.J.
«An introduction to the studies of reliability of systems using the Weibull proportional
hazards model»
Microelectronics and Reliability, vol. 37, n°6, PP. 915-918, 1997.
[15]LURIEP. M.
« Nonparametric methods for estimating recrut survival with cross-sectional data »
Center for naval analyses, Alexandria, Virginia, report CRC 402, setember 1979.
LYDERSON S.
« Clayton's model for dependent components in system reliability»
Reliability Engineering&System Safety, vol. 36, n°1, Pp. 53-58, 1992.
OUDIN-DARRIBERE M.-M.
«Exploitation des FIT en vue des prévisions de fiabilité sur des ensembles mécaniques>)
6ème
colloque international de fiabilité et de maintenabilité, Strasbourg, pp. 132-136, 1988.
SANT BLANQUAT
«How field experience improves GEC ALSTHOM steam trubine valves»
Mécanique Industrielle et Matériaux, vol. 46, n°3, septembre 1993.
SMIIDTS C.
«Probabilistic dynamics: a comparison between continuous event trees and a discrete event
tree model»
Reliability Engineering and System Safety, vol. 44, pp. 189-206, 1994.
THOMAN R.A.
«Designing for high performance seal applications»
I. Mech. E., C474/018, pp. 67-77, 1993.
Table 39: valeurs des niveaux des paramètres du plan central composite
Vérins hydrauliques A42
Table 40: facteurs extérieurs influents dans le cas de vérins pneumatiques A-44
Table 41: analyse des ddl dans le cas des essais des vérins pneumatiques A-47
Table 42: plan central composite appliqué au cas des vérins pneumatiques A-48
Table 43: valeurs des niveaux des paramètres du plan central composite
Vérins pneumatiques A-49
ANNEXES
1. Lois continues
La loi Normale est la toila plus répandue parmi les lois de probabilité car elle s'applique à de
nombreux phénomènes, notamment en physique et en économie (erreurs de mesure) et qu'en
outre, elle est la forme limite de nombreuses distributions discrètes (en particulier, celle de la
loi Binomiale).
C'est une loi absolument continue et symétrique dépendant de deux paramètres, l'espérance
mathématique m, qui correspond au paramètre de location et la variance 0.2, le paramètre
d'échelle qui mesure la dispersion de la variable aléatoire autour de sa moyenne m. elle
représente bien la fin de vie des dispositifs subissants un phénomène de vieillissement : usure,
fatigue et corrosion.
4 Fonction de répartition:
F(t)_ Je2) du
4 Espérance mathématique:
E(t)=ff()dt=m
4 Variance:
V(t) = E[(t - m)2] J(t - E(t))2f(t)dfr'o2
La loi Normale N(O,1) est appelée loi Normale centrée réduite et peut être trouvée dans des
tables de référence.
Y-
Xm.suit une loi Normale centree reduite N(O,1).
o.
Une variable aléatoire continue, positive T est distribuée suivant une loi Log-Normale, si son
logarithme népérien est distribué suivant une loi Normale.
tcTj3
4 Fonction de répartition:
¡ I(lnu_m)2
i
F(t) 2L
toj0$e du
4 Espérance mathématique:
a2
E(t)= f lf(t).dt=emT
4 Variance:
V(t)
= f [t_E(t)]2f(t).dt=e(2m2)(e0r2 - 1)
o
Comme pour la loi Normale, le calcul de la fonction de répartition est réalisé en effectuant un
changement de variable tel que:
in I-mint
oInt
La distribution Log-Normale est un modèle fréquemment utilisé en fiabilité, car elle concerne
des variables aléatoires positives, et le paramètre de forme s lui permet des représentations
variées: en particulier, elle s'applique lorsque les observations faites sont les conséquences d'un
effet multiplicatif de différentes causes indépendantes et aléatoires.
c. Loi Exponentielle
C'est une loi qui ne dépend que d'un seul paramètre (le taux de défaillance 2); elle s'applique
d'une manière générale aux matériels qui subissent des défaillances brutales, ou à des systèmes
complexes composés de plusieurs éléments dont les lois de fiabilité élémentaires sont
différentes.
La loi Exponentielle est associée au processus Poissonnien qui est un processus qui génère des
événements dont les temps d'occurrences sont indépendants et distribués identiquement.
Appliquée à un matériel, elle correspond à la période pendant laquelle le taux de défaillance est
constant avec le temps, c'est à dire la période pendant laquelle la probabilité de défaillance est
la même à tout instant, d'où l'inutilité d'effectuer toute action préventive.
f(I)=2eÂt
4 Fonction de répartition:
F(t)=1-Ae =1R(t)
JAi1u)du
R(t)=e0 e'
4 La durée de vie T correspondant à une fiabilité R(t) est:
ln[R(t)]
T=-
2
4 La durée de vie moyenne, c'est à dire la durée de vie correspondant à une fiabilité
R(t) = 0.5 est donnée par la formule suivante:
in (0.5)
2
4 Espérance mathématique:
E(T)==MTBF.
4 Variance:
i
V(T)=--.
d Loi de Weibull.
C'est une loi très souple, représentative d'une très grande variété de phénomènes aléatoires, et
qui est souvent utilisée dans le domaine de la fiabilité des matériels mécaniques.
La loi de Weibull est une loi représentative des trois phases de la durée de vie d'un matériel:
jeunesse, maturité, vieillesse.
Cependant, faute de statistiques réduites suffisantes, l'inférence basée sur un modèle général de
Weibull implique toujours une perte d'information.
'ß-I
j
e
77.t )
4 Fonction de répartition:
ty)fi
j'
F(t)=1-et'
4 Espérance mathématique:
4 Variance:
2'\ (
v(7)=ii2.[r1+J r2i+--J]
4 Taux de défaillance:
ß(Jß1
¿(t)
ln[R(t)]
=
d'où
t=y+i.[lnR(t)j
4 La durée de vie moyenne:
t05 =y+ii.[lnO.5J
Pour des valeurs particulières des paramètres, on obtient des lois connues:
e. Loi Gamma
La loi Exponentielle représente un cas particulier de la loi Gamma. La loi Gamma, notée
(2 ,fi) est généralement une loi à deux paramètres ,% le paramètre d'échelle, et fi le
:
4 Densité de probabilité:
i
f(t)_,%ßr) t'e si t est un réel positif
4 Fonction de répartition:
F(t)_J2ß(ß) .u'.edu
S Espérance mathématique:
= MTBF
4 Variance:
V(T)=Q 2ß
La loi Gamma est souvent utilisée pour modéliser les temps de défaillance d'un matériel et
peut, par conséquent, être employée comme distribution a priori dans l'analyse de la fiabilité
bayésienne. Elle est conjuguée avec la loi Exponentielle, ce qui facilite singulièrement leur
intégration.
Comme la loi de Weibull, la loi Gamma peut représenter toutes les phases de la vie d'un
matériel, avec un petit avantage lié au fait qu'elle dispose de deux paramètres au lieu de trois
pour la loi de Weibull.
La loi Gamma peut représenter une grande variété de distribution et est un modèle naturel
d'échantillonnage exponentiel. Elle s'applique particulièrement:
c à la théorie des files d'attente, utilisée pour le comptage de l'arrivée d'un nombre
aléatoire N d'événements, lorsque le taux d'occurrence espéré reste constant et qu'un
seul événement puisse survenir entre t et t + dt : exemple, le nombre de matériels
défectueux réalisé par une usine de production,
aux tests de durée de vie des matériels.
f(t)= t1e
(n-1)!
dont la fonction de répartition est
(2.t)'1
F(t)=l-e.> (i-1)!
La loi du Khi-deux est un cas particulier de la loi Gamma. Elle fait partie des principales lois
élémentaires utilisées pour les tests statistiques (avec la loi de Student et la loi de Fisher-
Snedecor) et pour définir l'intervalle de confiance.
Des variables aléatoires indépendantes, distribuées selon une loi normale centrée réduite:
N[O,1]: Ui, U2, ..., ui., sont telles que la somme de leurs carrés est distribuée suivant une loi du
Khi-deux à y degré de liberté.
%2(v)
i vv)
.Z2(v)(i')e
- V
2
2(2)
avec:
O<%2 <
4 Espérance mathématique:
E[2(v)]v
9 Variance:
V[2(v)]=2.v
4 Si y = 2 on retrouve la loi Exponentielle,
4 si y = 30 on tend vers une loi normale.
Amoy =
g. Lois unformes.
4 Densité de probabilité:
sur [0,a]
f(t) = O ailleurs
4 Fonction de répartition:
F(t)=O sur }-,O]
F(t)=- sur[O,a]
F(t)=1 sur [a,+x[
Cette loi définie une variable aléatoire T pouvant prendre toute valeur sur l'intervalle [O,a].
4 Espérance mathématique:
E(t) =
4 Variance:
a2
V(t)=-F2
On suppose que la variable aléatoire T peut prendre ses valeurs dans l'intervalle [a,b].
sur [a,b]
f(t)=O ailleurs
4 Fonction de répartition:
F(O=" sur[a,bJ
F(t)=1 sur [b,+cc[
4 Espérance mathématique:
E(t) ba
2
4 Variance:
2
Remarque:
La loi uniforme est fréquemment utilisée en statistique bayésienne, en particulier pour
déterminer les lois de probabilité a priori dans le cas de l'ignorance totale, dans l'intervalle
[O, a] (elle est alors dite non-informative), ou dans l'intervalle [a, b] précisant ainsi la
connaissance de l'expert (elle est alors informative).
h. La loi Bêta.
C'est une loi très générale dont la distribution peut présenter des formes symétriques ou
asymétriques très diverses.
C'est la loi d'une variable aléatoire T prenant ses valeurs t sur l'intervalle [0,11 et dépendant de
deux paramètres, n et p (paramètres de forme), dont la densité est:
avec
i I'(n+p)
/3(n,p) F(n).F(p)
Cette loi représente la probabilité pour qu'un matériel survive au moins jusqu'à un temps t,
quand on essaie n matériels, d'où son intérêt dans l'évaluation de la durée des essais de fiabilité.
4 Fonction de répartition:
T(n+p)
F(t) .Ju'.(1-u)"du
- r(n).F(p) o
4 Espérance mathématique:
n
E(T)--
4 Variance:
n.p
(n+p+1).(n+p)2
Cette loi de probabilité est souvent utilisée en statistique bayésienne (survie d'un matériel)
comme distribution a priori de la probabilité d'un événement qui suit une distribution binomiale.
Les deux lois étant conjuguées naturelles, le calcul de la distribution a posteriori est alors
simplifié.
Si T suit une loi Bêta de type i (n , p), alors par définition, Y= .% suit une loi Bêta de type
2, dont la densité est:
i r-I avec O y +
ß(n,p) (1+y)"2
4 Espérance mathématique:
n
4 Variance:
n. (n+p.-1)
V09 (p-1)24 2)
2. Lois discrètes.
a. Loi Binomiale.
La loi Binomiale s'applique pour décrire un phénomène ayant des occurrences s'excluants
mutuellement (état défaillant ou en fonctionnement pour un matériel). Elle exprime la
probabilité de voir k fois la réalisation d'une des occurrences au cours de n essais, en fonction
de la probabilité p de réalisation de cette occurrence.
P(X=k)=C.pk.(1 -
n50. r01
P(xk)
o io 0 30 40 50
k
F(k) P(X k)
Cette distribution est utilisée dans le domaine technique pour déterminer la probabilité de
défaillance à la sollicitation des matériels.
Elle peut être employée au contrôle qualité que si le nombre de tirages n est faible comparé au
nombre d'individus, car elle s'applique rigoureusement que si les expériences sont non-
exhaustives (avec remise de l'individu en cas de prélèvement).
4 Espérance mathématique:
E(X)=n p
4 Variance:
V(X) =n.p. (l-p)
En fiabilité p est la probabilité pour qu'un matériel survive à un test, ou à un temps de mission
t.
On a alors:
R(t) = p
Dans le cas où le nombre d'expérience tend vers l'infini, mais que la probabilité de l'événement
reste faible, il est préférable d'utiliser la loi de poisson.
Cette loi a en particulier des applications économiques dans le domaine des files d'attente, ou
est utilisée pour calculer les probabilités d'accidents mortels.
D'une façon générale, c'est la loi qui traduit un nombre de réalisation d'événements très peu
probables, dans une suite très nombreuse d'épreuves aléatoires (n 50), la probabilité de
réalisation des événements étant toujours la même.
Ainsi, lorsque n -* -- et np reste fini, la loi binomiale tend vers une loi de poisson qui est
une loi à un paramètre, m, définie par:
P(X = k) =
in-25
P(x=k)
o
II
o 20 30 40 50
k
Remarque:
La loi de poisson constitue une bonne approximation de la loi binomiale lorsque p <0.1 et n
est grand.
Si m> 18, la loi de poisson peut être assimilée à une loi normale de moyenne m, et de
variance m.
4 Espérance mathématique:
E(X)=m
4 Variance:
V(X)=m
Propriété:
La loi de poisson est une loi discrète dont la variable aléatoire est un nombre d'événements,
alors que dans la loi Exponentielle, la variable aléatoire est l'intervalle de temps entre deux
événements.
Processus Poissonnien:
Si le nombre d'événements se produisants pendant une période T ne dépend que de la durée de
cette période, que les événements sont indépendants et qu'un seul événement arrive à la fois,
on a affaire à un processus de poisson. Si C est le nombre d'événements par unité de temps, la
probabilité de réalisation de k événements pendant la période T est:
(C.T/c
P(X = k) .eT
k!
Elle ne s'applique qu'à du matériel non réparable. Elle consiste à calculer l'évolution de la
fonction de hasard cumulé H(t).
Les événements t. (défaillances ou censures) sont classés par ordre chronologique.
On a alors:
n:,
N- n1,
ti <li
H(t1) = 2(t)
ti<ti
d'où
R(t1) = e4«.
Elle calcule l'ordre d'apparition des défaillances en donnant un certain incrément à l'ordre
d'apparition réel en fonction du nombre de données censurées entre deux défaillances.
= 91+11
òmc
où 9 ordre de la i défaillance,
1òme
ordre de la i + défaillance,
Ii k incrément dû aux censures.
i
1+z
s'il y a une censure entre la i et la i + 1è1 défaillance
Ii =
s'il n'y a aucune censure entre la i et la i + 1 àIflC défaillance
On calcule ainsi les ordres d'apparition de toutes les défaillances en tenant compte des instants
de censure.
R(t,)=[T
Cet estimateur tient compte des données censurées dans chaque intervalle [t1_1 ; t. [. On affecte
le poids 1/2 aux individus censurés.
A partir des différentes méthodes d'estimation de R(t1), on calcule ensuite l'estimateur moyen
pmoy
pm0
=!
où n: nombre d'observations de défaillance.
Formule de GREENWOOD
Deux formulations existent suivant que les données comportent des censures ou non.
R(t1). (1-R(t1))
Var[R(t1)] - no
avec n0 le nombre de composant initial.
d,
Var[R(t1)] (R(t1))2
n.(n d,)
où d : nombre de composants défaillants sur l'intervalle [té_1 ; t. [
nombre de composants censurés sur l'intervalle [té_1 ; t. [
ni : nombre de composants survivants à la date t., n. = n._1 - d - c..
p E [pmoya;pmoy+cr] à68.26%,
pe - 2o; Pmoy + 2cr] à 95.45%,
Annexe 3: Exemple.
1. Enoncé du problème.
Nous présentons ici l'exemple d'un échangeur bouilleur ou générateur de vapeur. Ce matériel a
de nombreuses applications dans différentes industries.
Principe:
Un fluide caloporteur va échanger sa chaleur avec un fluide froid qu'il va vaporiser, de façon à
produire de la vapeur de chauffage ou de la vapeur pouvant entraîner un groupe turbo-
alternateur.
Le point sensible de cet appareil est le faisceau tubulaire constitué de 3 300 tubes de diamètres
20 mm et d'épaisseur 1 mm. Les défaillances se manifestent sous forme de fuites dues à l'effet
néfaste des vibrations ou de la corrosion (soit interne du fait de la qualité du liquide
caloporteur soit externe à cause des boues disposées par le fluide en ébullition).
Données disponibles:
Nous disposons des données de retour d'expérience suivantes:
Nous disposons également de données subjectives issues de banque de données [BDIC, juillet
1998] qui sont relatives à un échangeur tout à fait similaire:
Nous traiterons par la suite cet exemple en considérant, dans un premier temps la totalité des
données de retour d'expérience; dans un deuxième temps nous traiterons une partie seulement
des données et nous montrerons que les méthodes bayésiennes présentent un intérêt certain
pour des cas où l'on dispose de peu de données.
2. Données complètes
k
2moy
Ici on a:
7=659677h
k =72
d'où
= 10.9 io-i déf./h
et donc, finalement
2 =9.3 i0 déf.Ih
2 = 12.7 i0 déf./h
2 = 10.9 i0 déf./h
f(2/T) = 2 k4.T
où k nombre total de défaillances,
7 temps total cumulé.
Ici on a:
= 659677 h
k = 72
r " i pour un
La distribution du paramètre de forme a0 est tabulée en fonction de log10 I I
['-inf J
niveau de confiance (1 y) égal à 80% ou 90% (voir table 33).
0,4 8 10
0,5 5 8
0,6 4 6
0,7 3 5
0,8 2 4
0,9 2 3
1 2 2
1,1 1 2
Table 33: tabulation de a0 à des risques 80% et 90%
on obtient log10
r
LmfJ
1=1.08 d'où lao =1.2 pour(1y)=80%.
a (1-y)=SO% (1-y)=9O%
1 100000 50000
2 500000 350000
3 1100000 770000
4 1700000 1350000
5 2500000 2000000
6 3200000 2500000
7 3940000 3350000
8 4600000 4000000
9 5540000 4800000
10 6200000 5200000
Ona /0 - b0.106
et finalement ß0 = 1.28 i0
L'analyse Bayésienne d'une telle distribution donne les résultats a posteriori suivants:
a = a0 + k = 73.2 déf.
= 667490 h
3. Données incomplètes
Faisons ici le même raisonnement que précédemment avec une partie seulement des données:
On obtient ici les données suivantes (on utilise la loi f pour estimer l'intervalle de
confiance):
27
"moy = 354823
- 7.6 10 déf./h
'mnf - 2*354823
- 5.8 i0 déf./h
2uP
x09(56)
- 2*354823
- 9.85 iø- déf.Ih
Résolution bayésienne
On voit bien sur cet exemple que si les données sont moindres, l'estimation Bayésienne
converge plus rapidement vers l'intervalle vrai et on pourrait montrer que la méthode est
d'autant plus puissante que les données disponibles sont peu nombreuses.
Nous présenterons ici l'application développée pour résoudre les problèmes de traitement des
données et la détermination des coefficients de Cox. Ce programme a été réalisé dans le cadre
d'un DEA encadré conjointement par M. LYONNET et moi même [B0U97].
Le programme réalisé devait être à la fois convivial, facile d'utilisation et le plus général
possible. Il masque les difficultés théoriques et les calculs complexes auxquels nous avons été
confrontés et qui présentent un intérêt mineur.
1. Démarche
Lorsque nous avons commencé à étudier le modèle de Cox, nous avons rapidement constaté
que le traitement des données serait un problème. Nous avons donc dans un premier temps
réalisé un programme sous Maple permettant de résoudre le système d'équations aux dérivées
partielles à l'aide de procédures et sous-programmes existants. Devant la nécessité d'avoir
rapidement des résultats numériques pour appuyer nos recherches théoriques, nous avons
choisi d'utiliser un logiciel de calcul évolué et adapté à ce genre de problème. Les calculs
préliminaires présentés en groupe de travail ont été calculés ainsi.
En revanche, lorsque nous avons commencé à maîtriser les connaissances théoriques et validé
ce modèle pour le traitement des essais accélérés, il nous est apparu indispensable de disposer
un programme plus convivial et permettant de pallier aux défauts liés à l'utilisation d'un
logiciel de calcul. En effet, seule une personne connaissant suffisamment bien Maple était
capable d'utiliser ce programme, et cela représente une formation de durée non négligeable. En
outre, il était indispensable de posséder le logiciel Maple pour pouvoir employer le programme.
Tous ces inconvénients nous ont conduit à utiliser un autre langage de programmation,
pouvant délivrer un fichier directement exécutable sans posséder le logiciel support pour la
programmation. En revanche, cela nous imposait de mettre en oeuvre notre propre algorithme
de convergence (voir chapitre ), et de trouver les formules littérales des dérivées partielles
puisque nous n'avons plus la possibilité d'avoir recours à des routines existantes. Nous avons
choisi l'environnement Delphi pour sa puissance de calcul et sa convivialité d'emploi. Le
programme réalisé est présenté ci après.
2. Capacités du programme.
Le but de ce travail n'était pas de mettre au point un logjciel à but commercial mais simplement
de concevoir et réaliser un outil de traitement ie 4nnées pour le iatoire TSL 4e
l'E.N.I.S.E. et le CETIM de Senlis Le respect du cahier des charges (à savoir une utilisatkn
facile et le plus générale possible) a dicté la réalisation4programme, p1uque-iergonomieet
l'interface avec l'utilisateur (il est parfois long de saisir ou ressaisir les données pour corriger
une erreur incongrue). II a été considéré que l'uti1isateur-vait -uffisaxnmenLde t'nnnainces
en fiabilité mécanique pour jugçr de la pertinence des résultats et qu'il était suffisamment
familier du modèle de Cox et de son traitement.
La précision des calculs a été fixée à 1O, précision jugée suffisante et engendrant un nombre
d'itérations, donc une durée de calculs acceptable.
US1EaUEMU.ANcES t J-
&UIUMER NOUHfl1DTh!RA11O$L.i
-
?81 9.000
L 2927.000
1576.000 2044.000 3121.000
2797.000 3306.000
1 4068000 4068000 4068000 4068000 4068000
4004 000 4004 000 4004.000 4004.000
4076.000 4076.000
4040.000 4040.000 4040.000
3044
Cet écran rappelle la valeur des paramètres d'environnement, et présente les valeurs du test du
y et du nombre d'itérations.
Le nombre d'itérations à été limité à 10000 pour éviter d'avoir à arrêter l'ordinateur en cas de
problème. C'est pourquoi ce nombre est affiché avec -les résultats : un nombre -d'itérations
élevé peut signifier que le résultat trouvé n'est pas correct. Cela n'arrive que dans le cas où le
nombre de données censurées est élevé, c'est-à.dire le nonibre4e défaillances-esttrop faible.
II est également possible de modifier les paramètres saisis en sélectionnant l'option "Modifier
les paramètres". Deux autres procédures sont en cours d'achèvement pour l'impression
(procédure opérationnelle) et la sauvegarde des résultats (procédure non opérationnelle pour
l'instant).
Le programme répond bien aux objectifs fixés puisqu'il permet de traiter toutes les
configurations de données possibles, les censures sont prises en compte quelle que soit leur
position.
Cette annexe regroupe des travaux que nous avons réalisés lors de la phase de
préparation de la phase expérimentale de notre doctorat.
Nous avons effectué une enquête auprès des industriels du groupe de travail afin de
recenser les modes de défaillances principaux des composants à tester ainsi que leurs
modes de fonctionnement et de fabrication.
Les documents présentés ci-après constituent une synthèse des information recueillies
auprès des industriels.
Sept industriels ont ainsi été visités et trois autres nous ont fait part de leur expérience
par courrier.
1. Vérins hydrauliques:
D'après une enquête réalisée auprès des fabricant.; dc matériel hydraulique (Juin-Juillet 1995)
Maintenabilitó pièces d'usure mal mauvaise conception client mécontent - montage pré-séne
A Aptitude définies dc l'ensemble - arrèt de fabrication - essais des perfmnances
N au montage (en particulier jrints) - essais d'endurance
A et au démontage manque d'informations - pas ou mauvaise - réparations impossibles - montage pré-série
pow le montage ou notice dc montage, - mauvais fonctionnement - essais des performances
le démontage démontage - voir autrcs fonction? - essais d'endurance
F Résister mauvaise résistance - protections insuffisantes - oxydation externe - essais dc tenue
O I l'environnement au milieu extérieur - mauvaise détermination - oxydation interne à l'environnement
N des préconisations
C d'utilisation
T Eire identifiable pas d'identification - mauvaise définition des - pas de pièces - contrôle visuel à la livraison
sur le vérin opérations de montage de rechange
- pas d'identification - psa d'interchangeabilité
Paliers 1. Assurer - absence -joint externe absent -pas de pression - contrôle visuel
l'étanchéité d'étanchéité - mauvais montage dans une chambre (fuite importante)
chambres du joint - mesure des pressicas
chambres - défaut d'usinage dans les chambres
vers - dilatation différentielle - pression réduite dans
l'extérieur - statique extrudé une chambre
extérieur
- perte progressive - dégradation du joint - baisse de pression - contrôle visuel,
¿étanchéité externe dans une chambre suintement
- aurpression
2. Assurer - absence - mauvais montage -pas de pression - contrôle visuel
l'étanchéité d'étanchéité des joints dynamiques dans une chambre (fuite importante)
sur la tige - défaut d'usinage - mesure des pressions
de piston - dégradation des joints - pression réduite dans les chambres
vers - usure locale de la tige dans une chambre
l'extérieur présence de pollution
- surpression - baisse de pression - contrôle visuel,
- corrosion de la tige dans une chambre suintement
3. Assurer - pas de guidage - usure des bagues - usure prématurée - impossible au début
le guidage -jeux importants entre joints dynamiques
de la tige tige et palier
4. Supporter - supportent mal les - mauvais calculs usure des paliers - rayures sur la tige
les efforts - géométrie incorrecte - usure de la tige - fuites externes
efforts - mauvais choix de - fuites externes
radiaux matériaux des bagues
ou paliers
- serrage important - défaut d'usinage - frottements élevés - mesure des vitesses de
- pollution - dégradation des déplacement
performances - mesure de la pression
différentielle
5. Assurer les - déplacement réduit -présence d'un corps - course hors tolérance - mesure de la course
butées fm étranger butée ¡butée
de course - déformation du palier
du piston - déplacement accru - déformation du palier - course hors tolérance
Tige 1. Coulisser - mouvement dégradé -corrosion - usure - fonctionnement dégradé - examen visuel
dans les paliers - traitement de surface
2. Transmettre - pas de transmission - rupture - non fonctionnement - examen visuel
déplacement - transmission - usure du filetage - fonctionnement dégradé
¡la charge dégradée - flambage
Piston 1. Transformer - effort nul - joint extrudé - fuites entre chambres - mesure des pressions
pression - rupture du piston - non fonctionnement dans les chambres
direntielle - usure de l'alésage
effort et - effort réduit - joint abimé - fuites entre chambres
déplacement - usure de l'alésage - fonctionnement dégradé
2. Transmettre - pas de transmission - grippage du piston - non fonctionnement - examen visuel du blocage
effort àla tige ¿effort . rupture piston/ti ge - démontage
2. Distributeurs hydrauliques:
3. Vérins pneumatiques:
D'après une enquête réalisée auprès des fabricants de matériel pneumatique (Juin-Juillet 1995)
A-34
J.-C. AUGEFévrier 1998
Annexe S. AMDE des vérins et distributeurs hydfrciuliques et pneumatiques
4. Distributeurs pneumatiques:
D'après une enquête réalisée auprès des fabricants de matériel pneumatique (Juin-Juillet 1995)
Partie puissance
1. Vérins hydrauliques
Objecttfdu plan:
3òfllC
Débroussailler et rechercher l'influence des facteurs et de leurs interactions (2 et ordre)
sur la dégradation du composant mesurée par son taux de flute.
On cherchera, dans le même temps, à appréhender les facteurs les plus importants, chiffrer
leurs interactions et modéliser le comportement au cours des essais des différents composants
en réponse aux niveaux de contraintes imposés.
Réponse choisie:
La mesure des taux de fuite pour les vérins se fera à l'aide d'un papier buvard pour l'étanchéité
au niveau de la tige, en recueillant l'huile fuyant dans un tube gradué pour l'étanchéité du
piston. Pour les distributeurs, on mesurera l'huile retournant au réservoir, les deux orifices de
service étant bouchés.
Les taux de fuite seront mesurés à intervalles réguliers, afin d'obtenir une évolution détaillée de
l'usure des composants. La périodicité des mesures a été choisie égale à une mesure par
semaine.
L es facteurs :
Pour les deux premières catégories on distinguera les facteurs qualitatifs et les facteurs
quantitatifs.
Pour la dernière on distinguera les facteurs bruit des facteurs bloc.
Un facteur bloc représente une condition expérimentale qui va inévitablement varier au cours
des essais et qui est susceptible de modifier un des autres facteurs. On tiendra compte des
facteurs blocs en regroupant les essais en blocs où le facteur est sensé ne pas varier.
Les facteurs bruit seront si possible maîtrisés; dans le cas contraire, ils seront aléarisés:
9 hygrométrie ambiante,
4 pression atmosphérique,
4 vibrations dues aux autres utilisateurs du hail d'essais,
4 fixation du montage pour éviter les vibrations dues au fluide,
4 opérateurs qui seront toujours les mêmes,
4 arrêts pour les mesures, de façon régulière et répétable,
4 défaillances de l'installation,
4 marque des composants.
Pour ce dernier facteur, il a finalement été choisi d'utiliser des composants standards provenant
de différents constructeurs. L'affectation des composants à chaque essai (c'est-à-dire à chaque
combinaison des facteurs objets de l'étude) sera effectuée de manière aléatoire.
Le facteur bloc du temps (saison) sera négligé car tous les essais seront effectués dans une
ambiance contrôlée, dans des enceintes isolées et la température ambiante sera ainsi totalement
contrôlée.
Pour des problèmes de durée d'essais, deux essais seront menés de front, dans quatre
conditions d'essais différentes, chaque essai comportant 3 composants.
ci Contraintes:
A priori, si on suppose que l'évolution de la réponse en fonction des facteurs est non linéaire, il
faut envisager des facteurs à 3 modalités (c'est-à-dire 3 valeurs différentes pour un facteur).
Nous nous intéresserons également aux interactions tant d'ordre 2 que d'ordre 3 (les
interactions sont les actions combinées de plusieurs facteurs en même temps).
Interactions soupçonnées:
Ordre 0:
Constante = moyenne de la réponse sur l'ensemble des essais
Ordre i
PMCU
Tf
Ta
Ordre 2:
PMCU*Tf
Tf*T a
Ordre 3:
PMCU*Tf*Ta
Enfin, contrairement à ce qui se passe pour le cas des facteurs à deux niveaux, les interactions
entre facteurs à trois niveaux sont contenues dans plusieurs colonnes (nombre de ddl des
interactions supérieur au nombre de ddl des facteurs) ce qui pose de graves problèmes lorsque
l'on cherche à réduire le nombre de combinaisons.
La complexité des problèmes avec des facteurs à trois niveaux rend quasi impossible
l'utilisation de plans d'expériences orthogonaux au sens strict ou même au sens large (cas où
tous les facteurs ne sont pas tous représentés dans les mêmes proportions).
Le but final du plan d'expériences étant de modéliser la réponse (taux de fuite) d'un composant
en fonction de facteurs, dont l'influence est a priori non linéaire (voir loi d'Arrhénius pour la
température par exemple), et de leurs interactions il convient de rechercher des plans plus
originaux, non orthogonaux. A ce titre, le plan central composite apparaît comme
particulièrement intéressant [BEN94J. En effet, ce type de plans intègre à la fois un plan
complet de facteurs à deux niveaux et des essais supplémentaires comportant une valeur
centrale qui permet d'évaluer la variance de répétabilité et des extrema qui permettent d'évaluer
la non linéarité pour les facteurs d'ordre 1. On notera cependant que, par rapport au modèle
choisi au départ, on perd l'information relative au caractère non-linéaire des interactions.
Dans le cadr
Essai Facteur 1 Facteur 2 Facteur 3
i o o o aleur centrale
2 1 1 1
3 1 1 -1
4 1 -1 1
5 1 -1 -1 plan
6 -1 1 1 complet
7 -1 1 -1
8 -1 -1 1
9 -1 -1 -1
a O non linéarités
a
10 O
11 O O facteur i
0 a non linéarités
a
12 O
13 0 O facteur 2
a non linéarités
14
15
0
0
0
0 a facteur 3
Table 38 plan central composite appliqué au cas des vérins hydrauliques
Si on appelle P, T et O les trois facteurs de notre étude, le plan d'expérience choisi permet
d'estimer un modèle de la forme suivante:
La valeur centrale et les extrema a et - a seront choisis en accord avec les industriels, la
valeur de a étant connue à partir du nombre N d'essais du plan complet (a = N°25 = 1.68).
On en déduit alors aisément les valeurs des niveaux correspondant au plan complet à deux
facteurs:
a
Niveau
min
max moy
60 35 0
1 moy a
72 45 14
min+ max 90 60 35
O moy 2
max moy. 108 75 56
i moy+
a
120 85 70
a max
Table 39 valeurs des niveaux des paramètres du plan central compos
Vérins hydrauliques
2. Vérins pneumatiques
Objectfdu plan:
On cherchera, dans le même temps, à appréhender les facteurs les plus importants, chiffier
leurs interactions et modéliser le comportement au cours des essais des différents composants
en réponse aux niveaux de contraintes imposés.
Réponse choisie.
On mesurera une chute de pression et on déduira par calcul le taux de fuite à partir de la loi des
gaz parfaits:
PV=nRT
Les taux de fuite seront mesurés à intervalles réguliers, afin d'obtenir une évolution détaillée de
l'usure des composants. La périodicité des mesures a été choisie égale à une mesure par
semaine.
L es facteurs :
Pour les deux premières catégories on distinguera les facteurs qualitatifs et les facteurs
quantitatifs.
Pour la dernière on distinguera les facteurs bruit des facteurs bloc.
Un facteur bruit représente un facteur susceptible de faire varier la réponse de manière
aléatoire en conditions réelles d'utilisation. Il est parfois possible de contrôler ces facteurs en
laboratoire.
Un facteur bloc représente une condition expérimentale qui va inévitablement varier au cours
des essais et qui est susceptible de modifier un des autres facteurs. On tiendra compte des
facteurs blocs en regroupant les essais en blocs où le facteur est sensé ne pas varier.
D
Facteurs objets de l'étud Facteurs controlés Facteurs perturbateurs
(autitatiws)
lieu
aitccedu1*ntreusai
qxddußude
(fili ¿*40 miaas)
caoecsaai Hz
pontderoséederair
c*iceutratkii iledeThr
4Juréeouk1kn&sgcderessai
nemire de manoeuvreu
F.cQurspatbivaus
Thcensbt
hygrnmóliie sinlänte
vltztion«baü deuser)
flxationdu montage
Les facteurs bruit seront si possible maîtrisés; dans le cas contraire, ils seront aléarisés:
4 hygrométrie ambiante qui pourra influer sur le point de rosée du fluide,
4 pression atmosphérique,
4 vibrations dues aux autres utilisateurs du hail d'essais,
4 fixation du montage pour éviter les vibrations dues au fluide,
4 opérateurs qui seront toujours les mêmes,
4 arrêts pour les mesures, de façon régilière et répétable,
4 défaillances de l'installation,
4 marque des composants.
Pour ce dernier facteur, il a finalement été choisi d'utiliser des composants standards provenant
de différents constructeurs. L'affectation des composants à chaque essai (c'est-à-dire à chaque
combinaison des facteurs objets de l'étude) sera effectuée de manière aléatoire.
Le facteur bloc du temps (saison) sera négligé car tous les essais seront effectués dans une
ambiance contrôlée, dans des enceintes isolées et la température ambiante sera ainsi totalement
contrôlée.
Pour des problèmes de durée d'essais, quatre essais seront menés de front, dans quatre
conditions d'essais différentes, chaque essai comportant 5 composants.
Contraintes:
A priori, si on suppose que l'évolution de la réponse en fonction des facteurs est non linéaire, il
faut envisager des facteurs à 3 modalités (c'est-à-dire 3 valeurs différentes pour un facteur).
Nous nous intéresserons également aux interactions tant d'ordre 2 que d'ordre 3 (les
interactions sont les actions combinées de plusieurs facteurs en même temps).
Interactions soupçonnées:
Ordre O:
Constante = moyenne de la réponse sur l'ensemble des essais
Ordrel
PMCU
Tf
Ta
Ordre 2:
PMCU*Tf
Tf*Ta
Ordre 3
PMCU*T1sTa
Pourtant, avec des facteurs à trois niveaux, on se heurte à des problèmes de résolution des
plans qui ne permettent pas d'appréhender les interactions d'ordre 2. En effet, pour un plan de
résolution R, les facteurs d'ordre x sont confondus avec les interactions d'ordre R - x. Les
plans existant pour des facteurs à trois niveaux sont de résolution 3 ce qui confond les facteurs
d'ordre i et les interactions d'ordre 2 (3 - 1).
Enfin, contrairement à ce qui se passe pour le cas des facteurs à deux niveaux, les interactions
entre facteurs à trois niveaux sont contenues dans plusieurs colonnes (nombre de ddl des
interactions supérieur au nombre de ddl des facteurs) ce qui pose de graves problèmes lorsque
l'on cherche à réduire le nombre de combinaisons.
La complexité des problèmes avec des facteurs à trois niveaux rend quasi impossible
l'utilisation de plans d'expériences orthogonaux au sens strict ou même au sens large (cas où
tous les facteurs ne sont pas tous représentés dans les mêmes proportions.
Notre problème cherchant à modéliser la réponse (taux de flute) d'un composant en fonction de
facteurs, dont l'influence est a priori non linéaire (voir loi d'Arrhénius pour la température par
exemple), et de leurs interactions il convient de rechercher des plans plus originaux, non
orthogonaux.
et des extrema qui permettent d'évaluer la non linéarité pour les facteurs d'ordre 1. On notera
cependant que, par rapport au modèle choisi au départ, on perd l'information relative au
caractère non-linéaire des interactions.
Dans le cadre de notre étude à trois facteurs, le plan central composite serait le suivant:
3 1 1 -1
4 1 -1 1
5 1 -1 -1 plan
6 -1 1 1 complet
7 -1 1 -1
8 -1 -1 1
9 -1 -1 -1
a O non linéarités
10
a
O
11 O O facteur i
0 a O non linéarités
13
12
0 a O
a
facteur 2
non linéarités
14
15
0
0
0
0 a facteur 3
Table 42 plan central composite appliqué au cas des vérins pneumatiques
Si on appelle P, T et O les trois facteurs de notre étude, le plan d'expérience choisi permet
d'estimer un modèle de la forme suivante:
-
La valeur centrale et les extrema a et seront choisis en accord avec les industriels, la valeur
de a étant connue à partir du nombre N d'essais du plan complet (a = (N)°25 = 1.68).
On en déduit alors aisément les valeurs des niveaux correspondant au plan complet à deux
facteurs (voir table 43).
Ce plan comporte 15 combinaisons ce qui est compatible avec nos contraintes. Le nombre de
répétitions pour une bonne estimation de la variance de répétabilité est de 6 pour le point
central, de 5 pour les autres essais.
A-48
J-C. AUGEFévrier 1998
Annexe 6. Flans d'expériences pour les vérins hyèauliques et pneumatiques
a
Niveau Valeur du facteur
min
max moy
PMCU (bar)
3
Tf (°C)
25
Ta (°C)
0
1 moy-
a
4.6 34 14
min+ max
O moy 7 47.5 35
2
max moy 9.4
i moy+ 61 56
a
a max 11 70 70
Table 43 valeurs des niveaux des paramètres du plan central composite
Vérins pneumatiques
1. Essais hydrauliques
EssaU
Pression Température de fluide Température ambiante
9øbar 60°C 35°C
I
i
--DH7 DM8
i
i
O 1000000
---
-.---
2000000 3000000
-.
4000000 5000000 6000000 7000000
Cydee effectués
'k
-
EssaL2
-
0
T.
500 1000 1500 2000
Kfloniétrage parceuni
2500 3000 3500
Kilométrage parcouna
.
o 1000000 2000000 3000000 4000000 5000000 6000000 7000000
Cycfri e0Idues
Essai 6
2. Essais pneumatiques
Essai].
/ WI
/-"
/ -.--W3
V?)
I
2005 4000
n.__ p-,.-.
WI -.- V?2
/
/-"
_W1
_VP3
2000 3000
- 4000
.uil
O I 2 3 4 3 6 0 3 IO II (2 13
Essai 2
/
o
--VP44
VP42
'oso
--
2000 3000 4000
--VP02 -a-V943
..VP44 VP45
Eaa pa.usastIqusa. E1 2.
ieitn dhfrbut.urs, prs.sio. appliqué. dii vrn 4
.aDP45 -a-DP
I
I
I 2 3 4 3 6 7 $ C IO II 12 II
CVd.. m.t.1. 61.4
--DP4S -.-0P44
I
I
O 1 2 3 4 3
Cid.. .IT,06 ()
7 0 lO II 12 13
Essai 3
-*-VP22 -.-VP23
%524 VPI3
Lisstess
-.-VP26
I06.óu.4. p...
--W23
-.-Vfl4 W2
1/ - -
e 2500 3000 4000
-DP24 -.-Dfl
; ; ; n
Ld .IT.dte ()
--DP25 ---Dflt
I;
Cd.. .lf.(.N ()
Essai 4
/ -.-VPS7
_._Vp39
__Vp01
-.u-VPOO
L6. ¡d4
2000 4
/ -..-VP57
-.-VP3,
-.-VPOI
5600
--VPSl
VP00
L0. 0.0"
--0P00 -.-DPOI
4 5 9 IO II 12 I)
O I 2 3 5
A-60
J.-C. AUGE - Février 1998
Annexe 7. Mesures de frites des composants hythvíuliques et pneumatiques
p
O I 2 3 4 3 7 5 0 IO II 12 13
N ()
Essai 5
.VP37
.VP3O --VP4O
.VP4I
Ici p-e.
.VP27 eVP30
i f
, --VP39
.VP4I Lâi.e te.,
!
-.-DP40 -s-DP4I
p- i
2
------
4 3 t 7 Io II I2 13
Cd M
4 - '-
0 1 2 3 4 3 7 0 0 Ii II 12 13
Cyd.. .ff.dst. ()
Essai 6
-.-VO47 -5V,«
-.--VO49
-Î
I-.-VPOI
-.-VP47 --VP4I
VP30
-'-Wit
'I
'me ¡000 4000
-..-DP50 -.-DP3I
3 4 3 ' 7 $ IO II I: Is
C3d «mii. (lU...
; 12 13
Essaii
Pression Température de fluide Température ambiante
4.6bar 61°C 14°C
-.-VP27
---VIlO
1/ ' -"
O 0500 2000 3000 4000
-.-VP27
-..-VP3O
VIlI LoIü..
n -
0500 2500 3000 4000
--0P30 ---DP3I
O I 2 3 4 3 0 7 0 9 IO II 32 33
-DP3O -.-DP3I
3 4 3 4 7 0 I0 II Il '3
Cd . (
Essai 8
--VPO2 ---VPS3
-*-VP34 --VPSO
-.-VP3 Láiui.iO.s
/ VPS2
3
/ -*-VP34
f-.-VP34
-.-VPSS
13..ung. p.*s
-.-DP3O -.-DP34
1:
2 3 0 7 $ I0 II 12 03
Essai 9
-.-VP32 -.-VP33
-.-VP34
-.-VP3O Li4.to..
t '"
--VP3S
I 's.. 3000
-..-DP33 -.-DP3
e
3 4 3 7 5 'o i2 13
c__ .fl.0mN
---DP3S -.-0P34
I 2 3 4 3 7 * IO ii 12 13
EssaUl
Pression Température de fluide Température ambiante
3bar 47.5°C 35°C
/ .
-...-w'z -s--W13
I
VPI4
wie -
Vp's
4000
tan 2000 3000
i
/ 'so.
-e- VPl3
Vp's
-'-DOIS -.-Dp,e
O 234 75 S'O
Cyd.. .fl...N (.)
12 13
-.-DPI3 DPU
3 4 3
Cd
£
-
7 $ I, II 12 '3
Essai 13
--
-.-W17 VPI$
Wit
vn,
-.-VPI7 -s-VPl$
-..-vp', --VP20
-.-VP21
A
1000
LflUU 2000
_,e P--
3000 4000
Dflt -.-DP2I
3 4 3 a 7 $ Is 32 '3
Dna -.-DP2I
13
N ()
Essai 15
i/' Vp,
I3..au,.. ,..
/ -.-vp7
-.-vP,
WIt
No
-.-vPs
VP,.
-.-DP? --DPI
- --DPO -.-DPIO
DPI'
AUTORISATION DE SOUTENANCE
Monsieur P. LYONNET
et les rapports de
Monsieur M. GABRIEL
Professeur des Universités - ESSTIN - 2, rue J. Lamour - 54500 VANDOEUVRE
et de
Spécialité: Mécanique
F. LEBOEUF
RESUME
Dans l'industrie, et notamment au niveau des fabricants de composants hydrauliques et
pneumatiques, il est de plus en plus important de maîtriser la fiabilité des produits fabriqués. Li.
détermination de cette fiabilité exige le développement de méthodes de réduction de la durée et
du coût des essais.
Les techniques bayésiennes sont une première étape vers la réduction des durées d'essais
nécessaires à l'estimation de la fiabilité. Une seconde consiste â modéliser l'influence de
l'environnement sur le comportement de composants afin de pouvoir estimer les performances
de ces composants dans des conditions données sans aucun essai.
La méthode que nous avons développée permet de calculàr I la fois les facteurs
environnementaux permettant de passer d'un essai ì un autre et la loi de fiabilité de base d'un
composant. Cet outil fournit un modèle complet de la fiabilité d'un composant; on détermine
alors la fiabilité à partir des valeurs des contraintes extérieures appliquées (pression,
température, fréquence...).
MOTS-CLES
ABSTRACT
In industiy, specially for fluid power components manufacturers, control of products reliability
is getting more and more important. Estimating reliability demands to develop new methods to
reduce time and cost of experiments.
A first step dealing with this problem can be to use bayesian methods. A second step can be to
determine a model of environment's influence on components' behaviour. Then, components'
performances can be estimated without any experiment.
Thanks to the designed method, both environment factors (used to deduce results in some test
conditions from others) and standard component reliability distribution (reliability distribution
of the component under so called "standard" conditions) can be estimated. The tool provides a
complete model of the component's reliability; reliability in given conditions can then be
calculated from the stresses values (pressure, temperature, frequency...).
KEYWORDS