Philippe Dessante HDR 015813
Philippe Dessante HDR 015813
Philippe Dessante HDR 015813
électrotechniques
Philippe Dessante
Mémoire
par
Philippe Dessante
Rapporteurs :
Fiche synthétique
3
Chapitre 1
CV scientifique
Mél : [email protected]
5
6 Chapitre 1 : CV scientifique
1.7 Encadrements
1.7.1 Thèses
– Khaled Almaksour : 33% Étude de l’émission de courant noir par une surface
soumise à un champ électrique intense et de ses mécanismes de transition à
l’arc, partenariat laboratoire LGEP, thèse de l’Université Paris-Sud/Supélec
, directeur de thèse : Philippe Testé (33%), co-encadrant Emmanuel Odic
(33%), soutenance prévue en 2013.
J’ai par la suite appliqué ces compétences acquises lors de cette étude à l’op-
timisation des systèmes de motorisation. Dans de nombreuses applications in-
dustrielles (spatiales, aéronautiques, automobiles, outillage portatif), il est né-
cessaire de minimiser la masse du système ou les pertes, tout en gardant les
performances constantes. La première étape a consisté à modéliser analytique-
ment les éléments (moteur, générateur, batterie, convertisseur, réducteur de vi-
tesse et transformateur de mouvement éventuel), à partir de simplifications des
modèles numériques éléments finis, pour relier les performances et les dimen-
sions. La seconde étape a consisté à mettre au point un algorithme d’optimisation
relativement ouvert afin de prendre en compte différentes contraintes et diffé-
rents objectifs en intégrant les modèles précédemment mis au point et validés.
Ainsi, diverses études ont porté sur la minimisation de la masse ou le volume du
système[52][51][49][48][43]. Une première optimisation multiobjectif (minimi-
sation du volume et des pertes) a été menée sur une pompe à carburant pour un
satellite[43].
Pour valider cette approche, une étude effectuée dans le contexte d’un pro-
jet de pôle de compétitivité a porté sur l’optimisation globale et multiobjectif
d’un système de motorisation et d’entraînement pour une application aéronau-
tique. Le système complexe composé d’éléments mécaniques et électriques (ré-
ducteur, transformateur de mouvement et moteur) a été modélisé par des fonc-
tions simples permettant de développer des algorithmes d’optimisation perfor-
mants. La double optimisation (simple et par front de Pareto) des pertes et de la
longueur du système a bien montré l’importance de l’agrégation des composants
1.8 Synthèse scientifique 15
dans l’optimisation.
Ces travaux se poursuivent actuellement au travers de la thèse de Benja-
min Dagusé portant sur l’optimisation globale d’un système de motorisation.
Les recherches s’orientent d’une part vers la parallélisation des codes de calcul
d’optimisation et d’autre part vers l’incorporation de modèles par éléments finis.
Dans la continuité de ces travaux sur les aléas et les incertitudes, il est apparu
nécessaire de développer des algorithmes d’optimisation robustes tenant compte
de ces incertitudes sur les fonctions objectifs ou les contraintes. Un travail explo-
ratoire a donc été mené lors de la thèse d’Henri Borsenberger en collaboration
avec Guillaume Sandou du département Automatique de Supélec. La gestion
d’un réseau de production, distribution ou stockage d’énergie est devenue un
enjeu tant économique que technique, devant respecter des contraintes environ-
nementales et législatives. Il est donc apparu nécessaire d’optimiser cette gestion
afin de maximiser le profit de fonctionnement du réseau tout en respectant les
contraintes imposées. Cette tâche s’est complexifiée du fait de la diversification
des sources d’énergie qui peuvent coexister dans un même réseau (électricité,
gaz, fioul, vapeur...). Par ailleurs, la modélisation de ce type de systèmes doit in-
tégrer les incertitudes liées à la méconnaissance ou à la simplification du modèle
(en vue de son optimisation) ou des incertitudes provenant de la nature prévi-
sionnelle de la planification du fonctionnement du système (demande réelle des
consommateurs, fluctuations économiques). La robustesse de cette gestion opti-
male est dès lors impérative, de sorte que les performances du système puissent
être garanties en dépit des différentes sources d’incertitudes. Lors de ce travail
1.8 Synthèse scientifique 17
de thèse, trois types d’incertitudes ont été pris en compte : sur la demande des
consommateurs, sur la capacité de production maximale, et sur les coûts de pro-
duction. Différents algorithmes d’optimisation ont été élaborés, en s’appuyant
sur les méthodes existantes dans le cas des méthodes déterministes (program-
mation dynamique et relaxation lagrangienne).
En partenariat avec Philippe Testé du laboratoire LGEP nous avons mené une
étude des défaillances sévères susceptibles de conduire à un amorçage de feu
sur circuit imprimé lors de la thèse de Michèle Nsoumbi. Ce travail basé sur
des mesures expérimentales et des simulations électrothermiques m’a permis de
mettre à profit mon expérience en modélisation par éléments finis acquise lors
de travaux sur la modélisation des machines électriques. Les expériences ont été
conduites jusqu’à rupture d’une piste de circuit imprimé aboutissant ou non à un
départ de feu. Le courant de fuite circulant dans le substrat s’est révélé être un
paramètre pertinent pour évaluer la dégradation du circuit imprimé. Un modèle
numérique électrothermique en trois dimensions développé sur cette structure
a permis de décrire et de valider la dominance d’un processus thermique jus-
qu’à la rupture de la piste. Un enregistrement détaillé des paramètres électriques
synchronisés à une cinématographie rapide au moment de la rupture a permis
d’identifier un mécanisme impliquant un décollement de piste au niveau du dé-
faut lié à un emballement de la température et du courant de fuite localisé. Ce
mécanisme a été associé à la présence d’un canal chaud au travers du substrat
conduisant à un échauffement important et localisé du matériau par effet Joule
susceptible de conduire à l’inflammation, ainsi qu’un entretien de chauffage du
substrat après rupture de la piste contribuant à entretenir et à propager le feu,
notamment par émission de composés inflammables.
21
Chapitre 2
Introduction
23
24 Chapitre 2 : Introduction
Optimisation et modélisation
technico-économique des réseaux
électriques
3.1 Introduction
27
Chapitre 3 : Optimisation et modélisation technico-économique des réseaux
28 électriques
3.2 Designs de marchés
Nos travaux se sont tout d’abord orientés vers l’analyse, la description et
la modélisation des formes que pouvait prendre le de marché de l’électricité au
travers de la thèse de Marcelo Saguan. Cette recherche s’inscrit dans l’analyse
économique des architectures de marché électrique. La construction d’une ar-
chitecture de marché est une condition nécessaire pour la création d’un marché
de gros d’électricité. Le manque de maîtrise rationnelle dans le choix des op-
tions optimales de design pousse ainsi à une recherche plus approfondie sur les
différents designs, prenant en compte les spécificités du bien électricité. Cette
recherche s’est appuyée sur un cadre d’analyse modulaire permettant de séparer
les problèmes du market design en autant de modules distincts. L’analyse modu-
laire a montré le rôle clé du module du temps réel qui constitue le noyau central
de toute architecture de marché électrique et où tous les échanges physiques
entre acteurs de marché se réalisent. Grâce à des simulations numériques, nous
avons montré que le design du module du temps réel n’est pas neutre vis-à-vis
de la séquence des marchés d’énergie et de la dynamique concurrentielle. Les
designs qui s’écartent du type « marché » et utilisent des systèmes de prix pé-
nalisant les transactions du temps réel devraient être évités, dans la mesure du
possible, car ils provoquent des distorsions, des inefficacités et peuvent créer des
barrières à l’entrée. Parallèlement, la fermeture des marchés forward, déterminée
par la position temporelle de la gate closure, devrait être le plus proche possible
du temps réel afin de diminuer l’ampleur de ces distorsions. Ce cadre forma-
lisé a permis ensuite d’évaluer les conséquences de l’intégration de modules du
temps réel entre deux zones de contrôle. Les résultats des simulations numé-
riques ont montré que l’intégration des modules du temps réel est fondamentale
pour la création de marchés régionaux. De surcroît, l’intégration de ces modules
doit être suivie d’une harmonisation adéquate des designs, afin que les effets de
l’intégration proviennent des caractéristiques économiques des systèmes élec-
triques intégrés et non des règles du design.
par les éoliennes est variable, peu prévisible et non contrôlable. Ces caractéris-
tiques distinguent la filière éolienne des filières de production dites « classiques
» pour lesquelles la production est très largement contrôlable et prévisible. À
cause de ces caractéristiques, l’intégration de la filière éolienne dans l’équilibre
production-consommation soulève des enjeux économiques et techniques im-
portants.
Ces enjeux de l’intégration de la production éolienne sont liés à une spécifi-
cité de la gestion du réseau électrique. À chaque instant, la production injectée
dans le réseau doit être égale à la consommation soutirée du réseau. La pro-
duction éolienne, par son caractère imprévisible, constitue ainsi un aléa pour
les systèmes électriques. La gestion de cet aléa revêt non seulement un en-
jeu technique - car la sûreté du réseau en dépend - mais également un enjeu
économique - car la gestion d’un aléa a un coût. Cependant, le défi technique
posé par la production éolienne n’est pas d’une nature entièrement nouvelle.
La problématique de gestion de l’équilibre du système n’est pas apparue lors
de l’émergence de la filière éolienne. D’une part, sur un réseau, la consomma-
tion d’électricité change sans préavis et constitue donc un aléa pour l’équilibre
production-consommation. D’autre part, les centrales des producteurs peuvent
subir des indisponibilités fortuites qui remettent également en cause cet équi-
libre. Depuis la libéralisation du secteur électrique, la gestion de l’équilibre du
réseau est organisée autour de deux étapes : les marchés de l’électricité et le
module du temps réel.
Dans le cadre de cette intégration de plus en plus importante de l’éolien
dans le mix énergétique de production, il est nécessaire de connaître l’impact
de cet aléa éolien sur les marchés de l’électricité. Ceux-ci permettent d’atteindre
un équilibre prévisionnel entre l’offre et la demande en électricité. Cependant
cet équilibre prévisionnel entre l’offre et la demande ne garantit pas, en temps
réel, l’équilibre physique entre la production et la consommation. C’est le mo-
dule du temps réel qui garantit en temps réel l’équilibre physique des injections
et des soutirages. Le défi technique imposé par le caractère imprévisible de la
production éolienne est donc relevé par deux modules de réalisation de l’équi-
libre : d’une part les marchés de l’électricité, en particulier ceux organisés du
jour pour le lendemain et en infrajournalier et, d’autre part, le module du temps
réel durant lequel un opérateur du système coordonne les injections et les sou-
tirages. L’enjeu économique de la gestion des systèmes électriques consiste à
minimiser les coûts de fourniture de la consommation, tout en respectant les
contraintes techniques et de sûreté du système. Dans une situation fictive d’in-
formation parfaite sur les conditions du temps réel, nous pouvons considérer
que la programmation optimale des centrales électriques est idéale. Dans la si-
tuation réelle d’exploitation du système électrique, les centrales sont program-
mées dans une situation d’information imparfaite sur les conditions du temps
Chapitre 3 : Optimisation et modélisation technico-économique des réseaux
32 électriques
» comme c’est le cas pour les études déterministe. De plus l’étude d’un grand
nombre de points de fonctionnement permet d’effectuer une analyse plus dé-
taillée de l’impact des EnR. Les points de fonctionnement défaillants ont ainsi
pu être analysés et caractérisés, les distributions de probabilité des tensions aux
nœuds, des transits, de la réserve du système ont été déterminées et analysées.
La méthode probabiliste a été appliquée à l’étude de raccordement d’une ferme
éolienne à un réseau de distribution. L’analyse du transit dans la ligne en amont
du point de raccordement montre que celui-ci est inversé et que les congestions
sont rares. Comparée à celle obtenue par la méthode déterministe, la capacité de
la ferme raccordable obtenue par la méthode probabiliste est plus grande moyen-
nant un risque d’écrêtement de la production. Pour un risque d’écrêtement rai-
sonnable, cette possible augmentation de la capacité raccordable de la ferme
comparée à la capacité raccordable obtenue en déterministe, permet d’accroitre
le productible annuel. Pour le cas d’étude d’un système insulaire, l’intégration
de 70 MW d’EnR (soit un taux de pénétration de 22,2%) ne modifie presque pas
la réserve et augmente globalement les tensions aux nœuds de raccordement.
Les transits sont inversés dans les lignes voisines des nœuds de raccordement.
De même le taux de pénétration maximal en puissance obtenu par la méthode
probabiliste est plus élevé que celui obtenu par la méthode déterministe.
polluants. Une telle réduction peut être facilitée par une gestion optimale et rai-
sonnée de la production.
La gestion d’un réseau de production, distribution ou stockage d’énergie
est devenue un enjeu tant économique que technique, devant respecter des
contraintes environnementales et législatives. Il apparaît donc la nécessité d’op-
timiser cette gestion afin de maximiser le profit de fonctionnement du réseau
tout en respectant les contraintes imposées. Cette tâche s’est complexifiée du
fait de la diversification des sources d’énergie, qui peuvent coexister dans un
même réseau (électricité, gaz, fioul, vapeur. . .). Par ailleurs, la modélisation de
ce type de système doit intégrer les incertitudes liées à la méconnaissance ou
à la simplification du modèle (en vue de son optimisation) ou des incertitudes
provenant de la nature prévisionnelle de la planification du fonctionnement du
système (demande réelle des consommateurs, fluctuations économiques. . .). La
robustesse de cette gestion optimale est dès lors impérative, de sorte que les per-
formances du système puissent être garanties en dépit des différentes sources
d’incertitude.
Il existe à l’heure actuelle relativement peu de travaux concernant la modé-
lisation et optimisation de réseaux multi-énergétiques, du fait de l’émergence de
ce type de problématique. Ainsi, ce sujet suscite un grand intérêt de la part des
industriels, confrontés à la complexité et interconnexion, de plus en plus accrues,
de leurs systèmes. Des travaux sur ce sujet ont été menés par le département Au-
tomatique lors de la thèse de Guillaume Sandou portant sur la modélisation et
optimisation d’un réseau d’énergie thermique. Les résultats scientifiques obte-
nus à l’issue de cette thèse sont encourageants et ont permis de discerner les
verrous existants et donc de mieux cibler les travaux de recherche. En effet, il en
est ressorti la nécessité de prendre en compte les incertitudes présentes dans le
système, notamment dans la détermination de la commande optimale du réseau.
De ce fait, un enjeu scientifique consiste en la détermination d’une commande
optimale robuste vis-à-vis des incertitudes.
Dans ce cadre, cette étude à visé à la mise au point de stratégies de gestion
optimale d’un réseau d’énergie. La détermination de cette commande optimale
doit, dans la mesure du possible, utiliser des procédures systématiques et géné-
riques, facilitant ainsi la transposition de la méthodologie développée à divers
types de réseau. Cette commande devra également être robuste vis-à-vis des in-
certitudes. En outre, un enjeu majeur est de mettre au point des algorithmes
numériques de résolution qui soient rapides, fiables et robustes.
Poursuivant les travaux initiés dans le cadre du projet Énergie de Supélec sur
l’optimisation des réseaux dans un contexte déterministe, le but de cette thèse a
été de rechercher des méthodologies assurant un pilotage robuste du réseau et
ce malgré plusieurs types d’incertitudes.
L’approche déterministe des problèmes d’optimisation sur des systèmes in-
3.4 Gestion de l’aléatoire et des incertitudes dans les réseaux d’énergie 39
certains donne des résultats imparfaits. Les optimums obtenus souffrent de deux
défauts :
– des résultats présentant des risques. Les algorithmes d’optimisation
poussent généralement le système en limite de fonctionnement. Les pa-
ramètres du système faisant varier le point de fonctionnement du système
et/ou ses contraintes, il est possible que la solution initialement faisable
dans le cas déterministe se retrouve être infaisable. On corrige générale-
ment ce défaut en imposant une marge arbitraire au système qui se traduit
généralement par une moins bonne performance de la solution. La solu-
tion ainsi obtenue devient donc sous-optimale.
– des résultats sous-optimaux. Lorsque les paramètres varient, de manière
générale le lieu de l’optimum varie aussi. Les paramètres incertains n’ont
pratiquement aucune chance d’être égaux à leurs estimations. Par consé-
quent le lieu de l’optimum obtenu a priori par la résolution du problème
déterministe n’est pas celui de l’optimum réel que l’on ne peut obtenir
qu’a posteriori après observation des paramètres.
L’optimisation de systèmes incertains est communément appelé optimisa-
tion stochastique ou optimisation robuste. Il est étonnant de constater à quel
point les deux termes optimisation et robuste peuvent être antagonistes. En ef-
fet, l’optimisation du fonctionnement d’un système conduit généralement à se
placer en limite de contraintes, alors que la robustesse cherche au contraire à
s’en éloigner en prenant des marges de sécurité. Les premiers développements
en matière d’optimisation stochastique datent des années 60. Les algorithmes et
la théorie ont connu un essor récent ces 20 dernières années particulièrement
dans les problèmes en chimie et en économie ([AP98], [BN02], [BN99], [Sah04]).
Les méthodes développées dans ce domaine font souvent appel à des propriétés
inhérentes à leurs applications ce qui les rend parfois délicates à appliquer aux
problèmes d’énergie.
La première difficulté rencontrée dans des problèmes d’optimisation stochas-
tique par rapport cas déterministes est la complexification de problèmes déjà
complexes. En effet, dans la plupart des problèmes posés chaque incertitude
ajoute une dimension de complexité au système, ce qui a des répercussions in-
évitables sur le temps de calcul.
La deuxième difficulté est un problème théorique. En général, un optimum
stochastique est l’optimum qui minimise l’espérance du critère, ou son écart
type. Dans les problèmes de planification pour les réseaux d’énergie en parti-
culier, on s’intéresse généralement à l’espérance des coûts de production. Ce-
pendant le calcul de cette espérance n’est pas aisé. Les systèmes ne sont pas
linéaires et le temps de calcul pour évaluer la fonction critère est une barrière
pour le calcul de l’espérance sur le domaine d’incertitude. Par ailleurs, l’objectif
étant d’optimiser une suite de décisions échelonnées dans le temps, ces déci-
Chapitre 3 : Optimisation et modélisation technico-économique des réseaux
40 électriques
sions peuvent être amenées à être modifiées selon les réajustements des prévi-
sions. Ces réajustements utilisent les nouvelles données acquises au cours du
temps : nouvelle données météo, écart de la consommation par rapport aux
prévisions. . . L’intégration du réajustement dans des problèmes d’optimisation
robuste fait appel à la notion de recours, qui est un thème central en optimisa-
tion stochastique. Les travaux dans ce domaine font appels à des méthodes de
programmation dynamique stochastique ([PCW00][GR]) et des méthodes multi-
stage stochastic programming [DR97].
Nous avons étudié les incertitudes suivantes, motivées par des problèmes
industriels réels :
– incertitude sur la demande des consommateurs. Ce type d’incertitude est
présent sur la quasi-totalité des réseaux d’énergie, car la demande de
consommation ne peut être que prédite. La contrainte d’équilibre consom-
mation / production est une contrainte forte des réseaux électriques pour
en assurer le bon fonctionnement et la stabilité.
– incertitude sur la capacité de production maximale. Ce type d’incertitude
est présent lors de l’utilisation d’énergies renouvelables telles que l’énergie
photovoltaïque ou l’éolien dans les réseaux électriques, ou encore dans les
réseaux de chaleur avec l’utilisation d’incinérateurs de déchets.
– incertitude sur les coûts de production. Ce type d’incertitude est présent
sur presque toutes les installations, car les caractéristiques de production
sont souvent identifiées à partir de points de mesure. Un cas particulier
qui pourra avoir son importance dans l’avenir est celui des usines de co-
générations. En effet, si le prix de revente devient indexé sur le prix du
marché de l’électricité, alors de telles installations rentreront exactement
dans ce cadre.
Les méthodes développées pour prendre en compte ces incertitudes appa-
raissent comme des extensions de la méthode choisie pour la résolution du pro-
blème déterministe, à savoir l’utilisation de la programmation dynamique et de
la relaxation lagrangienne. Ceci est un point fort de nos travaux car les schémas
classiques d’optimisation utilisés dans le cas déterministe restent utilisables.
3.5 Conclusion
Dans ce chapitre, nous avons traité de la modélisation et de l’optimisation
technico économique des réseaux électriques de transport ou de distribution.
Nous avons dans un premier temps étudié les effets de la dérégulation et de la sé-
paration des entreprises de réseau de de production. Puis, au vu de l’insertion de
plus en plus importante des énergie renouvelables photovoltaïques et éoliennes,
nous avons cherché à comprendre les incidences induites par cette augmenta-
3.5 Conclusion 41
tion. Nous nous sommes intéressés aux études de raccordement des moyens de
productions aléatoire, puis nous avons cherché à développer de nouvelles tech-
niques d’optimisation qui prennent en compte ces incertitudes. En parallèle à ces
travaux, nous avons appliqué les algorithmes d’optimisation développés au cas
des machines électriques et plus particulièrement des systèmes de motorisation.
Ce développement fait l’objet du chapitre suivant.
Chapitre 3 : Optimisation et modélisation technico-économique des réseaux
42 électriques
43
44 Chapitre 4 : Optimisation et modélisation des machines électriques
Ω
θ
ibat iM
Cem
Ubat uM ρr
Ωr
Cr
θr
ρt
DC/DC Converter
LOAD
γ
v
Lead Screw Device
x
0.2
M
m
M
r
[M +M ]/2
0.18 m r
0.16
0.14
r
M ,M
m
0.12
0.1
0.08
0.06
0.04
5 5.5 6 6.5 7 7.5 8 8.5 9 9.5 10
r 4
x 10
max
sation. Le premier réalisé lors de la thèse de Xavier Jannot, présente une forme
originale de problème d’optimisation : la réduction des coûts de fabrication d’une
gamme d’alternateurs. Il s’agit encore une fois d’optimisation système, bien que
celui-ci n’est pas cette fois ci composé d’éléments physiques, mais plutôt de
types d’alternateurs dans une même gamme.
Par la suite, nous présenterons une première réalisation d’optimisation d’un
convertisseur de puissance. Cette optimisation multi-objective servira de base
pour une conception future complète du système de motorisation : batterie,
convertisseur d’énergie, réducteur de vitesse, convertisseur de mouvement, mo-
teur.
Optimisation mono-objectif
X
W RSGcost = weight.materialcost (4.1)
Les contraintes peuvent être séparées en deux types. Les premières portent
directement sur les variables d’entrées du problème, aussi appelé paramètres de
l’optimisation. Ce sont les bornes de recherche et sont figurées dans le tableau
4.1.
WRSG’s parameters Initial design Range
Outer stator diameter [mm] 390 [390,420]
Inner stator diameter [mm] 270.5 [255,290]
Slot diameter [mm] 317.5 [300,360]
Tooth width [mm] 10.2 [5,24]
Rotor pole width [mm] 86.5 [70,100]
Rotor pole opening factor 0.7045 [0.6,0.8]
Machine length [mm] 410 [210,420]
Conductor number 6 [5,12]
Relative cost 1
Table 4.1 – Paramètre de la machine à optimiser et leurs bornes
Le second type de contraintes porte sur des grandeurs calculées par la mo-
délisation. Les températures du stator et du rotor ne doivent pas augmenter au-
dessus de 125K. Les rendements doivent être supérieurs à une certaine valeur
dépendant de la puissance de la machine considérée. Ces contraintes sont indi-
quées dans le tableau 4.2.
Quantity Constraint
Stator temperature rise < 125K
Rotor temperature rise < 125K
125kVA WRSG efficiency η > 91.6%
165kVA WRSG efficiency η > 91.7%
180kVA WRSG efficiency η > 91.7%
Table 4.2 – Contraintes de l’optimisation sur les valeurs de sortie
Une première approche est d’optimiser le coût de chaque machine prise sé-
parément. Cela conduit à la réalisation de trois calculs dont le résultat nous don-
nera le coût minimum de fabrication d’une machine si celle-ci était la seule à être
50 Chapitre 4 : Optimisation et modélisation des machines électriques
produite. D’un point de vue industriel cette approche n’est pas réalisable car elle
conduit à trois sections de rotor différentes. Cela oblige le constructeur à déve-
lopper des chaînes de production différentes pour chaque machine et ne permet
aucune mutualisation des processus des fabrication. Les résultats des optimisa-
tions pour ces trois machines de puissance différente sont présentés dans le ta-
bleau 4.3. D’après ces résultats, les machines 165kVA et 180kVA optimisées sont
en limite de contrainte pour les températures de rotor et de stator ainsi que sur
le diamètre extérieur du stator. Pour la machine 125kVA, la butée en contrainte
se fait cette fois-ci sur la température du rotor et sur le rendement. Ces résultats
sont en accord avec l’expérience de conception de machines : les machines les
plus volumineuses sont en général limitées par la hausse de température, alors
que les machines plus petites sont connues pour avoir des rendements moins
performants.
trois machines ne seront différentes que par le nombre de conducteurs dans les
encoches et leur longueur. L’approche classique, présentée ici pour des raisons
de comparaison, se base sur l’optimisation de la machine la plus contraignante
(la plus puissante en générale) puis le nombre de conducteurs et la longueur
des autres machines sont optimisés en imposant la même section. En se basant
sur les résultats précédents pour la machine 180kVA et en optimisant le nombre
de conducteur et la longueur des machines 165kVA et 125kVA, on obtient les
résultats du tableau 4.4.
Cette optimisation nous donne des résultats moins optimaux que celles
mono-objectif réalisées pour chaque machine prise séparément, mais permet
une mutualisation des processus de fabrication entrainant une diminution des
coûts. Les coûts relatifs sont à comparer à la conception initiale des machines
dans le tableau 4.1.
Une autre possibilité serait de prendre comme optimisation initiale celle
d’une machine de plus faible puissance, puis augmenter la longueur jusqu’à trou-
ver celle correspondant aux puissances 165kVA et 180kVA. L’algorithme d’opti-
misation nous montre que cela n’est pas faisable, car dans ce cas aucune solution
optimale n’est trouvée. En effet l’augmentation de la longueur de la machine est
plus grande que la limite haute fixée dans les contraintes. Cela confirme bien
l’approche faite par les constructeurs qui permet en plus de garder la gamme
de machine dans un volume donné. Mais fixer la section à partir de la machine
52 Chapitre 4 : Optimisation et modélisation des machines électriques
un rendement. On trouve alors les nuages de points : indiqué par des o pour les
machines à 180kVA et des + pour les machines 165kVA. Ces points ne forment
pas une courbe, mais sont répartis en plusieurs paquets. On observe une coupure
vers 1.0 en coût et .93 en rendement.
La figure 4.5 peut être une aide précieuse pour aider au choix des carac-
téristiques d’une gamme de machine. En effet, on s’aperçoit qu’il vaut mieux
pénaliser un peu le rendement (au-dessous de 0.93) de la machine 125kVA ou
son coût (au-dessous de 1) ; les rendements des autres machine de la gamme s’en
trouvant largement améliorés. D’autres recherches sur ce sujet sont en cours et
ont donné lieu à une publication actuellement en cours d’examen.
quoi nous avons travaillé avec Pierre Lefranc et Xavier Jannot sur l’optimisation
et le prototypage virtuel d’un convertisseur de puissance dc-dc de type hacheur
abaisseur. Cette étude a fait l’objet d’un article accepté dans le journal IET Power
Electronics. Ce type de convertisseur est largement utilisé, que ce soit dans les
applications domestiques, automobiles ou aéronautiques. Les contraintes élec-
triques, thermiques, mécaniques, d’encombrement, et de coût imposées par les
constructeurs requièrent une approche de dimensionnement par optimisation
multiphysique qui doit prendre en compte les divers impacts de l’environnement
sur le convertisseur, mais aussi ceux induits par le convertisseur lui-même. Di-
verses approches ont déjà été proposées dans la littérature, ainsi des techniques
d’optimisation ont été développées pour le prototypage d’un convertisseur ha-
cheur multi-phase [HAD05], mais aussi pour un abaisseur (buck) DC-DC pour
une application automobile [TD03] et pour des convertisseurs DC-DC faible ten-
sion [XTF97]. D’autres auteurs se sont focalisés sur des techniques de prototy-
page virtuel en plusieurs étapes : ceci permet aux concepteurs de commencer
à donner des premiers éléments de réponse sur la définition du convertisseur.
On parle alors de pre-dimensionnement. Dans un second temps, le concepteur
affine ses choix, les modélisations, les optimisations afin de définir de plus en
plus précisément le système [KCPC09]. Le pré-dimensionnement est très impor-
tant dans le cas d’applications industrielles avec une forte contrainte sur le coût
(automobiles par exemple). Le but de ce travail a été de proposer une technique
de prototypage virtuel à l’aide d’une optimisation bi-objectif dans le contexte
d’une application industrielle. Pour cet exemple, les données des composants du
convertisseur (MOSFETS, diodes et échangeurs de chaleur. . .) sont issus directe-
ment des données techniques des constructeurs. Nous nous sommes intéressés
en guise d’application et d’exemple au prototypage d’un hacheur abaisseur (24V-
12V) d’une puissance d’un kW sans filtre d’entrée. Les variations de la tension
d’entrée et de la puissance de sortie ont été prises en compte dans la formulation
des contraintes : la tension d’entrée vi varie entre 20V et 30V, et la puissance de
sortie entre 100W et 1kW.
La méthodologie de prototypage virtuel appliquée ici au convertisseur abais-
seur peut être appliquée aux autres convertisseurs continu-continu en adaptant
les contraintes. Comme précédemment, un modèle simple (permettant l’optimi-
sation) a du être développé, et il sera présenté dans la prochaine section où il
servira de point d’entrée des méthodes d’optimisations dont les résultats seront
exposés dans la section 4.3.3.
vo
d= (4.3)
vi
4.3 Prototypage virtuel en électronique de puissance 59
P vi (1 − d) d
iLM = + (4.4)
dvi 2LF
P vi (1 − d) d
ilm = − (4.5)
dvi 2LF
vi d (1 − d)
∆vo = (4.6)
8LCF 2
Ces équations servent de point de départ à la modélisation des pertes dans
les composants du convertisseur. Nous avons considéré les pertes par conduction
et par commutation dans l’interrupteur MOSFET et par conduction seulement
dans la diode. Pour le MOSFET, l’évaluation des pertes par conduction se fait en
fonction des tensions d’entrée et de sortie, de la puissance de sortie, de la période
de fonctionnement, de l’inductance, mais aussi de l’évaluation de la température
de jonction entre le composant et le boitier TjK . Finalement une relation pour
les pertes par conduction dans le MOSFET est donné par une équation du type :
De la même manière, les pertes par commutation sont fonction des tensions,
de la puissance, de l’inductance et de la période de fonctionnement :
objectifs, qui –nous le verrons dans les résultats– sont contradictoires ou en op-
position. Il s’agit pour le premier de proposer un dimensionnement le plus petit
possible (optimisation du volume du convertisseur) et pour le second d’optimiser
le rendement (diminuer les pertes).
Le rendement η est défini classiquement par le rapport entre la puissance de
sortie et la somme de celle-ci et des pertes :
P
η= (4.12)
P + PK + Pdcond + Piron,vol volcore + Pcopper
Il dépend fortement du point de fonctionnement comme constaté sur la fi-
gure 4.10 qui montre la variation de celui-ci en fonction de la puissance et de
la tension d’entrée. Les spécifications techniques imposent en général un rende-
ment minimum qui est défini par :
F1 = min η (4.13)
vi ,P
Nous reprenons ici, cette définition pour le premier objectif de notre optimi-
sation. Le volume total du convertisseur est notre deuxième objectif, il est défini
par le volume du plus petit parallélépipède entourant le dissipateur (figure 4.11).
En négligeant le volume du circuit imprimé, le volume total est défini par :
Les huit variables d’optimisation sont données dans le tableau 4.10, ainsi que
leur domaine de variation respectifs.
62 Chapitre 4 : Optimisation et modélisation des machines électriques
28 0.97
27
0.965
26
Ve [V]
25 0.96
24
0.955
23
22
0.95
21
20
100 200 300 400 500 600 700 800 900 1000
P [W]
Quantité Contrainte
CCM condition iLm > 0
Output voltage ripple ∆vo < kvo vo
Current density J < 10 A.mm−2
Junction temperatures (TjK , TjD < 130◦ C
Induction magnétique dans la ferrite BM < 0, 3T
Geometric constraint n.s < kf .A
Inductor temperature Tcore < 80◦ C
Table 4.11 – Contraintes de l’optimisation du convertisseur abaisseur
surer que l’inductance ne soit jamais saturée pour un matériau ferrite de type
3F3.
Résultats La figure 4.12 montre le résultat du front de Pareto reliant les ob-
jectifs de volume en abscisse et de rendement en ordonnée. Le rendement va-
rie entre 92,6% et 94,6% (convertisseur avec le moins de perte). Le volume est
lui compris entre une valeur minimale de 1, 4 × 106 mm3 et un encombrement
maximal de 7, 6 × 106 mm3 . Rappelons que les réalisations faisables sont toutes
situées en dessous de cette courbe. Pour démontrer la robustesse de l’optimisa-
tion, l’algorithme a été appliqué plusieurs fois. Nous obtenons les courbes de la
figure 4.13 qui se superposent.
95
94.5
94
Efficiency [%]
93.5
93
92.5
92
0 1 2 3 4 5 6 7 8
Buck converter external volume [m3] x 10
−3
Ce front de Pareto nous permet dans un premier temps de qualifier les confi-
gurations possibles et d’aider au choix pour le constructeur. Sa forme très incur-
vée nous indique qu’un choix logique serait de situer les paramètres autour du
point d’abscisse 2 × 106 mm3 . Mais le front de Pareto n’est pas le seul outil dis-
ponible, il est aussi intéressant d’observer les variations des autres paramètres
ou contraintes de l’optimisation le long de cette courbe. Ces observations per-
mettent aussi de prendre en compte des contraintes non exprimées ici car diffi-
ciles à quantifier, telle que le coût (automobile) ou la fiabilité (aéronautique).
95
94.5
94
Efficiency [%]
93.5 front 1
front 2
front 3
93 front 4
92.5
92
0 0.002 0.004 0.006 0.008 0.01
Buck converter external volume [m3]
on choisira plutôt sur la droite. Bien sûr, il faut tenir compte de la forte courbure
du front et ne pas trop pénaliser le deuxième paramètre.
130 95
TjK 94.8
Tjd 94.6
128 η 94.4
94.2
126 94
Temperature [°C]
Efficiency [%]
93.8
93.6
124
93.4
93.2
122 93
92.8
92.6
120
92.4
92.2
118 92
0 0.002 0.004 0.006 0.008 0.01
3
Buck converter external volume [m ]
4
x 10
10 95
F 94.8
9 η
94.6
94.4
8
94.2
7 94
Frequency [Hz]
Efficiency [%]
93.8
6
93.6
93.4
5
93.2
4 93
92.8
3
92.6
92.4
2
92.2
1 92
0 0.002 0.004 0.006 0.008 0.01
3
Buck converter external volume [m ]
sées (ou leur prise en compte conduirait à des calculs lourds). Il faut une ana-
lyse supplémentaire sur tous les paramètres et résultats pour aider à la décision,
68 Chapitre 4 : Optimisation et modélisation des machines électriques
4.4 Conclusion
Le thème principal de ce chapitre à été de présenter notre recherche sur
l’optimisation des machines électriques. Après avoir introduit la problématique,
où nous avons montré l’importance de l’optimisation système, nous avons pré-
senté deux exemples de l’optimisation des éléments des chaînes de motorisa-
tion électrique. Dans le premier, nous avons introduit une nouvelle technique
d’optimisation d’une gamme de machines suivant leur puissance. Cette nouvelle
approche permet des gains relativement importants face aux volumes pouvant
être concernés par les fabricants. Nous avons aussi traité au cours de cet exemple
d’une double optimisation sur les coûts de fabrication et les rendements. Le front
de Pareto construit, permet de choisir entre l’investissement ou les coûts de fa-
brication mais aussi entre les coûts d’utilisation.
Enfin, sur un deuxième exemple, nous avons introduit l’optimisation d’un
convertisseur de puissance, et ce dans le but de prendre en compte cet aspect
dans l’optimisation globale des systèmes.
Dans le prochain chapitre, nous nous intéresserons à la modélisation et à la
compréhension des phénomènes physiques, en prenant comme fil conducteur la
fiabilité des systèmes liée aux contraintes des optimisations.
4.4 Conclusion 69
5.1 Introduction
C’est ce que nous avons réalisé par le biais de collaborations avec Philippe
Testé du Laboratoire de Génie Électrique de Paris (LGEP), Emmanuel Odic et
Mike Kirkpatrick du département Énergie de Supélec. Cette collaboration à
donné lieu à plusieurs thèses, dont deux que nous allons présenter plus en dé-
tail. Dans la première, nous nous sommes intéressés à l’étude des mécanismes
pouvant donner lieu à l’inflammation d’une carte de circuit imprimé.
71
72 Chapitre 5 : Modélisation des phénomènes physiques
Figure 5.2 – Photo recto (a) et verso (b) du circuit imprimé étudié après inflam-
mation
Contrairement aux défaillances de fiabilité, couramment observées, liées à
des défauts apparaissant sur de longues durées (plusieurs centaines ou milliers
74 Chapitre 5 : Modélisation des phénomènes physiques
ont principalement été observés à l’issue des essais et ont conduit à définir dif-
férents types de rupture de piste à savoir :
– la simple coupure de piste ;
– la coupure de piste accompagnée d’une inflammation visible (quelques se-
condes) ;
– la coupure de piste accompagnée d’une inflammation visible et entretenue
(durée supérieure à 10 secondes).
Le courant de fuite, circulant au travers d’un substrat entre les deux pistes po-
larisées, a été identifié comme paramètre indicateur de l’état de détérioration
du matériau. En effet, au cours d’un échauffement croissant, trois phases se dis-
76 Chapitre 5 : Modélisation des phénomènes physiques
tinguent principalement :
– une première phase durant laquelle l’intensité du courant de fuite est
faible (< 10 µA) ;
– une deuxième phase, dite de conduction, au cours de laquelle on observe
une augmentation significative du courant de fuite (< 1 mA) ;
– et une dernière phase d’emballement à l’issue de laquelle interviennent la
coupure et l’inflammation de la carte.
Les résultats expérimentaux enrichis par les cartographies thermiques de surface
et les mesures de résistivité électrique en fonction de la température ont été
confrontés aux résultats d’une simulation numérique par éléments finis réalisée
à l’aide du logiciel COMSOL.
La Figure 5.6 illustre la géométrie du modèle considéré pour les simulations.
Cette géométrie se compose de 3 volumes :
– au premier plan, la piste est définie par trois sections (2mm, 1,5mm et
2mm) et par son épaisseur (33µm) ;
– au second plan, le substrat d’une épaisseur de 0,4mm, d’une longueur de
60mm et d’une largeur de 25mm, sur lequel repose la piste ;
– le plan de masse (33µm d’épaisseur), situé au verso et occupant la même
surface que le substrat, qui n’est pas visible sur ce schéma en raison de sa
faible épaisseur par rapport au substrat.
Une étude temporelle couplant les phénomènes électriques et thermiques
a été menée, un exemple de calcul est représenté sur la figure 5.7. L’évolution
de la cartographie de température simulée montre l’échauffement localisé au
niveau du défaut de la piste, mais aussi la relativement bonne répartition de la
température le long de la piste.
En complément on trouvera sur la figure 5.8 une comparaison des tempé-
ratures expérimentales et simulées le long d’un profil transversal à la piste au
niveau du défaut qui montre une cohérence des résultats. Cette bonne adéqua-
5.2 Étude des mécanismes d’inflammation d’un matériau isolant en présence
d’un point chaud d’origine électrique 77
tion entre modèle numérique et expérimental n’est par contre pas respectée sur
un temps plus long comme le montre la figure 5.9. Ceci met en évidence l’exis-
tence de phénomènes non pris en compte dans la simulation numérique et qui
5.2 Étude des mécanismes d’inflammation d’un matériau isolant en présence
d’un point chaud d’origine électrique 79
feu.
Le modèle numérique nous a aussi permis d’avoir accès à une cartographie
de la répartition du courant de fuite au sein du matériaux sur la figure 5.10. On
note que la densité de courant est concentrée autour du défaut, ce qui corrobore
les hypothèses faites lors de ce travail.
Le courant de fuite est donc apparu non seulement comme un indicateur de
l’état du circuit imprimé, mais aussi comme un facteur aggravant d’une part, en
facilitant le départ de feu et d’autre part, en contribuant à son entretien et à sa
propagation sur le circuit imprimé.
À l’aide des cartographies thermiques, une estimation de la surface échauf-
fée, à travers laquelle le courant de fuite était susceptible de circuler, a montré
que la contribution de celui-ci à l’échauffement global de la carte était négli-
geable au cours de cette phase. La modélisation numérique en 3-D de l’échauf-
fement d’un circuit imprimé double face, d’une épaisseur de 0,4mm, a permis de
calculer la distribution de la tension et de la température à l’intérieur de celui-ci.
5.2 Étude des mécanismes d’inflammation d’un matériau isolant en présence
d’un point chaud d’origine électrique 81
Une bonne corrélation a été obtenue entre les résultats expérimentaux et ceux
issus du modèle numérique. La transition menant à la dernière phase, attribuée
au décollement de la piste du substrat, a également pu être modélisée. Au cours
de cette phase, un emballement de la température est visualisé, aussi bien à la
surface de la carte que dans le volume, où des points chauds apparaissent. À
ce moment-là, l’intensité du courant de fuite, très élevée, est représentative de
l’état de dégradation du substrat. Dans ces conditions, l’enregistrement du cou-
rant de fuite peut être considéré comme un paramètre indicateur de l’état de
détérioration du matériau. Dans le cas de cartes double face, la persistance du
courant de fuite apparaît comme un facteur aggravant permettant l’entretien de
l’inflammation sur la carte.
82 Chapitre 5 : Modélisation des phénomènes physiques
On peut classer les phases de préionisation avant le passage à l’arc d’un es-
pace interélectrode en deux types de développement spatial. Le premier est un
mode diffus avec une apparence quasi uniforme. On se réferre à cette extension
spatiale comme étant une décharge glow, diffuse ou corrona. Un exemple d’une
telle décharge est présentée sur la photographie de la figure 5.16 où une décharge
glow est obtenue dans l’argon à faible pression.
Le second type est une décharge filamentaire, fortement non-uniforme dans
l’espace et présentant un aspect transitoire et des branchements importants. Ces
décharges sont appellées en général streamers, dards ou filamentaires et sont gé-
néralement obtenues à haute pression dans les gaz électronégatifs comme l’air
et particulièrement avec des électrodes à fort rayon de courbure. Ce paragraphe
traitera plus particulièrement de ce type de décharge, la section 5.3.2 s’intéres-
sera plus particulièrement à la transition entre un glow et un arc électrique dans
l’argon à faible pression.
Figure 1. Coronas: left, sketch of the glow region (A) versus streamers region (B). Top right:
the dc glow current, and the increased total current due to streamer. Bottom right: the repetitive
streamersFigure
intermittent voltage
5.12 and current. Solid
– Description lines, under
d’une spark threshold;
décharge dotted lines above
pointe-plan
spark threshold with insets for details.
as parallel plate configuration and non-electronegative gas, hoping to keep complete control of
all parameters and discharge
Au dessus phenomena.
de la tension seuilThey considered that
de claquage Si the Loeb [10]entre
la tension and Meek and
les électrodes
Craggs dépasse
[11] approach, in air with various gap configurations, was not sufficiently
la tension seuil de claquage, la morphologie de la décharge change ra- mastered,
too complicated, just able to lead to descriptive observations rather than scientific results.
dicalement et ceci pour les deux configurations d’électrodes mentionnées (uni-
In non-uniform gaps, indeed, strong geometrical field gradients around curved electrodes
formes
and negative ionetformation
non-uniformes). Danscomplicated
lead to various le cas d’une géométrie
discharge plane,
shapes, on remarque
surrounding such deux
‘highly stressed’ electrodes, following the way Loeb liked to qualify such gaps. The generic et se
phénomènes propagatifs filamentaires partant de l’espace interélectrodes
name ‘coronas’
dirigeantencompassing
chacune vers these
unevarious discharge
électrode. manifestations sont
Ces phénomènes was then introduced.
associés à des ondes
They may be diffuse or filamentary, with fluctuations in time and space, more
d’ionisation appelés streamer, il est largement admis celles-ci sont dues à la mo- or less statistically
reproducible.
dification du champ électrique causée par la charge d’espace laissée par les ava-
Both approaches however, have been the roots of the actual concept of high pressure gas
lanches précédentes (ions relatiment moins mobiles que les électrons). L’onde
discharge and NTPs. In the parallel gap configuration, as far as the gap voltage remains near
d’ionisation dirigée vers l’anode appellée en anglais anode directed streamer
the threshold of the spark breakdown, the Townsend theory of ionization growth does well.
avanceavalanche
Each electron dans le sens de dérive
is followed des électrons
by another avalanchedans le champ
through électrique,
‘secondary mais celle
effects’ from
the firstdirigée
one, the vers
secondary effect being,
la cathode (cathodefor example,
directedions of the first
streamer ou avalanche
streamerproviding
positif) theavance à
secondaryuneelectron
vitessebycomparable
hitting the cathode.
à celle Thedes discharge
électronscurrent
dans un maysens
thus opposé
endlesslyà continue
celle imposée
and the par
discharge
le champis saidélectrique.
to be ‘self-sustained’.
Il est donc Such a theory isd’avoir
nécessaire the physical basis of a number
un mécanisme créant des
of uniform and largely spread discharges often qualified as ‘glows’.
électrons en amont du streamer (entre celui-ci et la cathode) pour provoquer deFor non-uniform gaps,
the glow ionization region is confined near the stressed electrode where the geometrical field
nouvelles avalanches. Des théories basées sur la diffusion arrière des électrons
is large enough, as seen, for example, in the case of a positive point-to-plane discharge in
ont1, été
air, figure proposées,
region A. Regionmais nécessitent
B is the des with
ion drift region températures électroniques
no ion production. largement
As explained
in [12, 13] the field distribution is mainly space charge controlled while the current is limited
by the ions’ drift.
4
5.3 Physique des décharges électriques 87
Le modèle utilisé dans cette étude se base sur un jeu d’équations fluides hy-
drodynamiques. Pour chaque espèce, une équation de convection-diffusion en
coordonnées cylindriques est écrite en se basant sur le modèle de l’équation 5.1 :
∂n ∂ ∂n 1 ∂ ∂n
+ nwx − Dx + r nwr − Dr =S (5.1)
∂t ∂x ∂x r ∂r ∂r
Z ∞ Z
Sph = c µph ~ t dΩdν
Ψnu ~r, Ω, (5.2)
ν
0 Ω
~E
∇ ~ = ρ (5.3)
ε0
où ρ est la densité nette de charge.
Ce modèle complet est résolu par l’application d’une méthode de pas frac-
tionnés qui nous permet de traiter les équations différemment suivant leur type :
différences finies pour la diffusion et caractéristiques pour la convection. L’as-
pect évolutif et propagatif du streamer impose la création d’un maillage mobile
suivant le déplacement de la décharge dans l’espace et le temps. Les travaux ac-
tuels sur ce modèle portent sur l’application de méthodes de résolution mixtes
par éléments finis et caractéristiques.
peu d’électrons sont présent dans le gaz (un seul au départ du streamer), et la
simulation créé des fractions d’électrons dans les zones de plus fort champ élec-
trique, c’est à dire sur la surface de la pointe. On assiste alors à un étalement de
la distribution de la densité des électrons autour de la pointe, étalement spatial
qui sera projeté dans l’espace interélectrode lors de la propagation et sera donc
une des causes de la valeur du rayon. De plus ce phénomène purement numé-
rique et simulatoire peut aussi expliquer le premier pic de courant relativement
important dans la simulation.
Dernièrement, des mesures expérimentales ont déterminé un rayon du cœur
de la décharge d’environ 10µm, montrant l’écart avec les modélisations. Des
questions se posent naturellement sur la détermination expérimentale et la défi-
nition du rayon de décharge. En effet, faut il se baser sur des mesures lumineuses
par spectroscopie ou plutot sur des mesures de la distribution de la densité des
électrons. Néanmoins un faible rayon de décharge suporte l’hypothèse que la
transformation de celle-ci en un arc électrique est principalement due à une ex-
E
pansion hydrodynamique et une augmentation du champ réduit N .
Dispositif expérimental
La cellule de décharge est constituée de deux électrodes cylindriques co-
axiales en tungstène. Elles sont placées à l’intérieur d’une enceinte hermétique
(figure 5.14) en acier inox emplie d’argon à une pression de 100mbar. La distance
interélectrode est variable et peut être ajustée entre 5mm et 45mm. L’alimenta-
tion électrique –dont le schéma est représenté sur la figure 5.15– mise en jeu
dans le dispositif de transition est décomposée en deux parties.
D’une part une composante continue permettant de générer une décharge
glow de type luminescente telle que celle photographiée en pause longue sur
la figure 5.16. Le courant de décharge est maintenu constant via l’ajustement
de la tension par une capacité de 10µF qui se décharge à travers une résistance
5.3 Physique des décharges électriques 93
reliée à l’anode par un interrupteur rapide. Dans ces conditions la seconde partie
de l’alimentation (à droite sur la figure 5.15) agit comme une source de courant.
Lorsque l’interrupteur est fermé, le courant résultant est fixé par la tension du
condensateur et la valeur de la résistance (18kΩ).
En plus de mesures électriques (courant et tension de décharge), une caméra
rapide est couplée au dispositif et permet de réaliser des observations visuelles
de la transition.
Transitions irréversibles
Illustrons tout d’abord le cas simple d’une transition irréversible, ce qui
nous permettra de poser quelques définitions phénoménologiques de la décharge
glow luminescente et de l’arc. Lorsque la première partie de l’alimentation est
5.3 Physique des décharges électriques 95
arc-glowassociées
tout au long
à une de l’application
modification structurelle du (2ms) de l’échelon
pied cathodique. Comme de courant.
nous Ces transi-
l’avons précisé
tions sont
dansappelées
le cas des spontanées car elles
transitions irréversibles, ne se
il n’est pas produisent pas forcément
non plus nécessaire au début
dans le cas de
transitions spontanées que la totalité de la surface
de l’échelon, mais comme le montre l’oscillogramme de la figure 5.19 peuvent d’électrode soit occupée par la zone
cathodique pour qu’une transition survienne.
apparaître en grand nombre pendant l’application de l’échelon de courant.
Figure 3.15 : Évolution au cours du temps de la tension de décharge et de l’intensité de décharge lors de
l’application d’un pulse d’intensité environ égale à 200 mA (P = 100 mbar et d = 25 mm)
Figure 5.19 – Oscillogramme du courant et de la tension pour un échelon de
Pour desde
280mA, apparition électrodes de même
transitions nature ayant cependant une géométrie en pointe,
spontanées
Watanabe et al.16 20 n’ont pas observé à pression atmosphérique dans l’argon l’existence de
La figure 5.20
transitions est un sezoom
spontanées de cet
produisant oscillogramme
à intensité constante. Surautour
la figure des
3.17 temps 1700µs et
nous avons
2000µs avec
rappeléles photographies
les résultats présentés paràWatanabe
la caméraet al. rapide
concernant(temps de pause
la caractéristique de 16,6µs)
U/I pour une des
distance inter-électrode de 1 mm : aucune zone relative aux
phases associées. La partie (a) correspond au temps avant l’échelon de courant, transitions spontanées (deux
valeurs de tension possibles pour une même valeur de l’intensité) n’apparaît.
la décharge est en phase glow (faible courant et forte tension). L’application de
l’échelon de courant modifie la morphologie de la décharge luminescente, mais
sans transition à l’arc, l’aspect visuel, photographie (b), est plus filamentaire,
mais le pied cathodique reste étendu (électrode du haut sur la photographie).
Au niveau de l’oscillogramme, on observe une légère baisse de la tension et une
forte hausse du courant (environ 200mA dans ce cas). La transition complète
à l’arc se réalise (partie (c) de la figure 5.20) lorsqu’il y a une forte chute de
57
la tension et une constriction importante du pied cathodique en un spot lumi-
neux. Il faut noter que lors de cette transition, l’aspect général de la colonne
positive de décharge reste inchangé. Un autre fait important lors de ces transi-
tions est la variation de la puissance consommée dans la décharge, de 56W en
mode luminescent à moins de 15W pour l’arc. Enfin précisons que ces transitions
spontanées ne sont pas affectées par le circuit extérieur d’alimentation qui reste
inchangé pendant les 2ms de temps d’application de l’échelon et sont caracté-
risés par une chute de la tension (200V) qui semble associée aux changements
98 Chapitre 5 : Modélisation des phénomènes physiques
Finalement se pose la question de savoir quel est l’ordre temporel des méca-
nismes de transition glow-arc. Est-ce que les phénomènes à la cathode (constric-
tion du pied cathodique) prennent place avant les modifications de la colonne
positive ou est-ce que le filament doit être totalement propagé pour que la tran-
sition au pied cathodique ait lieu ? Pour répondre partiellement à cette question,
un exemple significatif illustré sur la figure 5.26 a été trouvé. L’amplitude de
l’échelon de courant est de 80mA pour une distance interélectrode de 25mm et
une pression de 100mbar. Dans ces conditions, on peut observer qu’un temps
plus long est nécessaire pour établir un état similaire à ceux des figures 5.19
et 5.20. Les transitions spontanées liées à une baisse significative de la tension
n’apparaissent qu’à partir de 2000µs. Les images prises à la caméra rapide sur la
figure 5.26 montrent que différentes structures existent avant ce temps : la dé-
5.3 Physique des décharges électriques 103
charge peut être partiellement filamentaire avec un pied cathodique sous forme
de spot sur les photographies (a) et (c), mais aussi partiellement filamentaire avec
un pied cathodique diffus. Les modifications du pied cathodique sont donc pos-
sibles même si la décharge n’a pas atteint un aspect complètement filamentaire.
En effet sur les images le pied cathodique oscille entre un spot et un mode diffus
durant le temps de propagation du filament au sein de l’espace interélectrode.
En conclusion nous pouvons avancer l’hypothèse que le développement fila-
mentaire complet n’est pas une condition nécessaire pour l’établissement d’un
spot cathodique, mais aussi que celui-ci n’est pas une condition suffisante pour
mener à une transition complète à l’arc. L’arc électrique nécessite donc une nou-
velle définition structurelle : la colonne de décharge doit être totalement filamen-
taire et le pied cathodique doit être sous la forme d’un spot (constriction du pied
cathodique).
Figure 5.26 – Tension et courant de décharge pour une série de transitions glow-
arc et arc-glow spontanées et réversibles
6.1 Conclusion
Ce mémoire en vue de l’obtention de l’habilitation à diriger les recherches à
fait l’objet d’un découpage en 3 parties. La première sur la modélisation et l’op-
timisation des grands réseaux électriques, la deuxième sur l’optimisation sys-
tèmes des machines électriques et la dernière sur la modélisation des phéno-
mènes physiques. Ces trois approches de l’électrotechnique, à première vue dif-
férentes, sont associées par la volonté de réaliser des optimisations et modélisa-
tions globales des systèmes. Pour cela, il faut développer des algorithmes perfor-
mants, tant du point de vue des résultats que de la rapidité de calcul. Cela passe
par une phase de développement sur des cas simples et des exemples concrets
déjà résolus. Pour bien poser les problèmes d’optimisation, il faut de plus avoir
une connaissance approfondie des phénomènes physiques. C’est pourquoi nous
avons notamment continué à travailler sur les mécanismes de claquage dans les
gaz isolants, ceci en vu de bien comprendre les contraintes posés lors des opti-
misations.
105
106 Chapitre 6 : Conclusion générale et perspectives scientifiques
L’objet du présent document est de présenter l’intérêt porté pour ces théma-
tiques, de développer les orientations de recherche envisagées dans le cadre de
thèses en cours et programmées, et de mentionner les collaborations mises en
place, ainsi que les moyens qui seront déployés.
de cœurs de calcul au sein des ordinateurs modernes ainsi que du calcul sur
architectures parallèles. Un tel cluster de machines est déjà en place à Supélec,
nous projetons donc de paralléliser les codes déjà existants sur cette architec-
ture. Les algorithmes stochastiques du type algorithme génétique forment un
très bon exemple au vu de leur caractère massivement parallèle. Des premiers
essais d’accélération de calcul seront réalisés très prochainement lors de la thèse
de Benjamin Dagusé.
Une seconde piste de recherche est de s’orienter vers des optimisations ou la
fonction objectif n’est plus sous forme analytique (ou simple), mais représentée
comme le résultat de calculs par éléments finis (calcul du couple d’une machine
par exemple). De telles optimisations ne peuvent être menées à l’aide des al-
gorithmes classiques, il est donc nécessaire d’inventer de nouvelles approches.
Une piste possible est l’utilisation de méthodes où le nombre d’évaluations de
la fonction coût est minimisé pour rendre l’optimisation dans un temps de cal-
cul raisonnable. Ces méthodes font appel à des techniques d’approximation de
la fonction coût, cette approximation étant raffinée au fur et à mesure des ité-
rations uniquement aux endroits de l’optimum probable. Ces développements
feront l’objet d’une collaboration avec le département Signaux et Systèmes Élec-
troniques et la chaire de Systèmes analogiques complexes à Supélec.
Ces nouvelles méthodes d’optimisation, après validation sur les systèmes
d’entraînement électriques, seront appliquées à l’électronique de puissance, en
particulier à la problématique du placement routage de composants sur une carte
électronique. En effet, le placement de composants a un effet direct sur les cou-
plages inductifs et sur l’échauffement du dispositif. Il est donc nécessaire par le
biais de simulations et d’optimisations de trouver le placement des composants
minimisant les fuites et l’échauffement. L’analyse thermique et électromagné-
tique ne peut être faite de manière précise que par éléments-finis, ce qui corres-
pond bien au thème de recherche présenté. La problématique ici sera renforcée
par le grand nombre de degrés de libertés présents sur le système.
6.2.3 Conclusions
Ces perspectives de recherche s’inscrivent dans le cadre vaste de l’optimi-
sation et la modélisation des systèmes d’énergie. Deux domaines sont présen-
tés, le premier traite de l’optimisation des systèmes de conversion de l’énergie
(entraînement électrique et électronique de puissance) et le second de la phy-
sique des plasmas. La complexification de ces modèles passe bien sûr par une
phase d’analyse physique de compréhension des phénomènes. Une caractéris-
tique commune à ces deux axes de recherche est la nécessaire augmentation
des coûts de calculs liés à la complexification des modèles en cours de dévelop-
pement. Pour remédier à cette difficulté, diverses pistes sont envisagées : algo-
rithmes innovants et parallélisation des codes de calcul.
110 Chapitre 6 : Conclusion générale et perspectives scientifiques
Bibliographie
111
Chapitre 7
Production scientifique
113
114 BIBLIOGRAPHIE
Services : Building Networks for a Brighter Future (INFRA), 2008 First In-
ternational Conference on, Rotterdam Pays-Bas, 2008, 6 pages.
[33] V. Rious, Y. Phulpin, F. Petit, P. Dessante et M. Saguan, A contribution in
experimental economics to classify market power behaviors in an oligopolistic
power market, in 5th International Conference on the European Electricity
Market, Lisbon, PORTUGAL, mai 2008, IEEE, p. 271–276.
[34] V. Rious, Y. Perez et P. Dessante, Is combination of nodal pricing and ave-
rage participation tariff the best solution to coordinate the location of power
plants with lumpy transmission investments ?, in Proceedings of The Econo-
mics of Energy Market, Toulouse France, juin 2008, 23 pages.
[35] W. Frelin, M. Petit, J. Vannier, L. Berthet et P. Dessante, Evaluation of
thermal heating in LV-cable in presence of harmonics, using FEM methods,
in International Conference on Electrical Machines, ICEM2008, Villamoura
Portugal, 2008, 6 pages.
[36] H. Bayem, M. Petit, P. Dessante, F. Dufourd et R. Belhomme, Wind inte-
gration study for an island network using a probabilistic tool, in Proceedings
of European Wind Energy European Wind Energy Conference & Exhibi-
tion, EWEC, Bruxelles Belgique, 2008, 8 pages.
[37] H. Bayem, Y. Phulpin, P. Dessante et J. Bect, Probabilistic computation of
a wind farm generation based on wind turbine dynamic modeling, in 10th
International Conference on Probabilistic Methods Applied to Power Sys-
tems, PMAPS, Rincon, PR, mai 2008, IEEE, p. 517–522.
[38] V. Rious et P. Dessante, A limited place for competition to develop the power
transmission network, in 9th IAEE European Energy Conference : Energy
Markets and Sustainability in a Larger Europe, Florence, Italie, juin 2007,
19 pages.
[39] F. Petit, Y. Phulpin, P. Dessante et J. Glachant, A contribution of ex-
perimental economics toward characterization of the use of market power in
oligopolistic markets, in 9th IAEE European Energy Conference : Energy
Markets and Sustainability in a Larger Europe, Florence, Italie, juin 2007,
12 pages.
[40] F. Maupas, P. Dessante et J. Glachant, Definition and controllability of
wind power integration cost, in 9th IAEE European Energy Conference :
Energy Markets and Sustainability in a Larger Europe, Florence, Italie, juin
2007, 15 pages.
[41] M. Lopez, P. Dessante, D. Morales, J. Vannier et D. Sadarnac, Optimisa-
tion of a small non controlled wind energy conversion system for Stand-Alone
applications, in International Conference on Renewable Energies and Po-
wer Quality, ICREPQ, Seville Espagne, mars 2007, 5 pages.
118 BIBLIOGRAPHIE
7.4 Communications
[59] H. Borsenberger, P. Dessante et G. Sandou, Optimisation de la produc-
tion dans un réseau d’énergie soumis à des incertitudes sur le coût de produc-
tion, in Recherche Opérationnelle et d’Aide à la Décision, ROADEF 2010,
Toulouse, France, fév. 2010, 2 pages.
[60] J. Vannier, P. Vidal, P. Dessante et F. Dugué, Ensemble convertisseur ac-
tionneur électrique et pompe pour un système d’alimentation en carburant
d’un satellite, in Journées 2004 du club EEA, Cergy-Pontoise, France, mars
2004.
120 BIBLIOGRAPHIE
Références bibliographiques
121
122 BIBLIOGRAPHIE
I Fiche synthétique 3
1 CV scientifique 5
1.1 État civil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Titres universitaires . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Parcours professionnel . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Activités d’enseignement . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Activités liées à l’administration . . . . . . . . . . . . . . . . . . 6
1.6 Activités liées à la recherche . . . . . . . . . . . . . . . . . . . . 6
1.6.1 Prix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6.2 Organisations de congrès scientifiques . . . . . . . . . . 7
1.6.3 Comités de lecture . . . . . . . . . . . . . . . . . . . . . 7
1.6.4 Participation à des jurys de thèse . . . . . . . . . . . . . 7
1.6.5 Partenariats industriels et projets de pôles de compétitivité 8
1.7 Encadrements . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7.1 Thèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7.2 Stagiaires post-doc . . . . . . . . . . . . . . . . . . . . . 12
1.7.3 Stagiaires Master 2 . . . . . . . . . . . . . . . . . . . . . 12
1.8 Synthèse scientifique . . . . . . . . . . . . . . . . . . . . . . . . 13
123
124 TABLE DES MATIÈRES
127
128 LISTE DES TABLEAUX
Table des figures
129
130 TABLE DES FIGURES