M208: Initiation À La Modélisation Mathématique

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 44

Université des Sciences et Technologies de Lille

U.F.R. de Mathématiques Pures et Appliquées

M208 : Initiation à la modélisation


mathématique

Notes de cours par Clément Boulonne


Corrigé (partiellement) par Franck Wielonsky

L2 Mathématiques 2007 - 2008


Table des matières

Introduction 4
0.1 Qu’est ce que la modélisation ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1 Introduction à la théorie des graphes 5


1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Quelques problèmes historiques de la théorie des graphes . . . . . . . . . . . . . 5
1.2.1 Problème de ponts de Konigsberg . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Problème du dodécaèdre . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Problème de transport : Taxis de la Marne . . . . . . . . . . . . . . . . . 6
1.3 Graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Définitions générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Problème d’accessibilité de sommets . . . . . . . . . . . . . . . . . . . . 9
1.5.1 Flot et graphe d’écart . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Les pendules 15
2.1 Modélisation du pendule simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 Résolution dans le cas des petites oscilations . . . . . . . . . . . . . . . . 19
2.2 Espaces de phases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Resistance de l’air . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1 Etude de ÿ + aẏ + by = 0 (a, b ∈ R) . . . . . . . . . . . . . . . . . . . . . 22
2.4 Pendule forcé... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Méthode de la variation des constantes . . . . . . . . . . . . . . . . . . . 24
2.5 La méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Résolution du pendule simple ... . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3 Systèmes masses-ressorts, corps élastiques 27


Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1 Loi de Hooke (1635-1703) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Intéraction entre plusieurs masses (cas général) . . . . . . . . . . . . . . . . . . 29
3.4 Equilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5 Modes propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.6 Principe de superposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.7 Particules avec frottement et gravité . . . . . . . . . . . . . . . . . . . . . . . . 35
3.8 Agitation du système masse-ressort avec amortissement . . . . . . . . . . . . . . 36

4 Approximation trigonométrique 38
4.1 Interpolation trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2
4.4 Vers la transformée de Fourier rapide (FFT) . . . . . . . . . . . . . . . . . . . . 41
4.5 Transformée en cosinus discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.6 La compression JPEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Introduction

0.1 Qu’est ce que la modélisation ?


La modélisation est un processus qui se fait en plusieurs étapes :
1) Détermination et formulation d’un problème
2) Construction d’un modèle (simplification)
3) Résolution de problème mathématiques
→ méthodes analytiques (exactes)
→ méthodes numériques (approches)
→ équations différentielles
4) Retour au problème concret. Interpretation des résultats obtenus (vérification des solutions).
La modélisation englobe des domaines de mathématiques, physique, envrionnementaux ou
astronomie.

Exemple 0.1.1. On peut utiliser la modélisation dans le cas de prévisions météorologiques, de


problèmes de trafic (Velib’), dans la construction d’un avion, les essais nucléaires.

4
Chapitre 1

Introduction à la théorie des graphes

1.1 Définitions
Lorsqu’on a un problème, cela peut étre utile de faire un dessin. Les graphes sont des dessins
un peu particuliers composés par des sommets et des arrétes qui rejoigent ces sommets.

Exemple 1.1.1. Plan de métro. Carte routière. Schéma éléctrique. Organigramme dans une
société. Arbre généalogique.

Soit cela ressemble à un résau de transport, soit cela ressemble à des objects connectés par
d’autres objets particuliers.

1.2 Quelques problèmes historiques de la théorie des


graphes
1.2.1 Problème de ponts de Konigsberg
Le premier problème de la théorie des graphes a été établi en 1736 par les ponts de Konig-
sberg.

Le problème est de trouver un chemin qui passe un et une seule fois sur les sept ponts en
partant d’un territoire quelconque (A, B, C, D).
Cela n’existe pas à cause des chemins eulériens. Il faut prouver que cela n’existe pas. Cela
semble difficile et c’est Euler qui a demontré cette théorie.
On veut représenter cette situation par un graphe. Les sommets representent les territoires
A, B, C et D et les autres correspondent aux points.

5
6 Chapitre 1. Introduction à la théorie des graphes

1.2.2 Problème du dodécaèdre

Il y a 12 pentagones et 20 sommets dans le pentagone. Le problème est de trouver un chemin


qui passe une fois et une seule par chaque sommet. Cela s’appelle les chemins hamiltoniens. Ce
problème a été crée e 1859.

1.2.3 Problème de transport : Taxis de la Marne


Le problème est de faire circuler un taxi dans des endroits (destinations) uniques. On veut
éviter les embouteillages et en mettre le plus possible.
On a différentes villes a1 , ..., al . Il y a des routes qui relient certaines villes :
→ route (i, j) relie la ville ai à la ville aj .
Le but est d’organiser le trafic pour que dans un intervalle de temps donné [0, T ] le nombre
de véhicules qui soient arrivés dans la ville al soit aussi grand que possible.
La solution va dépendre de plusieurs paramètres : combien il y a de taxis et où ils sont à
l’instant t0 ? On introduit donc différents paramètres qui vont jouer un rôle bien précis :
1) si : nombre de voitures disponibles en ai à t = 0.
2) tij : temps que met une voiture (en supposant que toutes les voitures vont à la méme vitesse)
entre ai et aj .
3) cij : nombre maximal (capacité) de véhicules pouvant passer sur une route partant de ai et
aj .
4) ci : nombre maximal de voitures qui peuvent stationner dans la ville ai

Exemple 1.2.1. Modélisation du Train de la Marne


Chapitre 1. Introduction à la théorie des graphes 7

Les routes sont en sens unique. La position des indices est importante.
Le problème complet est difficile à résoudre. On peut se poser des questions connexes (clas-
sique de la théorie des graphes).
1) Comment représenter une carte routière, réseau de canalisations ? (carte mémoire d’un or-
dinateur).
2) Comment décider d’une manière systématique (par un algortihme) si, depuis un sommet,
on peut se rendre à un autre sommet ?
3) Comment choisir le meilleur chemin possible parmi les différents chemins proposés dans la
question 2) ?
4) On ajoute un sommet qu’on appelle source et qu’on note a0 reliée à a1 , a2 et a3 d’où
viennent les voitures. On ajoute aussi une route artificielle qui relier a4 vers a0 (problème
de flot maximal).
Le but est de maximiser le trafic sur la route de retour avec les contraintes :
• ∀ route (i, j) : trafic xij ∈ [0, cij ]
• Dans chaque ville, le trafic entrant est égal au trafic sortant. Pour garder cette équaton
et intégrer des parking, on utilise une petite “astuce”.

Remarque. Retournons au problème initiale (taxis) : ce problème dépend du temps (on a une
évolution du trafic). La variable T évolue sur un intervalle. On discrétise le temps (on regarde
dans un multiple de temps tij qu’on mij le système par exemple). On essaie d’adapter l’échelle
de discrétisation. On envoie les voitures par paquets seulement aux instants k∆t où k ∈ N et
∆t multiple de tij .
Les variables apparaissent : Zi,j,k est le nombre de véhicules partant à l’instant k∆t de la
ville ai pour aller à la ville aj (au moment k∆t + tij ).
8 Chapitre 1. Introduction à la théorie des graphes

Pour avoir la capacité du parking, on peut créer une route imaginaire qui part de ai et qui
revient à ai . On a alors cii = ci avec cii représente une capacité de la route artificielle qui part
de ai et qui arrive à ai et ci est la capacité du parking.
On veut une conservation du flux en chaque sommet, c’est-à-dire pour toute ville aj et pour
tout temps k∆t , on a : X X
Zi,j,k−mij = Zj,l,k
i | ∃ route(i,j) l | ∃ route(j,l)

flux entrant = flux sortant

1.3 Graphes
1.3.1 Définitions générales
Définition 1.3.1. Un graphe est défini par un couple (S, A), S représentant l’ensemble des
sommets (finie ou infinie) et A représentant l’ensemble des arrétes c’est-à-dire qu’ils relient
les sommets. A peut éte vue comme le produit cartésien de S × S. On suppose que A est
orienté, c’est-à-dire que les arrétes sont orientés et qu’une arréte reliant deux sommets données
n’apparait qu’une seule fois.

Exemple 1.3.1. Dans ce graphe,

on a :
S = {1, 2, 3, 4}
A = {(1, 2), (1, 4), (2, 4), (2, 3), (4, 3)}

Exemple 1.3.2. On peut avoir une arréte qui va dans un autre sens mais on ne peut pas avoir
deux arrétes reliant les mémes sommets.

Définition 1.3.2. On peut regarder dans l’Exemple 1.3.2., les arrétes qui relient le sommet 2
∈ S. On dit que le sommet 2 est adjaçent aux sommets : 1, 3 et 4 et admet comme prédécesseur
1 et 3 et comme successeurs 4 et 3.
Chapitre 1. Introduction à la théorie des graphes 9

Notation. Prédécesseurs : Γ− (2) = {1, 3}.


Successeur : Γ+ (2) = {4, 3}.
Définition 1.3.3. Un arc a une source et un but. Dans l’Exemple 1.3.2., l’arc (2, 4) a comme
source 2 et but 4.
Définition 1.3.4. Un chemin est une suite γ = [s1 , ..., sl ] tel que sk+1 = Γ+ (sk ) avec k =
{1, ...l − 1}.
Un chemin peut étre décrit comme une suite d’arrétes γ = [j1 , ..., jl ]. Il faut que le but de
l’arréte jk soit la source de l’arréte jk+1 (but(jk ) =source(jk+1 )) avec k ∈ {1, ..., l − 1}.
Définition 1.3.5. Un circuit est un chemin tel que sl = s1 .
Définition 1.3.6. Une chaîne est un chemin où l’on ne prend pas en compte l’orientation de
l’arréte. Plus clairement, c’est une suite [s1 , ..., sl ] qui peut devenir un chemin après changement
d’orientation de certaines arrétes.

1.3.2 Problème d’accessibilité de sommets


On va maintenant répondre à la question 2)b) de l’Exemple 1.2.1.
Définition 1.3.7. Soit s ∈ S fixé. On dit que k est accessible depuis s si dans le graphe G, il
existe un chemin de s à k.
Algorithme 1.4 (Algorithme de Tarjan). 1) Initialisation : On marque s au crayon.
2) Itérations : Tant qu’il existe un sommet k au crayon, on le marque à l’encre et tous ses
successeurs non marqués au crayon.
Proposition 1.4.1. a) L’algorithme s’arréte après au plus s itérations (où s représente le
nombre de sommets dans S).
b) Les sommets à l’encre sont accessibles depuis s
c) Les autres ne le sont pas.
Exemple 1.4.1. On considère que tous les éléments en vert sont au crayon et en rouge sont à
l’encre.

Démonstration de la Proposition 1.3.2. a) A chaque itération, un nouveau sommet est à


marquer à l’encre donc le nombre d’itérations ne peut pas dépasser le nombre de sommets.
b) On provue par récurrence qu’à chaque itération le nombre de sommets à l’encre est accessible.
A l’itération 1, l’assertion est vraie.
On suppose l’assertion vraie à l’interation n et on la prouve à l’iteration n + 1.
A l’itéation n + 1 : u sommet marqué à l’écran était au crayon à l’étape n donc le successeur
d’un sommet à l’encre, accessible depuis s par hypothèse de réccurence. Donc k est accessible
depuis s.
10 Chapitre 1. Introduction à la théorie des graphes

c) Démonstration par l’absurde : Soit γ = [s, ..., sl ] avec sl qui n’est pas marqué. Soit j < l, le
plus grand indice tel que sj est marqué. Alors sj+1 devrait étre marqué car successeur de
sj . CONTRADICTION !

Remarque. 1) L’algorithme est sensible à la manière dont on choisit les sommets à marquer à
l’encre.
FIFO : First in, First out.
FILO : First in, Last out.
Exemple 1.4.2. Illustration de FIFO et FILO.

2) Une variante de l’algorithme permet de trouver les sommets k tel que s est accessible depuis
k.
On va maintenant répondre à la question 2)c).
Définition 1.4.1. On se donne un poids dij ≥ 0 pour tout arc (i, j) ∈ A. Le poids d’un chemin
noté d([s1 , ..., sl ]) est définie par :
l
X
d([s1 , ..., sl ]) = di−1,i
i=1

Pour k ∈ S accessible depuis s, on note :

Π∗ (k) = min{d(γ), γ chemin de s à k}

Algorithme 1.5 (Algorithme de Dijkstra). C’est un algorithme de marquage avec selection


d’un sommet dans la file d’attente : on prend le sommet le plus prometteur.
Définition 1.5.1. Un algorithme glouton est un choix qui semble le meilleur ponctuellement.
On appelle algorithme glouton un algorithme qui suit le principe de faire, étape par étape, un
choix optimum local, dans l’espoir d’obtenir un résultat optimum global.
Intialisation : écrire s au crayon et on a : Π(s) = 0.
Itérations : Tant qu’il xiste un sommet au crayon :
– Parmi les sommets au crayon, on choisit le sommet k tel que Π(k) est minimum.
– Ecrire à l’encre le sommet k.
– Pour tout successeur j de k
a) Si j n’est pas encore marqué, on marque j au crayon et Π(j) = Π(k) + djk .
b) Si j est marqué, Π(j) = min(Π(j), Π(k) + djk ).
Proposition 1.5.1. Pour tout sommet j à l’encre :

Π(j) = Π∗ (j)

Dans l’algorithme de Dijsktra répond bien au problème posé.


Chapitre 1. Introduction à la théorie des graphes 11

Exemple 1.5.1.

On va faire un tableau qui contient la valeur des étiquettes

sommets →
1 2 3 4 5
itérations ↓
Init. 0
1ère 1 2 4
2ème 4 2
3ème 3
4ème 4

On peut aussi faire un tableau qui contient les prédécessuers (tableaux des pères) pour pouvoir
retrouver le chemin qui a le coùt minimal.

sommets →
1 2 3 4 5
itérations ↓
Init.
1ère 1 1 1
2ème 2 5
3ème 4
4ème 5

1.5.1 Flot et graphe d’écart


Définition 1.5.2. Soit G = (S, A) un graphe et ∀(i, j) ∈ A, bij < cij . Soit s ∈ S la source,
p ∈ S le puit. Le flot part de la source pour arriver au puit. Le flot de transport de s vers p
caractérisé par une fonction ϕ : A → R si la condition suivante est vérifiée :
• Loi de conservation : Pour tous les sommets j du graphe sauf s et p :
X X
ϕ(i,j) = ϕ(j,k)
i | (i,j)∈A k | (j,k)∈A

(flot entrant en j) (flot sortant en j)

Définition 1.5.3. Un flot ϕ est canalisé si ∀(i, j) ∈ A,

bij ≤ ϕ(i,j) ≤ cij

où bij représente la capacité minimale et cij capacité maximale.


12 Chapitre 1. Introduction à la théorie des graphes

Définition 1.5.4. Un graphe d’écart associé à un flot ϕ est le graphe G(ϕ) = (S, A(ϕ)) avec :
A(ϕ) = {(i, j), (i, j) ∈ A et ϕ(i,j) < cij } ∪ {(j, i), (i, j) ∈ A et bij < ϕ(i,j) }
Exemple 1.5.2.

A gauche, le flot canalisé ϕ. A droite, le graphe d’écart associé au flot ϕ.

Problème du flot maximum


Problème. Etant donné un graphe G = (S, A) et deux sommets s ∈ S (source) et p ∈ S (puit).
Envoyer un flot maximum de s vers p en respectant les contraintes et en supposoant la loi de
conversation.
Theorème 1.5.2 (Théorème de Ford-Fulkerson). Le flot canalisé ϕ : A → R est une solution
du problème du flot maximum si et seulement si il n’existe pas de chemin de s vers p dans le
graphe d’écart G(ϕ) associé à ϕ.
Algorithme 1.6 (Algorithme de Ford-Fulkerson). Initialisation :

En vert, la capacité minimale et en rouge, la capacité maximale. s = 1 et p = 4


Itération 1 :
Chapitre 1. Introduction à la théorie des graphes 13

On prendra le chemin [1, 2, 4] (de s vers p)

Définition 1.6.1. Soit γ = [e1 , e2 , ..., el ] les arrétes alors :


 
θ = min {cej − ϕej , ej ∈ A} ∪ {ϕe˜j = be˜j , e˜j ∈ A}

Avec l’algorithme et au flot maximal :

θ = min{4, 2} = 2

Itération 2 : On prendra le chemin [1, 2, 3, 4] (de s vers p)

θ = min{2, 3, 6} = 2

Itération 3 : Chemin [1, 2, 3, 4], θ = min{2, 3, 6} = 2.

Itération 4 : Il n’existe pas de chemins qui part de la source au puit (de


1 à .)
4 Le flot
est donc maximal d’après le Théorème 1.3.6. de valeur 5.
14 Chapitre 1. Introduction à la théorie des graphes

Description de l’algorithme
1) On considère un flot canalisé initaile (par exemple, ϕ = 0 partout si b = 0 partout).
2) On construit un graphe d’écart G(ϕ)
3) On choisit un chemin γ de la source de s ves p sur G(ϕ).
4) On calcule θ pour le chemin γ
5) On met à jour le flot :



 ϕ̃a = ϕa + θ si arréte a = eij

ϕ̃a = ϕa − θ si arréte a = e˜ij


ϕ̃a = ϕa sinon
Remarque. a) ϕ̃ est toujours un flot

Si le graphe initiale est de ce type, on a +θ sur chaque arréte.

Si le graphe initiale est de ce type, on a +θ sur les arrétes de méme sens du graphe
d’écart, et −θ sur les arrétes de sens opposé au graphe d’écart.
b) ϕ̃ est un flot caractérisé, par définition de θ.
c) ϕ̃ fait toujours mieux en terme de flots que ϕ.

Dans les deux cas, le flot qui arrive en p augmente de θ.


Chapitre 2

Les pendules

2.1 Modélisation du pendule simple


2.1.1 Modélisation


− →

La longueur l du fil est fixe. T :? → direction donnée par celle du fil. P = m→ −g avec

− →
− −2
g = −|g|yb (yb est un vecteur unitaire dirigé suivant (P, y), k y k = 1) et g = 9, 81 m.s .

Principe fondamental de la dynamique

Theorème 2.1.1 (Principe fondamental de la dynamique ).


X→

F = m→

γ dans un repère galilléen

(→

γ : accélération)

Application 2.1.1 (Application dans le repère (P, x)(P, y)).


! −−→ ! −→ −−→ !
−−→ x −→ dP M ẋ −→ dVM d2 P M ẍ
PM = VM = = γM = = =
y dt ẏ dt dt ÿ

! !

− 0 →
− − sin θ
P = T = T Tb = T
−mg cos θ

15
16 Chapitre 2. Les pendules

sur (P, x) :
− sin θT = mẍ
cos θT − mg = mÿ
On a alors : ! !
−−→ x l sin θ
PM = =
y −l cos θ
−−→ !
−→ dP M lθ̇ cos θ
VM = =
dt lθ̇ sin θ
−−→ !
−→ d2 P M lθ̈ cos θ − lθ̇2 sin θ
γM = =
dt2 lθ̈ sin θ − lθ̇2 cos θ
Mais il faut éliminier θ̇2 car on veut des équations différentielles à fonctions linéaires. On peut
faire :
cos θẍ + sin θÿ = lθ̈
Or :
sin θT cos θT
ẍ = − et ÿ = −
m m
Donc :
cos θ sin θT sin θ cos θT
− + − sin θg = lθ̈
m m
On a alors :
− sin θg = lθ̈ ⇔ lθ̈ + sin θg = 0

Application 2.1.2 (Modélisation en coordonnées locales).


Chapitre 2. Les pendules 17

On a alors : →

T = −T ecρ


P = −mg cos θecρ − mg ! sin θ eθ
c
−−→ sin θ
P M = lecρ = l
− cos θ
−−→ !
dP M cos θ
= lθ̇ecθ = lθ̇
dt sin θ
2−−→
d PM
= lθ̈ecθ − lθ̇2 ecρ
dt
Principe fondamental de la dynamique sur ecθ :
−mg sin θ = lθ̈
mg cos θ − T = −lθ̈2
On aura résoulu le problème en résolvant l’équation :
−mg sin θ = lθ̈
lθ̈ + g sin θ = 0

Cas des petites oscilations On considère |θ|  1 alors sin θ ∼ θ. L’équation devient :
lθ̈ + gθ = 0
De plus, ! !
−−→ sin θ 0
PM = l ∼l
− cos θ −1

!

− →
− 0
Dans le cas, le mouvemant ne se fait que suivant (P x). On aura T ∼ − P = .
mg
Application 2.1.3 (Bilan énergétique).

− →
− −−→
Définition 2.1.1. On dit qu’une force F derive d’un potentiel U lorsque F = grad U c’est-à-
dire :
∂u
 
 ∂x 
 
 
 

−  ∂u 
F = 



 ∂y 
 
 
 
 ∂u 
∂z
18 Chapitre 2. Les pendules



Exemple 2.1.1. Dans le cas du pendule, le poids P dérive du potentiel :
!
0
U= ⇒ u = −mgy
−mgy

Gmm0
(Pour la gravitation, le potentiel est u = r
).

Définition 2.1.2. L’energie potentiel Ep = −U .

Définition 2.1.3. L’énergie cinétique est définie comme suivant :

1
Ec = mv 2
2
Proposition 2.1.2. L’energie total ET = Ec + Ep est une constante lorsque la forme dérive
d’un potentiel.

Démonstration. Le Principe fondamental de la dynamique donne :




F = m→−γ

− →
F . v = m γ .→
− →
− −v
−−→ d− → d r d−
2 −
→ →
r
grad U. dt = m dt2 dtr

Or
−−→ dU
grad U = →
d−r
Donc :
dU 1 dv 2
= m
dt 2 dt
(v 2 = →

v .→
− d−
→r d−
→ dr2 2−
→ d−

v = . r
dt dt
et dt
= 2 ddt2r r
dt
)

dEp dU
− =0
dt dt
Ep − U = cste
Ep + Ec = ET = cste

Pour le pendule, on a :
1 2
mv + mgz = ET
2
Or : v 2 = l2 θ̇2
z = −l cos θ
1 2 2
l θ̇ = mgl cos θ = ET
2
ml2 θ̇θ̈ + mglθ̇ sin θ = 0
lθ + g sin θ = 0
Chapitre 2. Les pendules 19

2.1.2 Résolution dans le cas des petites oscilations


Problème. On veut résoudre :
g
lθ̈ + gθ = 0 ⇒ θ̈ + θ = 0
l
g g
Or l
> 0, on pose ω 2 = l
donc on a :

θ̈ + ω 2 θ = 0 (1)

θ1 (t) = cos ωt θ2 (t) = sin ωt


(θ̈1 (t) = ω 2 cos ωt) (θ̈2 (t) = ω 2 sin ωt)
θ1 et θ2 sont deux solutions linéairement de (1).
Donc toutes les solutions s’écrivent sous la forme :

θ(t) = Aθ1 (t) + Bθ2 (t)

θ(t) = A cos ωt + B sin ωt


On peut écrire θ(t) sous la forme :

θ(t) = C cos(ωt + ϕ)

La période des oscilations est telle que θ(t + P ) = θ(t) alors :

cos(ω(t + P ) + ϕ) = cos(ωt + ϕ)

On a aussi : s
2πk l
ωP = 2πk ⇔ P = = 2πk (k ∈ Z)
ω g

2.2 Espaces de phases


Définition 2.2.1. On considère l’équation linéaire de second membre :

ÿ + a(t)ẏ + b(t)y = c(t) (4)


!
∞ y(t)
avec a, b, c sont des fonctions de classe C sur I ⊂ R → R. On pose : Z(t) = alors :
ẏ(t)
! !
ẏ(t) y(t)
Ż(t) = =
ÿ(t) −a(t)
!
ẏ + b(t)y!
+ c(t)
y(t) 0
= +
−a(t)ÿ − b(t)! c(t)
! !
0 1 y(t) 0
= + (5)
−b(t) −a(t) ÿ(t) c(t)

Ż(t) = A(t)Z(t) + C(t) (6) où :


! ! !
y(t) 0 1 0
Z(t) = A(t) = C(t) =
ÿ(t) −b(t) −a(t) c(t)
20 Chapitre 2. Les pendules

Remarque. • Cette formulation met en évidence que l’espace des solutions est de dimension
2.
• Si on considère l’équation differentielle sans second membre, on a équivalence entre :

ÿ(t) + a(t)y(t) + b(t)y(t) = 0 (7)

et :
Ż(x) = A(t)z(t) (7)
où ! !
y(t) 0 1
Z(t) = et A(t) =
ÿ(t) −b(t) −a(t)
D’après
! le théorème de Cauchy, on aura une solution unique sur I (passant par Z0 =
y0
).
ẏ0
!
p
Theorème 2.2.1 (Théorème de Cauchy). Si on se donne une condition initiale Z(t0 ) = 0 ,
v0
il existe une solution de (7). Si on prend deux conditions initiales linéairement indépendant
dans R2 , on aura 2 solutions linéairement indépendant de (7) y1 et y2 .
Ainsi ∀α, β ∈ R, αy1 + βy2 solution de (7).

Définition 2.2.2. L’espace des solutions est un espace vectoriel engendré par y1 et y2 , il est
de dimesion 2.

Remarque. Si on tient compte du second membre et qu’on connait une solution particulière y0
de (7) alors les solutions sont de la forme y = αy1 + βy2 + y0 .

Application 2.2.1 (Applications aux petites oscilations du pendule). On a vu que :

θ̈ + ω 2 sin θ = 0 (8)

Si on prend θ  1 ⇒ sin θ ∼ θ. Donc :

θ̈ + ω 2 θ = 0

On voit que θ1 = cos ωt est solution de (8) et ω2 = sin ωt solution de (8). Ce sont 2 solutions
indépendantes. Donc : toutes les solutions de (8) est de la forme :

θ = A cos ωt + B sin ωt (9)

où A, B ∈ R ou :
θ = A(cos ωt + ϕ)
où A ∈ R, ϕ ∈ [0, 2π].

Remarque. On est dans le cas des petites oscillations. A peut appartenir à R mais il suffit que
A soit petit. q q
g l
La période des oscillations est T = 2π
ω
et ω = l
alors T = 2π g
.

Définition 2.2.3. L’équation différentielle (4) définit un procesus. L’ensemble de tous les étas
d’un processus est appelée espaces des phases (noté M ).
Chapitre 2. Les pendules 21

Exemple 2.2.1. Dans la formulation (5), les états sont les vecteurs qui définissent Z(t). le
domaine correspondant dépend de I et des fonctions compsant (4).
Dans le cas du pendule, l’espace des phases est :

M = {(θ, ṫheta) où θ ∈ [0, 2π], θ̇ ∈ R}

Définition 2.2.4. Les orbites sont des sous-ensembles de l’espace des phases dont chacune
correspond à une solution du processus donné (ici l’équation différentielle).

Remarque. • L’avantage est de visualiser l’espace des phases et quelques orbites.

A chaque point de phase, on peut faire passer une orbite et lui associé un vecteur vitesse.

Ainsi à chaque point x de M , on lui associe un vecteur, ce qui définit le champ des
vecteurs.

• Dans le cas d’un processus définit par une équation différentielle du type :

Ż = AZ
22 Chapitre 2. Les pendules

or Z ∈ Rn , A ∈ Mnn (R) champ de vecteurs est donné par l’application :

Rn → Rn
x 7→ Ax
• On peut généraliser aux équations différentielles non linéaires.
Exemple 2.2.2. Pendule θ̈ + ω 2 sin ω = 0
[−π, π] × R → R2
M: y
(x, y) 7→
− sin x

2.3 Resistance de l’air


Définition 2.3.1. La ressistance de l’air sur une particule est une force opposée à la vitesse et
proportionelle au module de la fitesse.


f = −mk → −
v où k ≥ 0

Dans la modélisation du pendule, on obtient :

mlθ̈ = −mgl − mklθ̇


g
mlθ̈ + k ω̇ + ω = 0 (11)
l

2.3.1 Etude de ÿ + aẏ + by = 0 (a, b ∈ R)


Notons (12) : ÿ + aẏ + by = 0. On peut mettre sous la forme :
!
0 1
Ż = AZ avec A = (13)
−b −a

• Dans le cas où on peut digonaliser


! la matrice A, c’est-à-dire il existe P inversible et
λ1 0
λ1 , λ2 ∈ R tel que A = . On pose le changement de variables : T = P Z.
0 λ2
L’équation (13) devient :
P −1 Ṫ = AP −1 T
Ṫ = P AP −1 T
!
λ1 0
Ṫ = T
0 λ2
!
t
Si T = 1 alors :
t2  
ṫ
1 = λ1 t1
t
1 = p1 eλ1 t

ṫ2 = λ2 t2 t2 = eλ2 t

où p1 et p2 sont des constantes arbitraires réels.


Il s’agit de trouver des valeurs propres λ1 , λ2 de A (voir M201 Chapitre 2). Le retour
aux veteurs Z puis à ses premières composantes indique que la solution générale de (12)
sera :
y0 = q1 eλ1 t + q2 eλ2 t
Chapitre 2. Les pendules 23

où q1 , q2 sont deux constantes arbitraires réels.


Pour trouver λ1 et λ2 , il suffit de chercher les solutions de l’équations :

−λ 1
det(A − λI) = 0 ⇔ =0

−b −a − λ

⇔ λ2 + aλ + b = 0 (14)

(14) est appelée l’équation caractéristique.


• Si la racine est double alors eλ1 t et eλ2 t ne sont pas indépendants et si on a qu’une
dimension, la deuxième dimension est t × eλ1 t . La solution générale est :

y = eλ0 t (pt + q) où p, q ∈ R

• Si la racine est complexe (λ1 et λ2 ∈ C) :

λ1 = λ0 + iω0 et λ2 = λ1

La solution générale s’écrit :

y = eλ0 t (qeiω0 t + q2 e−iω0 t )

avec λ0 , ω0 ∈ R. Or :
eiωt = cos ω0 t + i sin ω0 t

De méme que pour e−iωt . Donc y est une combinaison linéaire complexe arbitraire de
eλ0 t cos ω0 t et eλ0 t sin ω0 t. Or la problème est dans R2 (et non dans C2 ), il suffit de prendre
une combinaison linéaire réelle de eλ0 t cos ω0 t, eλ0 t sin ω0 t :

y = eλ0 t (A cos ω0 t + B sin ω0 t) A, B ∈ R

2.4 Pendule forcé...


...(Equations différentielles du second ordre à coefficients constants avec second
membre)

Quand l’oscilateur est somme à l’action extérieure d’une force excitatrice f (t), l’équation
(12) devient une équation différentielle à coefficients constants avec second membre :

ÿ + aẏ + by = c(t) (15)

(ici c(t) = fm
(t)
).
On sait trouver une solution générale de (15) sans second membre :

y = Ay1 + By2 , A, B ∈ R

D’après la Section 2.2., il reste à trouver une solution particulière y0 de (15).


24 Chapitre 2. Les pendules

2.4.1 Méthode de la variation des constantes


On choisit y0 sous la forme :

y0 (t) = A(t)y1 (t) + B(t)y2 (t)

Or :
ẏ = Ȧy1 + Ḃy2 + Aẏ1 + B ẏ2
On pose ẏ = Aẏ1 + B ẏ2 (c’est-à-dire Ȧy1 + Ḃy2 = 0) par sourci de simplification. Alors :

ÿ = Ȧẏ1 + Ḃ ẏ2 + Aÿ1 + B ÿ2

dans (15) :
Ȧẏ1 + Ḃ ẏ2 = c(t)
Il suffit alors de résoudre le système suivant :

Ȧẏ
1 + Ḃ ẏ2 = c(t)
(16)
Ȧy1 + Ḃy2 = 0

(16) ⇒ Ȧ(t) et Ḃ(t) ⇒ par intégration A(t) et B(t) ⇒ y0 = A(t)y1 (t) + B(t)y2 (t).
Souvent, dans le cas des oscillations, c(t) a une forme prticulière qui permet de procéder
par identification.
Si c(t) est de la forme emt P (t) (où P (t) est un polynôme du temps t). On forme une équation
différentielle en u dont on cherche une soltuion sous forme de polynôeme en posant :

y0 = emt × u

Plus pércisément, si deg(P ) = n.


• si m n’est pas une racine de l’équation caractéristique r2 + ar + b = 0 (14), on choisit y0
sous la forme y0 = emt Q(t) où Q est un polynôme de degré n.
• si m est une racine simple de (14) alors y0 est sous la forme y0 = temt Q(t)
• si m est une racine double de (14) alors y0 est sous la forme y0 = t2 emt Q(t)
Si c(t) est de la forme cos βt et sin βt ou P (t) cos βt ou P (t) sin βt. Or :
1 1
cos βt = eiβt + e−iβt
2 2
1 iβt 1
sin βt = e − eiβt
2i 2i
Si on a : ÿ + aẏ + by = c(t) alors :

Solution générale : ÿ1 + aẏ1 + by1 = 0


+ Solution particulière : ÿ0 + aẏ0 + by0 = c(t)
= (y1 +̈y0 ) + a(y1 +̇y0 ) + b(y1 − y0 ) = c(t)

Si on a : ÿ + aẏ + by = d(t) alors :

Solution générale : ÿ1 + aẏ1 + by1 = 0


+ Solution particulière : z̈0 + aż0 + bz0 = d(t)
= (y1 +̈z0 ) + a(y1 +̇z0 ) + b(y1 − z0 ) = d(t)

On cherche y0 sous la forme Q(t) cos βt + R(t) sin βt, t(Q(t) cos βt + R(t) sin βt si iβ racine
simple de (14) et t2 (Q(t) cos βt + R(t) sin βt) si iβ racine double de (14).
Chapitre 2. Les pendules 25

2.5 La méthode d’Euler


Dans le cas où sin θ ne peut étre approché par θ (dans l’équation du pendule θ̈+ω 2 sin θ = 0),
une résoluton analytique n’est pas toujours aussi facile à manier. On est amené à faire une
résoluton numérique.
Soit le problème suivant :

 dy(t) = f (t, y(t))
dt
y(t0 )
(17)
= y0 constante initiale
Or f est une application de classe C 1 de R × R2 → R2 .
On peut ainsi chercher f dans le cas du pendule.
Theorème 2.5.1 (Théorème de Cauchy (admis)). Le problème (17) a une soluton unique.

Le problème de la recherche de la solution y du problème de Cauchy est remplacé par celui


de la recherche d’approximation yn de la solution y(tn ) en certains instants tn d’un intervalle
[t0 , t0 + T ].
Soit h > 0, on définit les tn par :
tn = t0 + nh
(h est appelée le pas d’intégration).
La méthode d’Euler consiste à prendre :
yn+1 = yn + hf (tn , yn ) (18)
à partir de la condition initiale y0 (= y(t0 )). En effet, on a :
y(t + h) − y(t)
ẏ(t) = lim
h→0 h
La méthode d’Euler consiste donc à identifier :
y(t + h) − y(t)
f (t, y(t)) = ẏ(t) ∼
h
26 Chapitre 2. Les pendules

On voit apparaître deux sortes d’erreurs :


→ l’une est dû au fait qu’à chaque pas y 0 (t) 6= y(t+h)−y(t)
h
→ l’autre (qui s’annule) veut qu’on évalue y(tn+1 ) à partir de yn et non de y(tn ).
Ces erreurs sont d’autant plus petites que h est petit.

lim y(tn ) = yn
h→0

2.6 Résolution du pendule simple ...


...sans freinage, sans forçage
On a l’équation :
θ̈ + ω 2 sin θ = 0 (20)
• cas des petites oscillations (Section 2.1.2.)
• cas général (la méthode peut toujours s’appliquer à des équations de la forme ẍ = F (x)).
En multipliant par θ̇, on a :

θ̈θ̇ = −ω 2 θ̇ sin θ (21)

On intégre (21) :
d 1 2 d 1
 
θ̇ = (ω 2 cos θ) ⇒ θ̇2 − ω 2 cos θ = cste
dt 2 dt 2
La constante est donnée par la condition initiale. Supposons (sans nuir à la généralité du
problème) qu’à t = t0 : 
θ̇ = 0
θ = θ0

La constante s’écrit alors −ω 2 cos θ0 est donc :


1 2
θ̇ = ω 2 (cos θ − cos θ0 ) (22)
2
Ainsi, cos θ − cos θ0 est possitif ⇒ θ0 représente donc l’amplitude des oscillations de θ. En
séparant les variables, on peut écrire (22) :
√ dθ
2ωdt = √ (23)
cos θ − cos θ0

En intégrant le premier membre entre − T2 et T


2
où T est la période des oscillations et le second
membre entre −θ0 et θ0 , on obtient :
√ Z θ0

2ωT = √ (24)
−θ0 cos θ − cos θ0

(24) est appelée intégrale elliptique (de première espèce). Elle montre que la période T dépend
de l’amplitude θ0 .
En posant k = sin θ20 et k sin ϕ = sin 2θ , (24) devient :
π
Z
2 dϕ

0 1 − k 2 sin ϕ
Chapitre 3

Systèmes masses-ressorts, corps


élastiques

Objectifs
• Comprendre le mouvement d’un système masse-ressort en dimension 2.
Exemple 3.0.1. Exemple d’un système masses-ressorts (avec eventuellement une agi-
tation extérieure). Les cercles noirs sont les particules libres, les cercles rouges sont les
particules fixes et toutes sont reliés par des ressorts.

Exemple 3.0.2. Piéton sur un pont.


• Prendre en compte des forces supplémentaires (forces de gravitation, frottements).

3.1 Loi de Hooke (1635-1703)

Theorème 3.1.1 (Loi de Hooke). Le ressort entre z1 et z2 exerce une force sur la particule z1

27
28 Chapitre 3. Systèmes masses-ressorts, corps élastiques

proportionelle à (z2 − z1 ) :
F1,2 = κ(z2 − z1 ) (dans la cas où le ressort est toujours étiré)
avec κ > 0
Remarque. La loi de Hooke sous-entend que le ressort au repos a une longueur nulle.
Définition 3.1.1. κ s’appelle la constante de raideur.
Theorème 3.1.2 (Loi de Newton). z1 = z1 (t)
X−

m1 z̈1 = Fz1
−→
Fz1 : forces qui s’exercent sur la particule z1 .
Exemple 3.1.1 (Voir la première figure).
m1 z̈1 = κ(z2 − z1 ) + κ(z3 − z1 )
avec z1 , z2 , z3 ∈ R2 ! !
−1 1
m1 z̈1 = −2κz1 + κ +κ = −2κz1
0 0
! !
ẍ1 x
m1 = −2κ 1
ÿ1 y1
Remarque. • Les équations sont indépendantes et ce sont les mémes. L’équation est :
κ
θ̈(t) + 2 θ(t) = 0
m1
et la solution est :
θ(t) = c1 cos(ωt) + c2 sin(ωt)
s

ω= , c1 , c2 ∈ R
m1
• c1 et c2 peuvent étre déterminé par des conditions initiales (position et vitesse de la
particule à t = 0).
Pour z1 , on obtient :
z1 (t) = c1 cos(ωt) + c2 sin(ωt)
avec c1 , c2 ∈ R2 . La trajectoire est une ellipse.
Définition 3.1.2 (Identification de R2 par le plan complexe).

! R2 → C
x1
7→ w1 = x1 + iy1
y1

Equation différentielle complexe du ressort


ẅ1 + w1 = 0
m1
dont la solution est :
w1 (t) = c1 cos(ωt) + c2 sin(ωt)
avec c1 , c2 ∈ C.
Chapitre 3. Systèmes masses-ressorts, corps élastiques 29

3.2 Intéraction entre plusieurs masses (cas général)


!
x (t)
Soient p, q ∈ N ; On note les particules libres zj = j avec j ∈ {1, ..., p} et les particules
yj (t)
fixes zi (t) = zi (0), i ∈ {p + 1, ..., p + q}. On a donc p particules libres et q particules fixes. On
note mj la masse de zj .

Coordonnées complexes pour zj (t)

wj (t) = xj (t) + iyj (t)

Forces d’interactions

∀(j, k), j 6 k, il y a un ressort de raideur κjk = κkj entre zj et zk avec κjk = 0 possible (pas
de ressort) et κjj = 0.

Force de gravitation
!

→ 0
Force constante notée Fj = mj g qui agit sur la particule zj .
−1

Mise en équation

p
X p+q
X
∀j ∈ {1, ...,p }, mj z̈j = Fj,i + Fj , k + Fj
i=1,i6=j k=p

• Fj,i : Forces d’interaction.


• Fj,k , Fj : Forces externes.
On peut écrire sous forme matricielle et aussi par transformée complexe.

κ11 · · ·
    
m1 ẅ1 κ1p w1
m2 ẅ2  κ21 · · · κ2p w2 
    
 . = .
  ..  + Fext
..  (∗)
 
 .   .
 .   . .  . 
mp ẅp κp1 · · · κpp wp

p+q
X
avec κjj = − κjk et j ∈ {1, ..., p}
k=1,k6=j

 
κ11 · · · κ1p
 . .. 
 ..
Définition 3.2.1.   est l’opposé de la matrice de raideur K.
. 
κp1 · · · κpp

Complément 3.3 (Matrice de raideur). Dans les systèmes masses-ressorts, la matrice de rai-
deur associée à un élément est définie par les propriétés mécaniques du tissu de chaque élément
fini.
30 Chapitre 3. Systèmes masses-ressorts, corps élastiques

 p+q
X

−iF1 + κ1k wk 
 
 k=p+1 
Fext =
 .. 

 . 


 p+q
X


−iF
p+ κpk wk 
k=p+1

Exemple 3.3.1.

m1 z̈1 = κ12 (z2 − z1 ) + κ13 (z3 − z1 ) + F1


m1 z̈2 = κ12 (z1 − z2 ) + κ23 (z3 − z1 ) + F2
Sous forme matricielle :
! ! ! !
m1 ẅ1 −κ12 − κ13 κ12 w1 κ w + −iF1
= + 13 3
m2 ẅ2 κ12 −κ22 − κ23 w2 κ23 w3 + −iF2
! ! !
m1 ẅ1 w1 i
= −K + (κ − F )
m2 ẅ2 w2 ! !
i !
−2 1 w1 i
= κ + (κ − F )
1 −2 w2 i

3.4 Equilibre
C’est une solution qui ne dépend pas du temps : weq .

0 = −Kweq + Fext

Si K (matrice de raideur) est inversible, on obtient weq = K −1 Fext .

Exemple 3.4.1 (Reprise de l’Exemple 3.2.2.). F1 = F2 = 4.


!−1 ! ! !
−2 1 −3i 2 1 −i
weq = =
1 −2 −3i 1 2 −i
!
0
⇒ w1 = −3i = w2 ⇒ z1 = z2 = .
−3
Chapitre 3. Systèmes masses-ressorts, corps élastiques 31

Rappel (Inverse d’une matrice 2 × 2).


!−1 !
a b 1 d −b
A−1 = =
c d det A −c a

Remarque. • La théorie des équations différentielles linéaires à coefficients constants dit que
toute soultion s’obtient comme la somme d’une somme de l’équation homogène M ẅ =
−Kw (∗∗) et de weq .
1 √ √
• On peut toujours ramener au cas m1 = ... = mp = 1, M 2 = diag( m1 , ..., mp ) et on
1
pose v = M 2 w
1 1 1 1 1
ü = M 2 ẅ = M − 2 M ẅ = M − 2 Kw = −M − 2 KM − 2 u

c’est-à-dire :
¨(u) = −K̃u avec K̃ = M − 12 KM − 12 (∗ ∗ ∗)

Lemme 3.4.1. La matrice K est symétrique (K = K T ) et semi-définie possitive (c’est-à-dire


que (y|Ky) ≥ 0, (y|Ky) produit scalaire, ∀y ∈ Rp ). En particulier, les valeurs propres de K
sont positives et strictement postives si K inversible.

Démonstration. • ∀j, l ∈ N, avec j 6= l, Kjl = −κjl = −κlj = Klj .



p p p !
T
κjl yj2
X X X
y .Ky = − κjl yj yl +
j,l=1,j6=l j=1 l=1

p p+q p p p
κjl yl2 + κjl yj2 −
X X X X X
= κjl yj yl
j=1 l=p+1 j=1 l=1,l6=j j,l=1,j6=l

On utilise :
1 1 2 1 2
   
κjl yj2 + κlj yl2 = κjl yj2 + yl2 + κlj y + y
2 2 j 2 l
On aura alors :
p p+q p
1 1
 
κjl yj2 − κjl yj yl − yj2 − yl2
X X X
(y|Ky) =
j=1 l=p+1 j,l=1,j6=l 2 2
| {z } | {z }
≥0 car κjl ≥0 ≥0 car yj yl − 12 yj2 − 21 yl2

• Soit v un vecteur propre de K associé à une valeur propre λ.

(v|Kv) ≥ 0 ⇔ λ(v|v) = λkvk2 ≥ 0 ⇒ λ ≥ 0

Si K inversible, det K 6= 0 donc λ > 0.

Dans toute la suite du cours, on suppose que K est inversible.


32 Chapitre 3. Systèmes masses-ressorts, corps élastiques

3.5 Modes propres


Définition 3.5.1. Un mode propre est une solution de (∗ ∗ ∗) qui, à chaque instant, est un
vecteur propre de K. Soit v un vecteur propre de K̃ associé à λ.

ü + K̃u = 0 ⇔ ü + λu = 0

On a :
u(t) = θ(t)v avec θ(t) ∈ C
Donc :
θ̈(t) + λθ(t) = 0
√ √
u(t) = (c1 cos( λt + c2 sin( λt)).v, c1 , c2 ∈ C
1
Remarque. Pour w, on obtient w(t) = weq + M − 2 θ(t)v.
!
2 −1
Exemple 3.5.1 (Reprise de l’Exemple 3.2.2.). K̃ = K = a comme vecteurs
−1 2
!
1  
propres associé à la valeur propre 2 et 1 −1 associé à la valeur propre 3. On a pour le
1
!
1
vecteur propre :
1

1 : Les particules auront le méme mouvement horizontal si θ(t) ∈ R. 2 : Les particules auront
le méme mouvement vertical si θ(t) ∈ iR.
!
1
pour le vecteur propre , on aura :
−1

1 : si θ(t) ∈ iR. 2 : si θ(t) ∈ R

3.6 Principe de superposition


Toute solution de (∗∗) s’écrit comme une somme de modes propres.
Lemme 3.6.1. Les valeurs propres d’une matrice symétrique sont réeles. Toute matrice symé-
trique S ∈ Rm×n admet une base orthonormé de vecteur propre v1 , ..., vn dans Rn .
Démonstration. • Soit v un vecteur propre de Cn associé à la valeur propre λ.
t t
vSv = λt v.v =t v t Sv =t Sv.v =t λv.v = λ v.v

Donc : λ = λ ∈ R. Comme les valeurs propres sont réelles, les vecteurs propres aussi
(v ∈ Rn ).
Chapitre 3. Systèmes masses-ressorts, corps élastiques 33

• Soit v1 un vecteur propre alors Rn = v1 ⊕ [v1 ]⊥ . Montrons que [v1 ]⊥ est stable par S. Soit
w ∈ [v1 ]⊥ , on veut : Sw ⊥ v1 .

(v1 |Sw) =t v1 .Sw =t (Sv1 ).w = λt vi .w = λ(v|w) = 0

On recommence dans [v1 ]⊥ et ainsi de suite.

[v1 ]⊥ = v2 ⊕ [v2 ]⊥

A la fin :
Rn = v1 ⊕ ... ⊕ vn

Soit V = (v1 , ..., vp ) une base orthonormé de vecteurs propres de K̃ associés à λ1 , ..., λp > 0,
on peut chercher la solution u de (∗ ∗ ∗) sous la forme :
 
θ1
.
 .. 
u=V  
θp

(∗ ∗ ∗) devient :
       
θ̈1 θ1 θ̈1 θ1
. . . .
 .   .   .
V  .  + K̃V  .  = 0 ⇔ V  .  + [λ1 v1 , ..., λp vp ]  .. 
 
=0
θ̈p θp θ̈p θp
 
θ̈1 + λ1 θ1

⇔ .. 
=0

. 
θ̈p + λp θp
q q
⇔ θj (t) = cij (cos λj t) + c2j (sin λj t) avec j = 1, ..., p
La solution u de (∗ ∗ ∗) s’écrit :

u(t) = θ1 v1 + θ2 v2 + ... + θp (t)vp


| {z }
modes propres

Determination des constantes c1j , c2j Il faut connaître les conditions initiales.
   
θ1 c11
.  .  1
 .  (0) =  .  = V −1 u(0) = V −1 M 2 ω0 (0)
.  . 
θp c1p
√
λ1 c21
  
θ̇1
.
 .  (0) = 
 ..  1
 = V −1 u̇(0) = V −1 M 2 ω̇0 (0)
. q . 
θ̇p λp c2p

Exemple 3.6.1.
34 Chapitre 3. Systèmes masses-ressorts, corps élastiques

! ! !
−i −3i 2i
ω0 (0) = − =
2−i −3i 2 + 2i

!
1 2i
u(0) = M ω0 (0) =
2
2 + 2i

! ! ! !
−1 2i 1 1 1 2i 1 2 + 4i
θ(0) = V =√ =√
2 + 2i 2 1 −1 2 + 2i 2 −2

2+4i
c11 = √ ,
2
c12 = − √22

! ! !
0 0 0
ω̇0 (0) = − =
0 0 0

⇒ u̇(0) = 0 ⇒ θ̇(0) = 0 Donc c21 = 0 et c22 = 0

! ! 2+4i
√ cos(t)
!
−3i 1 1 1 2 √
ω(t) = +√ −2
−3i 2 1 −1 √
2
cos( 3t)

Courbes de Lissajous

Les courbes en rouge ⇒ ϕ = 0, les courbes en vert ⇒ ϕ 6= 0.


Chapitre 3. Systèmes masses-ressorts, corps élastiques 35

ω1 = ω ω1 = 2ω

ω2 = ω

ω2 = 2ω

ω2 = 3ω
Courbes de Lissajous

3.7 Particules avec frottement et gravité


On suppose que m1 = ... = mp = m. Sur chaque particule j, force de ressitance : Fj =
−mj γ żj , γ > 0 petit. On a le système d’équations suivant :
p+q
Fjl + FjG
X
mz̈j = −mγ żj +
l=1,l6=j

Sous forme matricielle :


mẅ = −mγ ẇ − Kw + Fext (∗)
36 Chapitre 3. Systèmes masses-ressorts, corps élastiques

La solution à l’équilibre reste la même :

weq = K −1 Fext

AVec les notations précédentes :


1
K̃ = K
m
 
λ1
K̃ = V 
 ..  −1
V
 . 
λp
On cherche les solutions sous la forme :
 
θ1
1 .
w(t) = weq + √ V  .
n .
θp

Dans (∗), on obtient :      


θ̈1 θ̇1 λ1 θ1
. .  . 
 .  = −γ  .  −  . 
. .  . 
θ̈p θ̇p λp θp

∀j, θ̈j + γ θ̇j + λj θj = 0


Equation caractéristique : α2 + γα + λj = 0 avec γ petit

∆ = γ 2 − 4λj < 0 car γ petit


q
−γ ± i 4λj − γ 2 γ
αj = = ± iωj
2 2
Les solutions sont : γ γ
θj (t) = Aj e(− 2 +iωj )t + Bj e(− 2 −iωj )t
γ
= e− 2 t (c1j cos(ωj t) + c2j sin(ωj t))
γ
e− 2 t s’appelle le coefficient d’amortissement. Détermination des constantes :
 √
θ(0) = mV −1 (w(0) − weq )

θ̇(0) = mV −1 ẇ(0)

3.8 Agitation du système masse-ressort avec amortisse-


ment
Chapitre 3. Systèmes masses-ressorts, corps élastiques 37

ẅ + γ ẇ + Kw = Fext
−1 2
 
 .. .. 0 
−1
 . . 
K= 
.. ..

. . −1
 
 0 
−1 −2
Fext = h(t)a

0

 . 
 .. 
 
0
  
1, t ∈]t2k , t2k+1 [
avec tk = k T2 , T période.
 
avec a = −i et h(t) =
  0, t ∈]t2k , t2k+1 [
0
 
 . 
 . 
 . 
0

Methode de résolution On resoud l’équation en chaque intervalle de temps :


γt !
e− 2 (c11k cos(ω1 t) + c21k sin(ω2 t)
w(t) = weq + V γt
e− 2 (c12k cos(ω1 t) + c22k sin(ω2 t)

Pour t ∈]t2k , t2k+1 [ : weq = K −1 (Fext + a). Pour t ∈]t2k+1 , t2k+2 [ : weq = K −1 Fext .
Les constantes sont choisis tel que w(t) et ẇ(t) vérifient les conditions initiales pour t = t2k
(ou pour t = t2k+1 ).
Si 2π
T
est proche de la fréquence d’un mode propre du pont, kw(t)k → ∞ lorsque t → ∞.
Chapitre 4

Approximation trigonométrique

Préliminaires
Soit f un signal périodique de période T (6= 0), f : R → C 1 tel que ∀x ∈ R, f (x+T ) = f (x).

4.1 Interpolation trigonométrique


On connait T et n valeurs (régulièrement espacé sur [0, T ]) de la fonction f .
!
k
yk = f T , k = 0, ..., n − 1 (4.1)
n
 
k
Remarque. On connaît donc f n
T , ∀k ∈ Z ⇒ la suite (yk ) est définie sur Z et est périodique
de période n.

Problème. On veut déduire de ces informations une approximation trigonométrique de f ,


c’est-à-dire :
n−1

X  
cj tel que f (x) ' cj exp i jx (4.2)
j=0 T

avec i = −1.
T
Remarque. exp 2π
T
jx est de période j
(j 6= 0). La somme est donc de période T .

Méthode 4.2. Interpolation : les cj sot choisis de telle manière que (4.2) sont exacts aux points
xk = nk T , c’est-à-dire :

n+1
!
X2iπjk
∀k ∈ {0, ..., n − 1}, yk = cj exp (4.3)
j=0 n

Posons : ω = exp i 2π
n
alors (4.3) s’écrit :

n−1
X
yk = cij ωjk (4.4)
j=0

1
dans C pour plus de généralité, mais on peut très bien considéré le cas particulir de f : R → R

38
Chapitre 4. Approximation trigonométrique 39

ou encore :     
y0 1 1 1 ··· 1 c0

 y1

 1

ω ω2 ··· ω n−1 
 c1


n−1
ω2 ω4 ω2
    

 y2  = 1
  ··· 
 c2 

 ..  .
 .. .. .. .. ..  .. 

 . 
  . . . . 
 . 

n−1 n−1
yn−1 1 ω n−1 ω 2 ··· ω n−1 cn−1
Y = ΩC (4.5)
Le système (4.5) se résoud très facilement. En effet, calculons la combinaison linéaire suivant
les lignes de (4.5)
n−1
ω −kp yk où p = {0, ..., n − 1}
X

k=0

On a :
n−1 n−1 n−1 n−1
X n−1
ω −kp yk = ω −kp cj ω jk = cj ω −kp ω jk
X X X X

k=0 k=0 j=0 k=0 j=0


n−1
X n−1 n−1
X n−1
cj ω k(j−p) = ω k(j−p)
X X
= cj (∗)
k=0 j=0 j=0 k=0

Or si j = p,
n−1
ω k(j−p) = 0
X

k=0

si j 6= p
n−1 n−1 n
 k 1 − ω (j−p)
ω k(j−p) = w(j−p)
X X
=
k=0 k=0 | {z } 1 − ω (j−p)
suite géométrique
n j−p
1 − (ω ) 1−1
= = =0
1 − ω (j−p) 1 − ω j−p
Donc :
n−1 n−1
ω −kp yk =
X X
(∗) = cjn δjp = ncp
k=0 j=0

0 si j 6= p
avec δjp = . On a donc trouvé que :
1 si j = p

1 n−1
ω −kj yk
X
cj = (4.6)
n k=0

On avait (4.5) :
Y = ΩC
et
(ω i − ω j )
Y
det(Ω) =
n−1≥i>j≥0

Cela s’appelle le déterminant de Vandermonde. On a det Ω 6= 0 car ∀i 6= j ∈ {0, ..., n − 1},


ω i 6= ω j → la solution trouvée est unique. On peut écrire :
1 ∗
C= ΩY (4.7)
n
40 Chapitre 4. Approximation trigonométrique

c’est-à-dire qu’on a prouvé que :


1 ∗
Ω−1 = Ω (4.8)
n
 
1 1 1 ··· 1
n−1 
1 ω ω2 ··· ω


ω2 ω4 2(n−1) 
 
1
Ω= ··· ω  , Ω∗ = tr(Ω) (ω −1 = ω)
. .. .. .. .. 
 .. . . . . 
 
2
1 ω n−1 ω 2(n−1) · · · ω (n−1)
La formule (4.6) et (4.7) définit donc une application :

Cn → Cn
Fn :
(yk ) 7→ ck

Cette application ne dépend que de ω = exp 2iπ


n
. Elle s’appelle la transformée de Fourier discrète
d’ordre n. On vient de démontrer qu’elle était bijective.
Remarque. Les séries de Fourier consiste à chercher les cn tel que :
+∞
X 2π
f (x) = dj exp(i jx)
j=0 T

Le problème est ici différent, puisque contraint à (4.2), la somme est infinie (⇒ étude de
convergence).
f doit être comme presque :
1ZT 2π
dj = f (x)e−i T j dx
T 0
Par contre dans le cas de l’interpolation trigonométrique si on n’a pas à discuter de la conver-
gence, il serait nécessaire de discuter de l’erreur d’interpolation de l’approximation (4.2).

Méthode des trapèzes La méthode d’approximation d’une intégrale dite “des Trapèzes”
repose sur le calcule de l’aire d’un trapèze. Si f est une fonction affine sur R, donc du type :
“f (x) = Ax + B”, pour tout couple (a, b) de réels, on a :
Z b
x2 b f (a) + f (b)
 
f (x)dx = A + Bx = (b − a)x
a 2 a 2
L’approximation de (4.9) par la méthode des trapèzes dans la formule (4.6).

4.3 Quelques propriétés


Propriété 4.3.1. De la même manière que la suite (yk ) est définie en Z et est périodique de
période n, la formule (4.6) définit les (cj ) sur Z

1 n−1
ω −kj yk
X
cj = (4.9)
n k=0

(cj ) est périodique de période n.


Chapitre 4. Approximation trigonométrique 41

Démonstration.

1 n−1
ω −k(j+n) yk
X
cj+n =
n k=0
1 n−1 1 n−1
ω −kj × ω −kn × yk = ω −kj yk = cj
X X
=
n k=0 n k=0

Propriété 4.3.2. Si f est une fonction réelle lors cj = c−j (4.11).

Démonstration.
n n
1X 1X
cj = ω −kj yk = ω −kj yk
n k=0 n k=0
n n
1X 1X
= ω kj yk = ω −k−j yk = c−j
n k=0 n k=0

Propriété 4.3.3. Parité de f : si f est paire alors c−j = cj . Si f est impaire alors c−j =
−cj (4.12).

Propriété 4.3.4. Si f est réelle et paire alors les (cj ) sont réels et pairs. Si f est réel et f
impair alors les (cj ) sont imaginaires pures et impairs.
n F
Propriété 4.3.5. Si (yk ) −→ (ck ) alors on a :
n−1 n−1
2
|ck |2
X X
|yk | = n (4.13)
k=0 k=0

Démonstration.
2
n−1 n−1 n−1
1 n−1
X n−1
! n−1 !
X 1 X −kl

2 −kl kl
X X X
n |ck | = n ω yl = ω yl ω yl
n n
k=0 k=0  l=0  k=0 l=0
 l=0
1 n−1
X n−1
−kl
n−1
1 n−1
X n−1
X n−1
kj 
ω −kl yl ω kj yj
X X X
=  ω yl ×  ω yl =
n k=0 l=0 j=0 n k=0 l=0 j=0
1 X X X k(j−l) 1 X X X k(j−l) 1 XX
ω k(j−l)
X
= ω yl yj = ω yl yj = yl yj
n k l j n l j k n l j k
n−1 n−1 n−1
1
|yl |2
X X X
= yj yj × n = yl yl =
n j=0 l=0 l=0

4.4 Vers la transformée de Fourier rapide (FFT)


Si n pair, on va montrer qu’on peut réduire le nombre de calculs pour obtenir cj de moitié.
Soit n = 2m, (4.6) donne :

1
cj = (ω −0j y0 + ω −1j y1 + ... + ω −(2m−2)j y2m−2 + ω −(2m−1)j y2m−1 )
2m
42 Chapitre 4. Approximation trigonométrique

On va séparer les termes pairs et impairs :


1 1
cj = (ω −0j y0 + ω 2j y2 + ... + ω −(2m−2)j y2m−2 ) + (ω −1j y1 + ω −3j y3 + ... + ω −(2m−1) y2m−1 )
2m 2m
1 −j
= (Pj + ω Ij ) (4.14)
2
avec
1 −0j
Pj = (ω y0 + ω −2j y2 + ... + ω −(2m−2) y2n−4 + ω −2(m−1) y2m−2 )
m
1
Ij = (ω −0j y1 + ω −2j y1 + ... + ω −(2m−2) y2n−3 + ω −2(m−1) y2m−1 )
m
c’est-à-dire :
1 n−1
(ω 2 )−kj y2k
X
Pj =
m k=0
(4.15)
1 m−1
(ω 2 )−kj y2k+1
X
Ij =
m k=0
Or : ω 2 = (exp i 2π
n

)2 = exp i 2m = exp i 2π
m
. Cela signifie que (4.15) définit deux transformés de
Fourier discrètes d’ordre m indépendantes :
F n
(y0 , y2 , ..., y2m−2 ) −→ (P0 , P1 , ..., Pn−1 )
F n
(y1 , y3 , ..., y2m−1 ) −→ (I0 , I1 , ..., In−1 )
Remarque. Les (Pk ) et les (Ik ) sont m-periodiques, on a donc aussi :

I
m , Im+1 , ..., I2m−1
Pm , Pm+1 , ...P2m−1

car j ∈ {0, ..., m − 1}.

Bilan Le calcul des (cj ) par (4.6) nécessite (en supposant avec ω −j déjà calculés au préambule)
(n − 1)2 multiplications sur les ω −kj yk sauf k = 0 et j = 0 et n(n − 1) additions.
En pratique, n est grand (de l’ordre de 5000, 10000) donc le nombre d’opérations est d’en-
viron 2m2 .
Par (4.16), il faut donc 2m2 + 2m2 opérations, c’est-à-dire 4m2 (au lieu de 8m2 (= 4m2 )).
Le gain semble petit mais si m est pair, on peut encore diviser les calcule par 2,..., et par
réccurence, si n = 2p , on arrive à la transformée de Fourier discrète d’ordre 2p . (y, z) 7→ (Y, Z),
au total le coût de calcul est de l’ordre n log2 n (au lieu de n2 ).

Y = 21 (y − z)
Z = 1 (y + z)
2

4.5 Transformée en cosinus discrète


Soit f réelle, T -périodique et paire, on veut :
n−1

X  
f (x) ' cj cos jx (4.17)
j=0 T
Chapitre 4. Approximation trigonométrique 43

2k+1
cj sont choisis pour que (4.17) soit exact aux points xk = 4n
T, k = 0..n − 1 c’est-à-dire :
n−1
!
X πj(2k + 1)
yk = cj cos (4.18)
j=0 2n

Soit l ∈ {0, ..., n − 1}, on calcule la combinaison linéaire des yk suivante :


n−1
X πl(2k + 1)
Dl = 2 yk cos
k=0  2n 
n−1 n−1
!
X X πl(2k + 1) πj(2k + 1)
= 2  cj cos × cos 
k=0 j=0 2n 2n
n−1
X n−1
! !
X πl(2k + 1) πj(2k + 1)
= 2 cj cos cos
j=0 k=0 2n 2n
n−1 n−1
! !
X X πl(2k + 1) πj(2k + 1) πl(2k + 1) πl(2k + 1)
= cj cos + + cos −
j=0 k=0 2n 2n 2n 2n
n−1 n−1
! !
X X (l + j)π × (2k + 1) (l − j)π × (2k + 1)
= cj cos + cos
j=0 k=0 2n 2n
2iπ
Posons ω = e 4n (première racine 4n-ième de l’unité).
 
1 n−1
X n−1 X
ω (j+l)(2k+1) + ω −(j+l)(2k+1) + ω (j−l)(2k+1) + ω −(j−l)(2k+1) 
Dl = cj
2 j=0 k=0 | {z
+
} | {z

}
S S

j+l l−j
Soit X = |ω{z } ou ω
| {z }. On doit calculer :
S+ S−

n−1
X 2k+1 + X −(2k+1)
X
Si,j =
k=0
= X −(2n−1) + ... + X −5 + X −3 + X −1 + X + X 3 + X 5 + ... + X 2n+1
Remarque. X est une racine 4n-ième de l’unité.

Si,j = X(X −2n + ... + X −6 + X −4 + X −2 + X 0 + X 2 + X 4 + X 6 + ... + X 2n )


On pose : Y = X 2 = (ω p )2 = (ω 2 )p (avec p = j + l ou p = l − j). Y est donc une racine 2n-ième
de l’unité.
−n
Si,j = X(Y
|
+ ... + Y −3
{z
+ Y −2 + Y −1} +Y 0 + Y 1 + Y 2 + ... + Y n−1 )
Y 2N =1
= X(Y 0 + Y 1 + Y 2 + ... + Y n−1 + Y n + ... + Y 2n−3 + Y 2n−2 + Y 2n−1 )

• si Y = ω 2(l+j) , l ∈ {0, ..., n − 1} et j ∈ {0, ..., n − 1} ⇒ (Y = 1 ⇔ l = j = 0).



+
0 si (l, j) 6= (0, 0)
Sj,l =
2n si (l, j) = (0, 0)

• si Y = ω 2(l−j) , Y = 1 ⇔ l − j = 0.


0 si l 6= j
Sj,l =
2n si l = j
44 Chapitre 4. Approximation trigonométrique

Donc pour l 6= 0 :
1 Dl
Dl = cl × 2n ⇔ cl =
2 n
si l = 0 :
1 D0
D0 = (c0 (2n + 2n)) ⇒ c0 =
2 2n
Conclusion :
2 n−1
!
X πl(2k + 1)
pour l 6= 0, cl = yk cos
n k=0 2n
et (4.19)
n−1
1 X
pour l = 0, c0 = yk
n k=0

4.6 La compression JPEG


Cette compression est basée sur la “transformée cosinus discrète” (DCT).
Une image peut être représentée par un ensemble de points d’un domaine spatial X, Y, Z.
Les axes X et Y représentent les deux dimensions de l’image et Z l’amplitude du signal.
Ainsi, par une image carrée, celle-ci définie par :

x = 0..n − 1
Z = P (x, y) y = 0..n − 1

Chaque couple (x, y) est appelé pixel et P (x, y) est la valeur du pixel → le signal est bidimen-
sionnel, c’est donc une DCT bidimensionnelles que l’on utilise (admi).

X n−1
n−1
! !
2 X πu(2x + 1) πv(2y + 1)
F (u, v) = c(u)c(v) P (x, y) cos cos (4.20)
n x=0 y=0 2n 2n

avec (c0) = √1 , c(w) = 1 pour w ∈ {1, 2, .., n − 1}. La transformée de Fourier est données par
2

2 n−1
X n−1
! !
X πu(2x + 1) πv(2y + 1)
P (x, y) = c(u)c(v)F (u, v) cos cos (4.21)
n u=0 v=0 2n 2n

En fait, le calcul ne se fait pas sur l’image entière car :


∗ trop de calcul
∗ l’image n’est pas obligatoirement carrée
On décompose l’image en bloc de 8 pixels × 8 pixels (ou 16 × 16) sur lequel on applique la
DCT.
Après la décomposition en bloc de l’image, le principe de la compression JPEG est :
• représentation de l’image par la matrice F (u, v) (représentation fréquentielle) par (4.20).
• Compression : on réduit le nombre de valeurs de matrice, par exemple, en enlevant les
hautes fréquences (peu sensibles à l’oeil et de faible amplitude) (x et/ou y grand).
• La restitution de l’image se fait ensuite par la formule (4.21).

Vous aimerez peut-être aussi