Cours Saisie AN1 Word
Cours Saisie AN1 Word
Cours Saisie AN1 Word
Exercice 1 :
En utilisant la méthode de la bissection, chercher la racine carrée de 2 en
prenant l’intervalle [1,2] pour une précision de E=𝟏𝟎−𝟑
Exercice 2 :
Montrer que la fonction 𝑓(𝑥) = 𝑥 3 + 𝑥 2 − 3𝑥 − 3 possede un zéro dans
l’intervalle [1 ; 2]. Trouver sa valeur approchée en 10itérations.
NB :
On peut résoudre des équations non linéaires de la forme f(x)=0
en utilisant l’algorithme des points fixes. Il suffit pour ce faire de
transformer l’équation f(x)=0en un problème équivalent de la
forme x=g(x). L’ennui est qu’il y a une infinité de façons
différentes de le faire. Nous verrons que certains choix donnent
lieu à des algorithme convergente et d’autres pas.
Remarque 2.15
Si |g’(r)|<1 et |g’(r)| 0, la méthode des points fixes converge
à l’ordre 1
Si |g’(r)|=0 et |g’’(r)| 0, on a une convergence quadratique
Si |g’(r)|= |g’’(r)|=0 et |g’’’(r)| 0, la convergence est d’ordre
3 ; t ainsi de suite.
2. Point fixe attractif
Definition 2.18
Un point fixe r de la fonction g est dit attractif si :
|g’(r)|<1
et répulsif si :
|g’(r)|>1
Le cas où |g’(r)|=1 est indéterminé.
Comment choisit-on l’intervalle de convergence ?
- Si 0 ≤ 𝑔 ′ (𝛼) < 1 𝑎𝑙𝑜𝑟𝑠 [𝛽 ; 𝛾] 𝑐𝑜𝑛𝑡𝑒𝑛𝑎𝑛𝑡 𝛼 𝑒𝑠𝑡 𝑡𝑒𝑙 𝑞𝑢𝑒 0 ≤ 𝑔 ′ (𝑥)
< 1 ∀ 𝑥 ∈ [𝛽 ; 𝛾]
- Si −1 ≤ 𝑔 ′ (𝛼) < 0 ; 𝑉𝛼 = [𝛽 ; 𝑔(𝛽)] 𝑡𝑒𝑙 𝑞𝑢𝑒 − 1 ≤ 𝑔 ′ (𝑥) < 0 ∀ 𝑥 𝜖
[𝛽 ; 𝑔(𝛽)]
La méthode est convergente si |g’(x)| <1
Il faut calculer donc g’(x) et g’’(x)
Si la méthode n’est pas convergente il faut choisir la solution initiale
𝑥0 un peu plus loin de 𝛽 pour assurer la convergence.
La courbe y=x au-dessus de g(x), le point fixe est attractif. Dans le
cas contraire il est répulsif ceci est vrai quelques soit x grand supérieur
à∝
5. Test d’arrêt
Si le processus itératif converge, la solution 𝛼 étant la limite de la suite,
ne peut être atteinte au bout d’un nombre infini d’itérations. Par
conséquent, l’algorithme sera arrêté en utilisant l’un des tests suivants,
où 𝜀 désigne la précision à laquelle on souhaite obtenir la solution.
(1)|𝑥𝑛 − 𝑥𝑛−1 | ≤ 𝜀
|𝑥𝑛 − 𝑥𝑛−1 |
(2) ≤𝜀
|𝑥𝑛 |
(3)| g(𝑥𝑛 )≤ 𝜀| ; 𝑐 ′𝑒𝑠𝑡 − à − 𝑑𝑖𝑟𝑒 g(xn ) 𝑒𝑠𝑡 𝑝𝑟𝑒𝑠𝑞𝑢𝑒 𝑛𝑢𝑙le
Le processus sera considéré comme non convergent vers la solution
cherchée, si la précision 𝜀 souhaité n’est pas atteinte au-delà d’un
‘’nombre raisonnable’’ d’itération.
6. Vitesse de convergence
Soit 𝑥𝑛 une suite convergente vers 𝑥∞. S’il existe un nombre P et une
|𝑥𝑛+1 − 𝑥∞ |
constante 𝐶 ≠0 tel que lim ( )= 𝐶. On dit que la convergence
𝑛→∞ (𝑥𝑛 − 𝑥∞ )𝑝
est d’ordre P, C est la constante d’erreur asymptotique S’il existe une
constante C et un réel P > 0 tel que |𝑥𝑛+1 − 𝑥∞ |≤(𝑥𝑛+1 − 𝑥∞ )𝑃 pour
tout n assez grand.
On dit que la convergence est au moins d’ordre P.
- P=1 l’ordre de convergence est dit linéaire ou géométrique
- P > 1 l’ordre de convergence est dit super linéaire
- P =2 la convergence est quadratique.
Remarque :
Une méthode est dite linéaire, lorsqu’elle est d’ordre 1
On a alors (∝) ≠ 0.
Elle est dite quadratique si elle est d’ordre 2.
Pour une méthode d’ordre p, lorsqu’on passe d’un itéré à l’autre le nombre
de chiffre décimaux exacts est environ multiplié par p.
Exercice.
a) Trouver la racine de la fonction 𝑓1 (𝑥 ) = 𝑥 − cos(𝑥) en utilisant la
méthode du point fixe.
b) Tracer la fonction f sur [-0.5 ; 3].
c) Ecrire le programme Matlab permettant l’implémentation du schéma
numérique de cette méthode.
d) Afficher sur le même graphe la fonction et la solution approchée.
e) Afficher le graphe représentant le nombre d’approximations successives
en fonction du nombre d’itérations.
f) Tracer l’évolution de l’erreur en fonction du nombre d’itérations.
g) Appliquer le même algorithme pour résoudre 𝑓2 (𝑥 ) = 1 + 𝑥 + 𝑒 𝑥 sur
l’intervalle [-2 ; 3/2].
Prendre ε = 10-6 et 𝑥0 = 0.8.
2 – Algorithme.
1. Etant donné ε, un critère d’itération.
2. Etant donné N, le nombre maximal d’itérations.
3. Etant donné 𝑥0 , une valeur initiale de la solution.
𝑓(𝑥𝑛 )
4. Effectuer l’opération suivante : 𝑥𝑛+1 = 𝑥𝑘 − .
𝑓′(𝑥𝑛 )
|𝑥𝑛+1 −𝑥𝑛 |
5. Si |𝑥𝑛+1 |
≤𝜀:
- Convergence atteinte.
- Ecrire la solution.
- Arrêt.
6. Si le nombre maximal d’itérations N est atteint :
- Convergence non atteinte en N itérations.
- Arrêt.
7. Retour à l’étape 4.
Interprétation géométrique.
La figure ci-contre permet de donner une interprétation géométrique assez
simple de la méthode de Newton.
Exercice 1.
Résoudre l’équation 𝑓 (𝑥 ) = 𝑒 −𝑥 − 𝑥 = 0 par la méthode de Newton-
Raphson, sachant que 𝑥0 = 0 est la valeur initiale de la solution.
Exercice 2.
Ecrire un code en suivant les étapes suivantes.
1
Résoudre l’équation 𝑓 (𝑥 ) = 1 + 𝑥 + 𝑒 𝑥 = 0 ; 𝑥0 = − .
2
𝑓 (𝑥 )
(𝑥𝑛+1 − 𝛼) (𝑥𝑛 − 𝛼) − 𝑚
𝑓 ′ (𝑥 )
=
(𝑥𝑛 − 𝛼)2 (𝑥𝑛 − 𝛼)2
(𝑥𝑛 − 𝛼)𝑓′(𝑥) − 𝑚𝑓(𝑥)
=
(𝑥𝑛 − 𝛼)2 𝑓′(𝑥)
𝑚
(𝑥𝑛 − 𝛼 )𝑘 (𝑘)
𝑓(𝑥𝑛 ) = ∑ 𝑓 (𝑥 ) + ⋯
𝑘!
𝑘=0
𝑓 (𝑥 )
(𝑥𝑛+1 − 𝛼) (𝑥𝑛 − 𝛼) − 𝑚
𝑓 ′ (𝑥 )
=
(𝑥𝑛 − 𝛼)2 (𝑥𝑛 − 𝛼)2
(𝑥𝑛 − 𝛼)𝑓′(𝑥) − 𝑚𝑓(𝑥)
=
(𝑥𝑛 − 𝛼)2 𝑓′(𝑥)
𝐷 = (𝑥𝑛 − 𝛼)2 𝑓′(𝑥)
(𝑥𝑛 − 𝛼 )𝑚−1 (𝑚)
= 𝑓 (∅𝑛 )
(𝑚 − 1)!
𝐴 = (𝑥𝑛 − 𝛼)𝑓′(𝑥)
(𝑥𝑛 − 𝛼 )𝑚−1 (𝑚) 𝑚
= 𝑓 (𝛼 ) + (𝑥𝑛 − 𝛼)𝑚+1 𝑓 (𝑚+1) (𝜈𝑛 )
(𝑚 − 1)! (𝑚 + 1)!
𝐵 = 𝑚𝑓(𝑥)
(𝑥𝑛 − 𝛼 )𝑛 𝑚
= 𝑓(𝛼) + (𝑥𝑛 − 𝛼)𝑚+1 𝑓 (𝑚+1) (𝜆𝑛 )
(𝑛 − 1)! (𝑚 + 1)!
NB :
La convergence de la méthode de Newton est linéaire si 𝛼 est une racine
multiple de 𝑓. Si la fonction admet une racine simple, la convergence est
quadratique.
V – Méthode de la sécante.
La méthode de Newton présente de grands avantages, mais elle nécessite le
calcul de la dérivée de 𝑓. Si la fonction 𝑓 est complexe, cette dérivée peut
être difficile à évaluer et peut résulter en une expression complexe. On
contourne cette difficulté en remplaçant le calcul de la pente 𝑓′(𝑥𝑛 ) de la
droite tangente à la courbe par l’expression suivante :
𝑓 (𝑥𝑛 ) − 𝑓 (𝑥𝑛−1 )
𝑓 ′ (𝑥𝑛 ) ≃
𝑥𝑛 − 𝑥𝑛−1
Cela revient à utiliser la droite sécante passant par les points (𝑥𝑛 ; 𝑓(𝑥𝑛 ))
et (𝑥𝑛−1 ; 𝑓(𝑥𝑛−1 )) plutôt que la droite tangente passant par (𝑥𝑛 ; 𝑓(𝑥𝑛 )).
Ce choix est représenté à la figure suivante.
Interprétation géométrique.
Il en résulte l’algorithme suivant :
Algorithme de la méthode de la sécante.
1. Etant donné 𝜀𝑎 , un critère d’arrêt.
2. Etant donné N, le nombre maximal d’itérations.
3. Etant donné 𝑥0 et 𝑥1 , deux valeurs initiales de la solution.
4. Effectuer :
𝑓 (𝑥𝑛 )(𝑥𝑛 − 𝑥𝑛−1 )
𝑥𝑛+1 = 𝑓 (𝑥𝑛 ) −
𝑓 (𝑥𝑛 ) − 𝑓 (𝑥𝑛−1 )
|𝑥𝑛+1 −𝑥𝑛 |
5. Si |𝑥𝑛+1 |
≤ 𝜀𝑎 :
- Convergence atteinte.
- Ecrire la solution.
- Arrêt.
6. Si le nombre maximal d’itérations N est atteint :
- Convergence non atteinte en N itérations.
- Arrêt.
7. Retour à l’étape 4.
NB :
La convergence vers de la méthode de newton est linéaire si
est une racine multiple de f. Si la fonction admet une racine simple,
la convergence est quadratique.
VI - Méthode de la sécante
La méthode de Newton possède de grands avantages, mais elle
nécessite le calcul de la dérivée de f(x). Si la fonction f(x) est
complexe, cette dérivée peut être difficile à évaluer et peut résulter en
une expression complexe. On contourne cette difficulté en remplaçant
le calcul de la pente 𝑓′(𝑥𝑛) de la droite tangente à la courbe par
l’expression suivante :
𝑓(𝑥𝑛 )−𝑓(𝑥𝑛 −1)
𝑓′(𝑥) ≃
𝑥𝑛−𝑥𝑛−1
Interprétation géométrique
Algorithme de la méthode de la sécante
|𝑥𝑛+1 − 𝑥𝑛|
5. Si < 𝜖𝑎 :
|𝑥𝑛+1|
- Convergence atteinte
- Ecrire la solution xn+1
- Arrêt
6. Si le nombre maximal d’itérations N est atteint :
- Convergence non atteinte en N itérations
- Arrêt
7. Retour à l’étape 4
Remarque
Plusieurs remarques s’imposent au sujet de cet algorithme :
1. La dérivée de 𝑓(𝑥) n’apparaît pas dans l’algorithme .
2. Il faut fournir au départ 2 valeurs initiales. C’est ce qu’on appelle
algorithme à deux pas.
3. On choisit les valeurs initiales le plus près possible de la racine
recherchée. Il n’est cependant pas nécessaire qu’il y ait un changement
de signe dans l’intervalle [x0, x1], comme c’est le cas avec la méthode
de la bissection.
Exercice
1
Résoudre 𝑓 (𝑥 ) = 𝑥 − 0.2 sin(4𝑥 ) −
2
𝑥0 = −1 , 𝑥1 = 2 𝑒𝑡 𝜖 = 10−10
a) Ecrire le code Matlab de la méthode de la sécante
b) Afficher la solution approchée 𝑥𝑛 .
c) Afficher le nombre d’itérations
d) Afficher sur le même graphe f(x) solution
𝑥0 = 𝑏
{ 𝑥𝑛−𝑎
𝑥𝑛+1 = 𝑥𝑛 − 𝐹 (𝑥𝑛 ) = 𝑔(𝑥𝑛 )
𝐹 (𝑥𝑛 ) − 𝐹 (𝑎)
𝑥0 = 𝑎
{ 𝑏 − 𝑥𝑛
𝑥𝑛+1 = 𝑥𝑛 − 𝐹 (𝑥𝑛 ) = 𝑔(𝑥𝑛 )
𝐹 (𝑏) − 𝐹 (𝑥𝑛 )
C’est une suite croissante et bornée, donc convergente (𝑥0 < 𝑥1 … <
𝑥𝑛 < ⋯ < 𝑥̅ < 𝑏)
1 1
Exemple 3 : F(x) = 𝑥 3 + 𝑥 + 1 = 0 sur [ , 1], et on a F( ) = -0.375 et
2 2
1 1
F(1)=(1) donc 𝑥̅ ∈ [ , 1] . D’autre part 𝐹′′(𝑥) > 0 sur [ , 1], ainsi
2 2
( )
𝐹 1 𝐹′′(1) > 0,
c’est donc l’extrémité 𝐵(1, 𝐹 (1)) qui sera fixe. Par
conséquent, en commençant le processus par 𝑥0 = 1, on trouve aisément :
𝑥1 = 0.64 … , 𝑥2 = 0.67 … 𝑒𝑡𝑐 … ,
ainsi, 𝑥̅ = 0.67 à 10−2 près.
Exercices
1.
On considère l’équation 𝑓(𝑥 ) = 0, avec 𝑓 (𝑥 ) = 𝑐𝑜𝑠𝑥 −
𝜋
𝑥𝑒 𝑥 , 𝑥 ∈ [0, ].
2
1) Etudier les variations de 𝑓 et montrer que cette équation admet
𝜋
une solution unique s dans [0, ].
2
2) Utiliser la méthode de dichotomie pour trouver une valeur
approchée de s avec la précision 10−6 .
3) Vérifier que la méthode de Newton est applicable pour trouver
une valeur approchée de s. En étudiant le signe de 𝑓′′, indiquer
le bon choix de 𝑥0 . Calculer alors les 10 premiers itérés de
cette méthode.
4) On met l’équation 𝑓(𝑥 ) = 0 sous la forme
cos 𝑥
𝑥= 𝑥
𝑒
a) Montrer que les hypothèses d’application de la
méthode du point fixe ne sont pas vérifiées sur
𝜋
l’intervalle [0, ].
2
b) Montrer qu’elles le sont sur l’intervalle [0.45, 0.6].
c) Combien de termes devrait-on calculer par la méthode
du point fixe pour trouver une valeur approchée de s à
10−6 près ?
6.2.3.1. Algorithme
On construit la suite des itérés de la manière suivante :
- on fixe un point x0 quelconque de [a, b],
- puis on définit
𝑥1 = φ(𝑥0 )
𝑥2 = φ(𝑥1 )
.
.
.
{𝑥𝑛+1 = φ(𝑥𝑛 )
Méthode de Newton
1) Ecrire une fonction
6.3.4.2 Exemple
Considérons l’équation 𝑓(𝑥 ) = 0, avec
𝑓 (𝑥 ) = 𝑥 3 − 4.53𝑥 2 + 6.029𝑥 − 2.218039, 𝑥 ∈ [1,2]
𝑓 fonction polynôme est continue et dérivable sur [1,2], et on peut vérifié
une à une les hypothèses d’application de la méthode de Newton :
1) 𝑓(1) et 𝑓(2) sont de signes contraires :
»syms x real
» f = x^3 -4.53*x^2+6.0291*x-2.218039
» fDe1=subs(f,x,1)
fDe1=0.2811
» fDe2= subs(,x,2)
fDe2=-0.2798
» fPrime =diff(f)
fPrime =3* x^2 -453/50*x+60291/10000
» S=solve(fPrime)
S=[99/100]
[203/100]
»X(1)=1 ;
»for i=1 :10
X(i+1)=X(i)-double(subs(f ,x,X(i)))/double(subs(fPrime,x,X(i))) ;
End
»X
X=1.0000 10.0958 7.2550 5.3716 4.1319 3.3295 2.8309 2.5521
2.4116 2.4107
- En choisissant 𝑥1 = 2
»X(1)=2 ;
»for i=1 :10
X(i+1)=X(i)-double(subs(f ,x,X(i)))/double(subs(fPrime,x,X(i))) ;
End
»X
X=2.0000 -1.0785 -0.2883 0.2018 0.4742 0.5868 0.6085 0.6093 0.6093
0.6093 0.6093
- En choisissant 𝑥1 = 1.1
»X(1)=1.1 ;
»for i=1 :10
X(i+1)=X(i)-double(subs(f ,x,X(i)))/double(subs(fPrime,x,X(i))) ;
End
»X
X=1.1000 1.9591 0.6304 0.6086 0.6093 0.6093 0.6093 0.6093 0.6093
0.6093 0.6093
Dans les trois cas , on obtient des valeurs qui appartiennent pas à
l’intervalle [1,2] dans lequel on cherche la solution.
Par contre, l’initialisation 𝑥1 = 1.15 donne une suite qui semble
converger vers la solution cherchée
»X(1)=1.5 ;
»for i=1 :10
X(i+1)=X(i)-double(subs(f ,x,X(i)))/double(subs(fPrime,x,X(i))) ;
End
»X
X=1.1500 1.7309 1.4776 1.5101 1.5100 1.5100 1.5100 1.5100 1.5100
1.5100 1.5100
Théorème
Corollaire
Méthode de Lagrange
C’est une méthode d’interpolation polynomiale. Soit (𝑥𝑖 ; 𝑦𝑖 ) ; 𝑖 = 0 ; − − − − ; 𝑛 de
couples tels que 𝑥𝑖 ≠ 𝑥𝑗 𝑠𝑖 𝑖 ≠ 𝑗 𝑎𝑙𝑜𝑟𝑠
Les n+1 polynômes forment la base et 𝑃𝑛 est appelé polynôme d’interpolation de LaGrange
Si 𝑃𝑛 (𝑥) est de degré 1 on parle d’interpolation linéaire nous avons les propriétés suivantes
Propriétés
𝑳𝒊 (𝒙𝒋 ) = 𝜹𝒊,𝒋
𝒔𝒊 𝒊 = 𝒋 ; 𝜹𝒊,𝒋 = 𝟏
𝒊 ≠ 𝒋; 𝜹𝒊,𝒋 = 𝟎
𝑷𝒏 (𝒙𝒏 ) = 𝒚𝒌 𝜹𝒌,𝒌
Méthode de Newton
Soit une fonction f réelle défini sur un intervalle [a ; b] ; x0 ; x1 ; ---------- ; xn (n+1) points
distincts de a et b. A partir de ces points connu xi, yi tel que yi = f(xi). Le polynôme
d’interpolation de newton s’écrit 𝑃𝑛 (𝑥) = [𝑦0 ] + [𝑦0 ; 𝑦1 ](𝑥 − 𝑥0 ) + ⋯ +
[𝑦0 ; 𝑦1 ; … … … . . 𝑦𝑛 ](𝑥 − 𝑥1 ) … … … . . (𝑥 − 𝑥𝑛−1 ) avec les notations [𝑦𝐼 ] pour les différences
divisés
𝑘
𝑦𝑖
[𝑦0 ; 𝑦1 ; … … … . . 𝑦𝑘 ] = ∑
∏(𝑥𝑗 − 𝑥𝑖 )
𝑗=0
0≤𝑖≤𝑘
𝑖≠𝑗
Erreur d’Interpolation
𝑦 𝜀 𝑓([𝑎; 𝑏]) → 𝑥
𝑓 −1 (𝑦) 𝜖 [𝑎; 𝑏]
x 1 -1 2
𝑓(𝑥) 0 3 4
Méthode de Tchebychev
Nous savons que l’erreur d’interpolation est une fonction de x. Nous nous posons à présent la
question de savoir si le choix de point de collation équidistant est vraiment le meilleur choix. La
réponse est non. Il est d’usage courant de lisser les fonctions qui oscillent dans tous les sens en
utilisant le polynôme de TCHEBYCHEV définie sur [-1 ; 1]. Il s’agira de choisir 𝑥𝑖 𝑠𝑢𝑟 [−1; 1] de facon
a ce que max ∏𝑛𝑖=0(𝑥 − 𝑥𝑖 ) soit maximal.
𝑥(−1) = 𝑎
Soit x(t) variant linéairement tel que { 𝑡𝜖[−1 ; 1] → 𝑥(𝑡)𝜖[𝑎 ; 𝑏]
𝑥(1) = 𝑏
𝑏−𝑎 𝑎+𝑏
𝑥(𝑡) = 𝑡+
2 2
𝑏−𝑎 𝑎+𝑏
𝑥𝑖 = 𝑥(𝑡𝑖 ) = 𝑡𝑖 +
2 2
𝑏−𝑎 𝑎+𝑏 𝑏−𝑎 𝑎+𝑏
𝑥 − 𝑥𝑖 = ( 𝑡+ )−( 𝑡𝑖 + )
2 2 2 2
𝑏−𝑎
𝑥 − 𝑥𝑖 = (𝑡 − 𝑡𝑖 )
2
𝑛 𝑛
𝑏−𝑎
∏(𝑥 − 𝑥𝑖) = ∏[ (𝑡 − 𝑡𝑖 )]
2
𝑖=0 𝑖=0
𝑏−𝑎 (𝑛+1) 𝑛
=( ) ∏𝐼=0(𝑡 − 𝑡𝑖 )
2
Les points optimaux sont les zéros du polynôme de TCHEBYCHEV. Minimiser ∏𝑛𝑖=0(𝑥 − 𝑥𝑖 ) 𝑟𝑒𝑣𝑖𝑒𝑛𝑡
Soit maximal. La solution existe et n’est rien d’autres que l’ensemble des zéros du polynôme de
Tchebychev de degrés (n+1)
Définition
𝑇2 (𝑥) = 2𝑥 2 − 1
𝑇𝑛 (𝑡) = cos(𝑛𝑎𝑟𝑐𝑜𝑠(𝑡))
Posons 𝑇𝑛 (𝑡) = 0 , 𝑜𝑛 𝑎
𝜋
cos(𝑛𝑎𝑟𝑐𝑜𝑠(𝑡)) = 0 = cos ( + 𝑘𝜋)
2
𝜋
𝑛𝑎𝑟𝑐𝑜𝑠(𝑡) = + 𝑘𝜋
2
𝜋 𝑘𝜋
𝑎𝑟𝑐𝑜𝑠(𝑡) = +
2𝑛 𝑛
𝜋 𝑘𝜋
𝑡 = cos ( + )
2𝑛 𝑛
𝜋 + 2𝑘𝜋
𝑡 = cos ( )
2𝑛
𝜋
𝑡 = cos [ (1 + 2𝑘)]
2𝑛
𝟐𝒊+𝟏
𝒕𝒊 = 𝐜𝐨𝐬 [𝟐(𝒏+𝟏) 𝝅] avec i ϵ [𝟎, 𝒏] et
𝟐𝒊+𝟏
𝒕𝒊 = 𝐜𝐨𝐬 [ 𝟐(𝒏) 𝝅] avec i ϵ [𝟎, 𝒏 − 𝟏] Alors
Résumé
L’interpolation de Pafnouti Tchebychev impose une subdivision x0, x1, . . . . xn de l’intervalle [𝑎, 𝑏] en
des points appelés points de Tchebychev. L’interpolation de Tchebychev est encore appelée
interpolation de Lagrange aux points de Tchebychev, car il s’agit d’une interpolation de Lagrange
réalisée en des points particuliers.
Les points d’interpolation de Tchebychev d’ordre n sur l’intervalle [−1, 1 ] sont les racines du
polynômes de Tchébychev, qui correspondent au points
EXERCICE
1
f(x) = 𝑠𝑢𝑟 [−1; 1]
𝑥2 +2
a) Obtenir le polynômes d’interpolation de f sur [-1 ;1] avec 5 points équidistants (Newton)
b) Obtenir le polynômes d’interpolation de degré 4 de f au zéros du polynôme de Tchebychev
de degré 5
c) Tracer ensembles les 2 polynômes et la fonction f sur [-1, 1] en utilisant le code Matlab de la
méthode d’interpolation de Neville
Étant donné un ensemble de (n +1) points de données (xi, yi) le polynôme d'interpolation est
le polynôme p de degré au plus n avec la propriété : p (xi) = yi pour tout i = 0,, n
Ce polynôme existe et il est unique. Soit p i, j le polynôme de degré j - i qui passe par les points
( xi , yk ) pour k = i , i + 1,…, j . Les pi, j satisfont la relation de récurrence :
Cette récurrence permet de calculer 𝑃0,𝑛 qui est la valeur recherchée. Par exemple, pour n = 4, on
peut utiliser la récurrence pour remplir le tableau triangulaire ci-dessous de la gauche vers la droite.
A la fin de ce processus on obtient𝑃0,𝑛 (x), qui est le polynôme passant par les n + 1 points de
données ( xi ,yi ) au point x.
Interpolation d’Hermite
DEFINITION
Soit 𝑓 une fonction définie sur un intervalle [a, b] et soient 𝑥0 , . . . , 𝑥𝑛 n + 1 points de [a, b].
L’interpolation par la méthode d’Hermite consiste à construire un polynôme d’interpolation 𝑃 de 𝑓
vérifiant :
Théorème
Le polynôme s´écrit :
̃ 𝒊 (𝒙) = (𝒙 − 𝒙𝒊 ) ∗ 𝑳𝟐 𝒊 (𝒙)
𝑯
1 si 𝑖 = 𝑗
𝐿𝑖 (𝑥𝑗 )= {
0 sinon
Nous avons constaté que l’utilisation de polynôme de degré élevé est parfois délicat et peut mener à
des erreurs d’interpolation importante. De plus il est parfois nécessaire d’obtenir des courbes très
régulière passant par un grand nombre de point. Pour ce faire ; on utilise les splines cubique, la
méthode consiste a utilisé dans chaque intervalle [𝑥𝑖−1 ; 𝑥𝑖 ] 𝑝𝑖 (𝑥) 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑑𝑒 𝑑é𝑔𝑟é 𝑛
3 2
𝑃𝑖 (𝑥) = 𝑎𝑖 (x - xi) +𝑏𝑖 (x - xi) + 𝑐𝑖 (𝑥 − 𝑥𝑖) + 𝑑𝑖 i=1,2,----------,n
Et à les relier de façon à ce que la courbe résultant soit deux fois différentiable : c’est l’interpolation
par spline cubique.
𝑠𝑢𝑝𝑝𝑜𝑠𝑜𝑛𝑠 que l’on est 𝑛 + 1 points d’interpolations et donc n intervalle, cela indique que l’on a a
déterminer les coefficients 𝑎𝑖 , 𝑏𝑖 , 𝑐𝑖 , 𝑑𝑖 . Les deux premières équations à déterminer sont donc
𝑃0 (𝑥0 ) = 𝑓(𝑥0 )
𝑃𝑛 (𝑥𝑛 ) = 𝑓(𝑥𝑛 )
Par chaque point passe intérieur deux polynôme défini sur 𝑃𝑖 (𝑥) [𝑥𝑖−1 ; 𝑥𝑖 ] et 𝑃𝑖+1 (𝑥) [𝑥𝑖 ; 𝑥𝑖+1 ]
𝑃𝑖 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ) Pour i=1,2,----------,n-1
On a 2n-2 équations supplémentaires. Pour assurer la régularité de la courbe on doit assurer que les
dérivés première et secondes soit continués au points intérieur. On a donc
On a donc 2n-2 équations supplémentaires. Ce qui fait au total 4n-2 équations. Il nous manque donc
2 équations pour résoudre le système. Il existe plusieurs manières d’obtenir ces 2 équations. Il est
fort heureusement possible de ramener ce système en un système plus petit de n-1 inconnues, il
suffit de constater donc que le spline est constituer de polynôme de degré 3 dans chaque intervalle,
et sa dériver seconde est de degré 1 dans [𝑥𝑖−1 ; 𝑥𝑖 ]
𝑚𝑖−1 𝑚𝑖
𝑃′′ 𝑖 (𝑥) = − (𝑥 − 𝑥𝑖 ) + (𝑥 − 𝑥𝑖−1 )
ℎ𝑖 ℎ𝑖
On intègre
𝑚𝑖−1 𝑚𝑖
𝑃′ 𝑖 (𝑥) = − (𝑥 − 𝑥𝑖 )2 + (𝑥 − 𝑥𝑖−1 )2 + 𝑐𝑖 1
2ℎ𝑖 2ℎ𝑖
On intègre
𝑚𝑖−1 𝑚𝑖
𝑃𝑖 (𝑥) = − (𝑥 − 𝑥𝑖 )3 + (𝑥 − 𝑥𝑖−1 )3 + 𝑐𝑖 (𝑥 − 𝑥𝑖 )+𝑑𝑖
6ℎ𝑖 6ℎ𝑖
3 3
𝑃𝑖 (𝑥) = 𝑎𝑖 (x - xi) +𝑏𝑖 (x -𝑥𝑖−1 ) + 𝑐𝑖 (𝑥 − 𝑥𝑖) + 𝑑𝑖
𝑚𝑖−1
𝑎𝑖 = − 6ℎ𝑖
{ 𝑚𝑖
𝑏𝑖 = 6ℎ𝑖
𝑚
𝑃𝑖 (𝑥𝑖 ) = 6ℎ𝑖 (𝑥𝑖 − 𝑥𝑖−1 )3 + 𝑑𝑖
𝑖
𝑚𝑖 2 𝑚𝑖 2
𝑓(𝑥𝑖 ) = 6
ℎ + 𝑑𝑖 alors 𝑑𝑖 = 𝑓(𝑥𝑖 ) − ℎ
6 𝑖
𝑚𝑖−1 𝑚𝑖 2
𝑃𝑖 (𝑥𝑖−1 ) = − (𝑥𝑖−1 − 𝑥𝑖 )3 + 𝑐𝑖 (𝑥𝑖−1 − 𝑥𝑖 ) + 𝑓(𝑥𝑖 ) − ℎ
6ℎ𝑖 6 𝑖
𝑚𝑖−1 2 𝑚𝑖 2
𝑓(𝑥𝑖−1 ) = 6
ℎ𝑖 − ℎ
6 𝑖
− 𝑐𝑖 ℎ𝑖 + 𝑓(𝑥𝑖 )
𝑓(𝑥𝑖 )−𝑓(𝑥𝑖−1 ) ℎ𝑖
𝑐𝑖 = ℎ𝑖
− 6
(𝑚𝑖 − 𝑚𝑖−1 )
𝑚
𝑃′𝑖 (𝑥𝑖 ) = 2ℎ𝑖 (𝑥𝑖 − 𝑥𝑖−1 ) + 𝑐𝑖 D’après 1
𝑖
𝑚𝑖
𝑃′𝑖 (𝑥𝑖 ) = ℎ + 𝑐𝑖
2 𝑖
𝑚𝑖 𝑚𝑖+1
𝑃′ 𝑖+1 (𝑥) = − (𝑥 − 𝑥𝑖+1 )2 + (𝑥 − 𝑥𝑖 )2 + 𝑐𝑖+1
2ℎ𝑖+1 2ℎ𝑖+1
𝑚
𝑃′ 𝑖+1 (𝑥) = − 2ℎ 𝑖 (𝑥 − 𝑥𝑖+1 )2 + 𝑐𝑖+1
𝑖+1
𝑚
𝑃′ 𝑖+1 (𝑥) = − 2𝑖 ℎ𝑖+1 + 𝑐𝑖+1
𝑚𝑖 𝑚𝑖
𝑃′ 𝑖 (𝑥𝑖 ) = 𝑃′ 𝑖+1 (𝑥𝑖 ) alors 2 𝑖
ℎ + 𝑐𝑖 = − ℎ
2 𝑖+1
+ 𝑐𝑖+1
Exercice
Rechercher la fonction a spline cubique naturelle qui interpole les points : (1 ;1) (2 ;4) (4 ;9) et (5 ;11)
1) Rechercher la fonction spline cubique passant par ces 3points, il s’agit de la fonction
𝑷𝒏 (𝒙) de classe C2 de degré au plus 3 sur chacun des intervalles [0 ;1] [1 ;2] et qui vérifie
𝑃𝑛 (𝑥𝑖 ) = 𝑦𝑖
𝑃′′𝑛 (2) = 0
𝑃′′𝑛 (0) = 0
En interpolant une fonction 𝑓(𝑥) = 𝑥 3 par des polynomes de degré 3 dans chaque intervalle, on
obtient quand même une erreur expliquez
∑(𝒂 + 𝒃𝒙𝒊 − 𝒚𝒊 )2
1
∑𝑛1(𝒂 + 𝒃𝒙𝒊 − 𝒚𝒊 )2 soit minimale. Ce minimum est obtenu lorsque la dérivée partielle de (II)
par rapport à a et b est nulle.
𝜕𝑠
=0
𝜕𝑎
𝑚 𝑚 𝑚
𝜕𝑠 2
𝐴𝑙𝑜𝑟𝑠 = ∑ 𝑥𝑖 + 𝑏 ∑ 𝑥𝑖 = ∑ 𝑥𝑖 𝑦𝑖
𝜕𝑏
𝑖=1 𝑖=1 𝑖=1
𝑚𝑎 + 𝑏 ∑ 𝑥𝑖 = ∑ 𝑦𝑖
𝑖=1 𝑖=1
𝑚 𝑚 𝑚
𝑎 ∑ 𝑥𝑖 + 𝑏 ∑ 𝑥𝑖 2 = ∑ 𝑥𝑖 𝑦𝑖
{ 𝑖=1 𝑖=1 𝑖=1
𝑚 ∑ 𝑥𝑖 ∑ 𝑦𝑖
𝑖=1 𝑎 𝑖=1
𝑚 𝑚 ( )= 𝑚
𝑏
∑ 𝑥𝑖 ∑ 𝑥𝑖 2 ∑ 𝑥𝑖 𝑦𝑖
( 𝑖=1 𝑖=1 ) ( 𝑖=1 )
𝑐𝑜𝑛𝑠𝑖𝑑é𝑟𝑜𝑛𝑠 𝑑′ 𝑎𝑏𝑜𝑟𝑑 𝑙 ′ é𝑞𝑢𝑎𝑡𝑖𝑜𝑛 𝑝𝑎𝑟𝑎𝑏𝑜𝑙𝑖𝑞𝑢𝑒 𝑦 = 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 Ou m couples de points
sont disponibles. En supposant une variation 𝑠 = ∑𝑚 2 2
𝑖=1(𝑎 + 𝑏𝑥𝑖 + 𝑐𝑥𝑖 − 𝑦𝑖 ) soit minimale.
𝑚
𝜕𝑠
= ∑ 2( 𝑎 + 𝑏𝑥𝑖 + 𝑐𝑥𝑖 2 − 𝑦𝑖 ) = 0
𝜕𝑎
𝑖=1
𝜕𝑠
=0
𝜕𝑏
𝜕𝑠
=0
𝜕𝑐
On obtient le système suivant
𝑚 𝑚 𝑚
2
𝑚𝑎 + 𝑏 ∑ 𝑥𝑖 + 𝑐 ∑ 𝑥𝑖 = ∑ 𝑦𝑖
𝑖=1 𝑖=1 𝑖=1
𝑚 𝑚 𝑚 𝑚
𝑎 ∑ 𝑥𝑖 + 𝑏 ∑ 𝑥𝑖 2 + 𝑐 ∑ 𝑥𝑖 3 = ∑ 𝑥𝑖 𝑦𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑚 𝑚 𝑚 𝑚
∑ 𝑥𝑖 2 + 𝑏 ∑ 𝑥𝑖 3 + 𝑐 ∑ 𝑥𝑖 4 = ∑ 𝑥𝑖 2 𝑦𝑖
{ 𝑖=1 𝑖=1 𝑖=1 𝑖=1
∑ 𝑥𝑖 ∑ 𝑥𝑖 2 ∑ 𝑥𝑖 3 (𝑏 ) = ∑ 𝑥𝑖 𝑦𝑖
𝑖=1 𝑖=1 𝑖=1 𝑐 𝑖=1
𝑚 𝑚 𝑚 𝑚
∑ 𝑥𝑖 2 ∑ 𝑥𝑖 3 ∑ 𝑥𝑖 4 ∑ 𝑥𝑖 2 𝑦𝑖
( 𝑖=1 𝑖=1 𝑖=1 ) ( 𝑖=1 )
Cette méthode est applicable a n’importe quel type de fonction contenant des coefficients.
Exercice
X 1 2 2
Y 2 1 2
z 2 5 4
Résolution
𝑧(𝑥; 𝑦) = 3𝑥 − 1.4427ln(𝑥𝑦)
Exercice
Xi 1 4 9 16 25 36 49 64 81 100
yi 1 5 8 17 24 35 50 65 80 105
1) Chercher une approximation de ces données sous la forme f(x)=c0 + c1x au sens des
moindres carrés
2) Représenter le nuage de points et f sous matlab dans le même repère.
NB : Faire les calculs en utilisant matlab
Exercice
On considère les données suivantes
xi -2 -1 0 1 2
Yi -2 1 1 1 2
1) Chercher une approximation de ces données sous la forme f(x)=c0 + c1x+C2x2 au sens des
moindres carrés
2) Représenter le nuage de points et f sous matlab dans le même repère.
NB : Faire les calculs en utilisant matlab
Exercice
Xi 0.24 0 .65 0.95 1.24 1.73 2.1 2.23 2.52 2.77 2.99
yi 0 .23 -0.26 -1.1 -0.45 0.27 0.1 -0.29 0.24 0.56 1
1) En suivant la même procédure que dans le cas d’une approximation polynomiale, construire
le système correspondant à cette approximation
2) Donner la forme matricielle du système et la résoudre en utilisant matlab
3) Faire une représentation du nuage de points et de la fonction f dans un même repère sous
matlab.
0 𝑠𝑖 𝑚 ≠ 𝑛
𝐼={
𝜇𝑛 𝑠𝑖 𝑚 = 𝑛 𝑎𝑣𝑒𝑐 𝜇𝑛 ≠ 0
Si 𝜇𝑛 =1, le système est orthonormé
2.Application de l’orthogonalité
Etant donné un système orthogonal <𝜑𝑖 (𝑥)> pour i=0 ,1,… …,n,
l’avantage l’orthogonalité des fonctions 𝜑𝑖 (𝑥) en approximation est
d’écrire la fonction f(x) qu’on veut approximer sous la forme suivante :
𝑓(𝑥 ) = 𝛼0 𝜑0 (𝑥 ) + 𝛼1 𝜑1 (𝑥) + ⋯ + 𝛼𝑛 𝜑𝑛 (𝑥) 𝑓(𝑥) est écrit comme une
combinaison orthogonale de fonction orthogonale 𝜑𝑖 (𝑥)
Les coefficients 𝛼𝑖 sont obtenues comme suit :
𝑎
∫𝑏 𝑤(𝑥 )𝜑𝑚 (𝑥)𝜑𝑛 (𝑥 )𝑑𝑥 =
𝑎
𝛼0 ∫ 𝑤0 (𝑥 )𝜑0 (𝑥)𝜑𝑛 (𝑥)𝑑𝑥
𝑏
𝑎 𝑎
+ 𝛼1 ∫ 𝑤1 (𝑥 )𝜑1 (𝑥 )𝜑𝑛 (𝑥)𝑑𝑥+. . . +𝛼𝑛 ∫ 𝑤𝑛 (𝑥 )𝜑𝑛 (𝑥)𝜑𝑛 (𝑥)𝑑𝑥
𝑏 𝑏
𝑎
Posons µ𝑛 = ∫𝑏 𝑤𝑛 (𝑥 )𝜑𝑛 (𝑥)𝜑𝑛 (𝑥 )𝑑𝑥
𝑎
∫𝑏 𝑤(𝑥 )𝜑𝑚 (𝑥)𝜑𝑛 (𝑥 )𝑑𝑥 = 𝛼𝑛 µ𝑛
1 𝑎
𝜇𝑛 =
𝛼𝑛
∫𝑏 𝑤(𝑥 )𝜑𝑚 (𝑥)𝜑𝑛 (𝑥)𝑑𝑥
3.Polynome de Legendre
La formule de récurrence est :
2𝑛+1 𝑛
𝑃𝑛+1 = 𝑥𝑃𝑛 (𝑥) − 𝑃 (𝑥)
𝑛+1 𝑛+1 𝑛−1
𝑃0 (𝑥) = 1 ; 𝑃𝑛 (𝑥) = 𝑥
Orthogonalité des polynômes de Legendre
Les polynômes de Legendre 𝑃𝑛 (𝑥 ) et 𝑃𝑚 (𝑥) sont dit orthogonaux si [-1 ; 1]
si :
−1 0 𝑠𝑖 𝑚 ≠ 𝑛
∫ 𝑃𝑛 (𝑥)𝑃𝑚 (𝑥 )𝑑𝑥 = { 2
1
𝑠𝑖 𝑛 = 𝑚
2𝑛 + 1
_]0 ; +∞[ ; 𝑤(𝑥 ) = 𝑒 𝑥 pour le polynôme de Laguerre
_]-∞ ; +∞[ ; 𝑤(𝑥 ) = 𝑒 −𝑥 pour le polynôme d’Hermite
4.Application en approximation
Soit f une fonction définie et continue sur [-1 ; 1] qu’on désire approximer
par le polynôme de Legendre. On a :
𝑓(𝑥 ) = 𝛼0 𝑃0 (𝑥) + 𝛼1 𝑃1 (𝑥) + ⋯ + 𝛼𝑛 𝑃𝑛 (𝑥)
1 𝑏 2
𝛼𝑛 =
𝜇𝑛
∫𝑎 𝑤(𝑥 )𝑓(𝑥 )𝜑𝑛 (𝑥)𝑑𝑥; 𝜇𝑛 = 2𝑛+1
w(x)=1
Conclusion
Nous constatons qu’au fur et à mesure que l’ordre augmente, les courbes se
rapprochent l’une de l’autre.
5.Polynome de Tchebychev
Les polynômes de Tchebychev sont définis comme suit :
𝑇𝑛 (𝑥 ) = cos(𝑛 𝑎𝑟𝑐𝑜𝑠(𝑥 )) , [−1; 1]𝑒𝑡 𝑛 ≥ 0
1
𝑤 (𝑥 ) = (poids pour les polynômes de 1ère espèce)
√1−𝑥 2
𝜋 𝑠𝑖 𝑚 = 𝑛 = 0
1 1 𝜋
∫−1 √ 2 𝑇𝑛 (𝑥 )𝑇𝑚 (𝑥)𝑑𝑥 = { 2 𝑠𝑖 𝑚 = 𝑛 ≠ 0
1−𝑥
0 𝑠𝑖 𝑚 = 𝑛
𝑇𝑛+1 (𝑥 ) = 2𝑥𝑇𝑛 (𝑥 ) − 𝑇𝑛−1 (𝑥)
𝑇0 (𝑥 ) = 1; 𝑇1 (𝑥 ) = 𝑥
Les polynômes de seconde espèces aussi sont orthogonaux et leurs poids
𝑤(𝑥 ) = √1 − 𝑥 2 on a :
1 0 𝑠𝑖 𝑚 ≠ 𝑛
∫−1 √1 − 𝑥 2 𝑇𝑛 (𝑥 )𝑇𝑚 (𝑥)𝑑𝑥 ={𝜋 𝑠𝑖 𝑚 = 𝑛
2
𝑇0 (𝑥 ) = 1; 𝑇1 (𝑥 ) = 2𝑥
Approximation en fonction
Soit f une fonction définie et continue sur [-1 ; 1] qu’on désire approximer
par le polynôme de Tchebychev. On a :
𝑓(𝑥 ) = 𝛼0 + 𝛼1 𝑇1 (𝑥 ) + ⋯ + 𝛼𝑛 𝑇𝑛 (𝑥)
D’une manière analogue au précédente, les 𝛼𝑖 se déterminent comme suit :
1
1 1
𝛼0 = ∫ 𝑓(𝑥 )𝑑𝑥
√1 − 𝑥 2𝜋
−1
2 1 1
𝛼𝑚 = ∫ 𝑓 (𝑥 )𝑇𝑚 (𝑥)𝑑𝑥
𝜋 −1 √1 − 𝑥 2
Exercice
𝛼2𝑝 = 0
Voir TD sur polynômes orthogonaux
Chapitre 4 : Résolution des systèmes linéaires 𝐴𝑋 = 𝐵
On note 𝑀𝑛 (𝑅), l’espace vectorielle des matrices carrées d’ordre n,
et a coefficients réel. Soit 𝐴 ∊𝑀𝑛 (𝑅), 𝑒𝑡 𝐵 ∊ 𝑅𝑛 , on cherche le vecteur
𝑋∊𝑅𝑛 , 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑑𝑢 𝑠𝑦𝑠𝑡è𝑚𝑒 𝑙𝑖𝑛é𝑎𝑖𝑟𝑒 𝐴𝑋 = 𝐵. Ce système admet une
solution unique lorsque le déterminant de A est non nul, ce que nous
supposerons dans la suite. Nous rappellerons dans la suite, les principales
méthodes beaucoup plus rapides :
- Quelques méthodes directes : Gauss et sa forme factorisée (𝐿𝑈),
- Quelques méthodes itératives : Jacobi, Gauss Seidel etc…
Les méthodes directes calculent une solution théorique exacte, en un
nombre fini d’opération mais avec une accumulation d’erreur arrondis qui
d’autant plus grande que la dimension l’est.
Par conséquent pour les matrices de dimension importante, il est préférable
d’utilisé des méthodes itératives basée sur la construction d’une suite
convergente vers la solution du système. Dans ce cas, le contrôle de la
convergence par la suite par une condition d’arrêt renvoi une solution plus
précise.
1. Méthode d’élimination de Gauss
La méthode de gauss engendre un algorithme fini exact dont l’idée est de
transformer le système initial en un système triangulaire (inférieur ou
supérieur)
1.1 Résolution d’un système triangulaire
2 1 2 𝑥1 10
6 4 0 [𝑥2 ] = [26]
8 5 1 𝑥3 35
2 1 2 1 0 0 1 0 0 1 0 0 2 1 2
[0 1 −6 ] = [0 1 0 ] [ 0 1 0 ] [−3 1 0 ] [6 4 0 ]
0 0 −1 0 −1 1 −4 0 1 0 0 1 8 5 1
2 1 2
D’où 𝐴 = 𝐿𝑈 avec 𝐴 = [6 4 0 ];
8 5 1
1 0 0 1 0 0 1 0 0 2 1 2
𝐿 = [3 1 0 ] [0 1 0 ] [0 1 0 ] et 𝑈 = [0 1 −6 ]
0 0 1 4 0 1 0 1 1 0 0 −1
1.3 Factorisation LU
Supposons un instant que nous ayons réussi à exprimer la matrice 𝐴 en
un produit de deux matrices triangulaires 𝐿 𝑒𝑡 𝑈. Comment cela nous
permet-il de résoudre le système 𝐴𝑥 = 𝑏⃗ ? Il suffit de remarquer que :
𝐴𝑥 = 𝐿𝑈𝑥 = 𝑏⃗
Et de poser 𝑈𝑥 = 𝑦. La résolution du système linéaire se fait alors en deux
étapes :
𝐿𝑦 = 𝑏⃗ et 𝑈𝑥 = 𝑦 qui sont deux systèmes triangulaires. On utilise
d’abord une descente triangulaire sur la matrice 𝐿 pour obtenir 𝑦 et par la
suite, une remontée triangulaire sur la matrice 𝑈 pour obtenir la solution
recherchée 𝑥 .
Il faut tout de suite souligner que la décomposition 𝐿𝑈 n’est pas unique.
On peut en effet écrire un nombre réel comme le produit de deux autres
nombres d’une infinité de façons. Il en est de même pour les matrice.
Exemple :
Pour illustrer la non-unicité de la décomposition LU, il suffit de
vérifier les égalités :
2 −1 −1 2 0 0 1 −0.5 −0.5
[0 −4 2 ] = [0 −4 0 ] [0 1 −0.5 ]
6 −3 1 6 0 4 0 0 1
2 −1 −1 1 0 0 2 −1 −1
Et : [0 −4 2 ] = [0 1 0 ] [0 −4 2 ]
6 −3 1 3 0 1 0 0 4
Remarque :
La décomposition 𝐿𝑈 n’étant pas unique, il faut faire au préalable
des choix arbitraires. Le choix le plus populaire consiste à imposer que la
matrice 𝑈 ait des 1 sur sa diagonale. C’est la décomposition de Croûte.
Certains logiciels comme Matlab préfèrent mettre des 1 sur la diagonale
de 𝐿. Il en résulte bien sûr une décomposition 𝐿𝑈 différente de celle de
Croûte, mais le principe de base reste le même.
Décomposition de Croûte
Pour obtenir cette décomposition (ou factorisation), nous considérons
une matrice de dimension 4 sur 4, e cas général étant similaire. On dit donc
déterminer les coefficients 𝑙𝑖𝑗 et 𝑢𝑖𝑗 des matrices 𝐿 et 𝑈 de telle sorte que
𝐴 = 𝐿𝑈. En imposant que la diagonale de 𝑈 soit composée de 1, on doit
avoir :
𝑎11 𝑎12 𝑎13 𝑎14 𝑙11 0 0 0 1 𝑢12 𝑢13 𝑢14
𝑎21 𝑎22 𝑎23 𝑎24 𝑙21 𝑙22 0 0 0 1 𝑢23 𝑢24
[𝑎 ] = [ ] [ ]
31 𝑎32 𝑎33 𝑎34 𝑙31 𝑙32 𝑙33 0 0 0 1 𝑢34
𝑎41 𝑎42 𝑎43 𝑎44 𝑙41 𝑙42 𝑙43 𝑙44 0 0 0 1
Il suffit de procéder de façon systématique par identification des
coefficients. On remarque d’bord qu’il y a exactement 16 (𝑛²dans le cas
général) inconnues à déterminer. On peut faire le produit des matrices 𝐿 et
𝑈 et se servir des différents coefficients 𝑎𝑖𝑗 . On obtient ainsi les 16 (𝑛²)
équations nécessaires pour déterminer les coefficients 𝑙𝑖𝑗 et 𝑢𝑖𝑗 .
1. Produit des lignes de 𝐿 par la première colonne de 𝑈
On obtient immédiatement que :
𝑙11 = 𝑎11 ; 𝑙21 = 𝑎21 ; 𝑙31 = 𝑎31 ; 𝑙41 = 𝑎41
Et la première colonne de 𝐿 est tout simplement la première colonne
de 𝐴.
2. Produit de la première ligne de 𝐿 par les colonnes de 𝑈. On obtient
respectivement :
𝑙11 𝑢12 = 𝑎12 ; 𝑙11 𝑢13 = 𝑎13 ; 𝑙11 𝑢14 = 𝑎14
D’où l’on tire que :
𝑎12 𝑎13 𝑎14
𝑢12 = ; 𝑢13 = ; 𝑢14 =
𝑙11 𝑙11 𝑙11
On a donc la première ligne de 𝑈, si 𝑙11 ≠ 0.
3. Produit des lignes de 𝐿 par la deuxième colonne de 𝑈.
Les différents produits donnent :
𝑙21 𝑢12 + 𝑙22 = 𝑎22
𝑙31 𝑢12 + 𝑙32 = 𝑎32
𝑙41 𝑢12 + 𝑙42 = 𝑎42
Ou encore :
𝑙22 = 𝑎22 − 𝑙21 𝑢12
𝑙32 = 𝑎32 − 𝑙31 𝑢12
𝑙42 = 𝑎42 − 𝑙41 𝑢12
Et la deuxième colonne de 𝐿 est connue.
4. Produit de la deuxième ligne de 𝐿 par les colonnes de 𝑈. On trouve
immédiatement que :
𝑙21 𝑢13 + 𝑙22 𝑢23 = 𝑎23
𝑙21 𝑢14 + 𝑙22 𝑢24 = 𝑎24
Ce qui donne :
𝑎23 − 𝑙21 𝑢13
𝑢23 =
𝑙22
𝑎24 − 𝑙21 𝑢14
𝑢24 =
𝑙22
5. Produit des lignes de 𝐿 par la troisième colonne de 𝑈. La même suite
d’opérations donne :
𝑙31 𝑢13 + 𝑙32 𝑢23 + 𝑙33 = 𝑎33
𝑙41 𝑢13 + 𝑙42 𝑢23 + 𝑙43 = 𝑎43
Ce qui permet d’obtenir la troisième colonne de 𝐿:
𝑙33 = 𝑎33 − 𝑙31 𝑢13 − 𝑙32 𝑢23
𝑙43 = 𝑎43 − 𝑙41 𝑢13 − 𝑙42 𝑢23
6. Produit de la troisième ligne de 𝐿 par la quatrième colonne de 𝑈. On
voit que :
𝑙31 𝑢14 + 𝑙32 𝑢24 + 𝑙33 𝑢34 = 𝑎34 .
Ce qui permet d’obtenir :
𝑎34 − 𝑙31 𝑢14 − 𝑙32 𝑢24
𝑢34 =
𝑙33
7. Produit de la quatrième ligne de 𝐿 par la quatrième colonne de 𝑈.
On obtient :
𝑙41 𝑢14 + 𝑙42 𝑢24 + 𝑙43 𝑢34 + 𝑙44 = 𝑎44 .
Le dernier coefficient recherchée est donc :
𝑙44 = 𝑎44 − 𝑙41 𝑢14 − 𝑙42 𝑢24 − 𝑙43 𝑢34
De façon générale, on a l’algorithme suivant :
Algorithme de décomposition de Croûte
1. Décomposition 𝐿𝑈 (sans permutation de lignes)
- Première colonne de 𝐿 : 𝑙𝑖1 = 𝑎𝑖1 pour 𝑖 = 1,2, … , 𝑛
𝑎
- Première ligne de 𝑈 : 𝑢1𝑖 = 1𝑖 pour 𝑖 = 2,3, … , 𝑛
𝑙11
- Pour 𝑖 = 2,3, … , 𝑛 − 1:
Calcul du pivot :
𝑖−1
𝑏𝑖 − ∑𝑖−1
𝑘=1 𝑙𝑖𝑘 𝑦𝑘
𝑦𝑖 =
𝑙𝑖𝑖
𝑥𝑖 = 𝑦𝑖 − ∑ 𝑢𝑖𝑘 𝑥𝑘
𝑘=𝑖+1
Remarques
L’algorithme précèdent ne fonctionne que si les pivots lii sont tous non
nuls. Ce n’est pas toujours le cas et il est possible qu’il faille permuter
deux lignes pour éviter cette situation, tout comme pour l’élimination de
Gauss. Le coefficient lii est encore appelé pivot. Nous abordons un peu plus
loin les techniques de recherche du meilleur pivot.
Une fois utilises, les coefficients de la matrice A ne servent plus à rien. Ils
peuvent donc être détruits au fur et à mesure que la décomposition
progresse. De fait, on peut les remplacer par les valeurs de lij ou uij selon le
cas. C’est ce que l’on nomme la notation compacte. La notation compacte
évite de garder inutilement en mémoire des matrices de grande taille.
Définition
La notation compacte de la décomposition LU est la matrice de
coefficients :
𝑙11 𝑢12 𝑢13 𝑢14
𝑙 𝑙 𝑢23 𝑢24
[ 21 22 ]
𝑙31 𝑙32 𝑙33 𝑢34
𝑙41 𝑙42 𝑙43 𝑙44
Dans le cas d’une matrice de dimension 4 sur 4. La matrice initiale A est
tout simplement détrite. Les coefficients 1 sur la diagonale de la matrice U
ne sont pas indiqués explicitement, mais doivent tout de même être pris en
compte. De façon plus rigoureuse, la notation compacte revient à mettre en
mémoire la matrice :
L+U-I
Et a détruit la matrice A.
Exercice
Décomposer en un produit L.U le système d’équation linéaire suivant :
𝟑 −𝟏 𝟐 𝒙𝟏 𝟏𝟐
[𝟏 𝟐 𝟑 ] [𝒙𝟐 ] = [𝟏𝟏]
𝟐 −𝟐 −𝟏 𝒙𝟑 𝟐
Décomposition et Permutation de ligne
Remarque
Dans une décomposition LU, la permutation de lignes s’effectue toujours
après le calcul de chaque colonne de L. On place en position de pivot le plus
grand terme en valeur absolue de cette colonne (sous le pivot actuel), pour
des raisons de précision que nous verrons plus loin.
Illustration
Soit :
0 2 1 1
⃗
[1 0 0], 𝑂 = [2]
3 0 1 3
⃗ indique que la numérotation des équations n’a pas
Au départ, le vecteur 𝑂
encore été modifiée.
1. Première colonne de L
Puisqu’il s’agit de la première colonne de A, on a :
(0) 2 1 1
[(1) ⃗
0 0], 𝑂 = [2]
(3) 0 1 3
Le vecteur de permutation n’a pas été modifié, mais on a un pivot nul. On
effectue alors l’opération( ⃗⃗𝑙1 ↔ 𝑙⃗⃗⃗3 ). On aurait tout aussi bien pu permuter
la ligne 1 et la ligne 2, mais on choisit immédiatement le plus grand pivot
possible (en valeur absolue). Le vecteur de permutation est alors modifié :
(3) 0 1 3
[(1) ⃗
0 0], 𝑂 = [2]
(0) 2 1 1
2. Première ligne de U
II suffit de diviser cette ligne par le nouveau pivot 3 :
1
(3) (0) ( ) 3
3
[(1) ⃗
0 0 ], 𝑂 = [2]
(0) 2 1 1
3. Deuxième colonne de L
De la relation 3.15, on tire :
𝑙22 = 𝑎22 − 𝑙21 𝑢12 = 0 − (1)(0) = 0
𝑙32 = 𝑎32 − 𝑙31 𝑢12 = 2 − (0)(0) = 2
On a maintenant :
1
(3) (0) ( ) 3
3
[(1) ⃗
(0) 0 ], 𝑂 = [2]
(0) (2) 1 1
4. Calcule de 𝒖𝟐𝟑
La relation 3.16 mène à :
1
𝑎23 − 𝑙21 𝑢13 1 − (0) (3) 1
𝑢23 = = =
𝑙22 2 2
Et la matrice compacte devient :
1
(3) (0) ( )
3 3
⃗
( ) , 𝑂 = [1]
1
(0) (2)
2
2
[(1) (0) 0 ]
5. Calcul de 𝒍𝟑𝟑
On calcule enfin
1 1 1
𝑙33 = 𝑎33 − 𝑙31 𝑢13 − 𝑙32 𝑢23 = 0 − (1) ( ) − (0) ( ) = −
3 2 3
La décomposition LU de la matrice A est donc :
1
(3) (0) ( )
3 3
1
(0) (2) ⃗
( ) , 𝑂 = [1]
2
1 2
[(1) (0) (− )]
3
Remarque
Le déterminant de la matrice A de l’exemple précédent est donné par :
1
𝑑é𝑡 𝐴 = (−1)(−1) [(3)(2) (− )] = −2
3
Comme on a permuté deux lignes deux fois, le déterminant a changé de signe
deux fois.
Cela nous amène au théorème suivant.
Théorème
On peut calculer le déterminant d’une matrice A à l’aide de la méthode de
décomposition LU de Crout de la façon suivante :
𝑛
2. Méthodes itératives
2.1-Définition et propriétés
Soit A ∈ ℳ𝑛 (ℝ)une matrice inversible et b ∈ ℝ𝑛 , on cherche toujours ici à
résoudre le système linéaire (1.1). C’est–à–dire à trouver x ∈ ℝ𝑛 tel que Ax
= b, mais de façon itérative, c.à.d. par la construction d’une suite.
Définition 1.46 (Méthode itérative). On appelle méthode itérative de
résolution du système linéaire (1.1) une méthode qui construit une suite
(𝑥 𝑘 )𝑘𝜖ℕ(où l’itéré 𝑥 𝑘 est calculé à partir des itérés 𝑥 (0) . . . 𝑥 (𝑘−1) censée
converger vers x solution de (1.1)).
Bien sûr, on souhaite que cette suite converge vers la solution x du système.
Enfin, on veut que cette suite soit simple à calculer. Une idée naturelle est
de travailler avec une matrice P inversible qui soit “proche” de A, mais
plus facile que A à inverser. On appelle matrice de pré conditionnement
cette matrice P. On écrit alors A = P − (P − A) = P − N (avec N = P − A), et
on réécrit le système linéaire Ax = b sous la forme
Px = (P − A) x + b = Nx + b. (1.90)
Cette forme suggère la construction de la suite (𝑥 𝑘 )𝑘𝜖ℕ à partir d’un choix
initial 𝑥 (0) donné, par la formule suivante :
P𝑥 (𝑘+1) = (P − A) 𝑥 (𝑘) + b (1.91)
= N𝑥 (𝑘) + b,
Ce qui peut également s’écrire :
𝑥 (𝑘+1) = B𝑥 (𝑘) + c, avec B = 𝑃−1 (P − A) = Id −𝑃−1 A = 𝑃−1 N et c = 𝑃−1 b.
(1.92)
Remarque 1.48 (Convergence vers𝐴−1 b). Si P𝑥 (𝑘+1) = (P −A) 𝑥 (𝑘) +b
pour tout k ∈ IN et 𝑥 (𝑘) →𝑥̅ quand k → +∞ alors P 𝑥̅ = (P − A)𝑥̅ + b, et
donc A𝑥̅ = b, c.à.d. 𝑥̅ = x. En conclusion, si la suite converge, alors elle
converge bien vers la solution du système linéaire.
On introduit l’erreur d’approximation 𝑒 (𝑘) à l’itération k, définie par
𝑒 (𝑘) = 𝑥 (𝑘) −𝑥, k ∈ IN
Où 𝑥 (𝑘) est construit par (1.92) et x = 𝐴−1 b. Il est facile de vérifier que
𝑥 (𝑘) →x = 𝐴−1 b lorsque k →+∞ si et seulement si e(k) → 0 lorsque k →
+∞
Lemme 1.49. La suite (𝑒 (𝑘) )𝑘𝜖ℕ définie par (1.93) est également définie
par
𝑒 (0) = 𝑒 (0) − x
𝑒 (𝑘) = 𝐵𝑘 𝑒 (0) (1.94)
𝒏
(𝒌+𝟏) 𝟏 (𝒌)
𝒙𝒊 = 𝒃𝒊 − ∑ 𝒂𝒊𝒋 𝒙𝒋 , 𝒊 = 𝟏, … , 𝒏
𝒂𝒊,𝒊
𝒋=𝟏
[ 𝒋≠𝟏 ]
1
(𝑘+1)
𝑥1 0 0 0
x (k+1)
= ( (𝑘+1) ) = BGS𝑥 (𝑘)
+ 𝑐, 𝑎𝑣𝑒𝑐 𝐵𝐺𝑆 = [0 1 ] 𝑒𝑡 𝑐 = [21 1 ] 𝑏.
𝑥2
4
4 2
(1.106)
1
On a donc ρ(BGS) = . Sur cet exemple la méthode de Gauss- Seidel
4
converge donc beaucoup plus vite que la méthode de Jacobi :
Asymptotiquement, l’erreur est divisée par 4 à chaque itération au lieu de 2
pour la méthode de Jacobi. On peut montrer que c’est le cas pour toutes les
matrices tri diagonales, comme c’est énoncé dans le théorème suivant :
Est appelée matrice de relaxation. L’algorithme est fondé sur le calcul des
itérées.
𝑖−1 𝑛
(𝑘+1) ω (𝑘+1) (𝑘)
𝑥𝑖 = (𝑏𝑖 − ∑ 𝑎𝑖,𝑗 𝑥𝑗 − ∑ 𝑎𝑖,𝑗 𝑥𝑗 )
𝑎𝑖𝑖
𝑗=1 𝑗=𝑖
On démontre que si le facteur de relaxation dépasse 2, la méthode diverge.
Pour ω = 1, on retrouve la méthode de Gauss Seidel. Lorsque 0 < ω < 1,
on parle de sous-relaxation et lorsque 1 < ω < 2, on parle de
surrelaxation
(SOR, Successive Over Relaxation)
𝑥 (0) ∈ ℝ𝑛
(𝑘+1) (𝑘) (𝑘)
{ (𝑘+1) 𝑎𝑖,𝑗 𝑥𝑗 − ∑ 𝑎𝑖,𝑗 𝑥𝑗 + 𝑏𝑖 + (1 − ω)𝑎𝑖,𝑖 𝑥𝑖
𝑎𝑖,𝑖 𝑥̌𝑖 = −∑ 𝑖<𝑗
𝑗<𝑖
On obtient donc
(𝐷 − ωE)𝑥 (𝑘+1) = ωF𝑥 (𝑘) + ωb + (1 − ω)D𝑥 (𝑘) .
La matrice d’itération de l’algorithme SOR est donc
1 1−ω 𝐷
𝐵ω = ( D − E )−1 ( D + F ) = 𝑃−1 𝑁 𝑎𝑣𝑒𝑐 𝑃 = − 𝐸 et
ω ω ω
1−ω
𝑁=( D + F ).
ω
Et on a : ρ(𝐵ω ) = ω0 − 1.
La démonstration de ce résultat repose sur la comparaison des valeurs
propres des matrices d’itération. On montre que λ est valeur propre de Bω
si et seulement si
(λ + ω − 1)2 = λωµ2
Où µ est valeur propre de BJ (voir [Ciarlet] pour plus de détails).
Remarque 1.57 (Méthode de Jacobi relaxée).
On peut aussi appliquer une procédure de relaxation avec comme méthode
itérative “de base” la méthode de Jacobi, voir à ce sujet l’exercice 56 page
110). Cette méthode est toutefois beaucoup moins employée en pratique
(car moins efficace) que la méthode SOR.
Méthode SSOR En “symétrisant” le procédé de la méthode SOR, c.à.d.
en effectuant les calculs SOR sur les blocs dans l’ordre 1 à n puis dans
l’ordre n à 1, on obtient la méthode de sur-relaxation symétrisée (SSOR =
Symmetric Successive Over Relaxation) qui s’écrit dans le formalisme de
la méthode I avec
−𝟏 −𝟏
𝑫 𝟏−𝛚 𝑫 𝟏−𝛚
𝑩𝑺𝑺𝑶𝑹 = ( − 𝑭) (𝑬 + 𝑫) ( − 𝑬) (𝑭 + 𝑫)
𝛚 𝛚 𝛚 𝛚
2.2.6-Théorème de Cayley-Hamilton
En algèbre linéaire, le théorème de Cayley-Hamilton affirme que tout
endomorphisme d’un espace vectoriel de dimension finie sue un corps
commutatif quelconque annule son propre polynôme caractéristique.
En termes de matrice, cela signifie que si A est une matrice carrée
d’ordre n et si
𝑝(𝑋) = det(𝑋𝐼𝑛 − 𝐴) = 𝑋 𝑛 + 𝑝𝑛−1 𝑋 𝑛−1 + ⋯ + 𝑝1 𝑋 + 𝑝0
est un polynôme caractéristique (polynôme d’indéterminée X), alors en
remplaçant formellement par 𝑋 la matrice 𝐴 dans le polynôme, le résultat
matrice nulle :
𝑝(𝑋) = 𝐴𝑛 + 𝑝𝑛−1 𝐴𝑛−1 + ⋯ + 𝑝1 𝐴 + 𝑃0 𝐼𝑛 = 0𝑛 .
Le théorème de Cayley-Hamilton s’applique aussi à des matrices carrées à
coefficients dans un anneau commutatif quelconque.
Un corollaire implique du théorème de Cayley-Hamilton affirme que le
polynôme minimal d’une matrice est un diviseur de son polynôme
caractéristique.
Considérons par exemple la matrice
1 2
A=( ).
3 4
Le polynôme caractéristique s’écrit
𝑋−1 −2
𝑝(𝑋) = 𝑑𝑒𝑡 ( ) = (𝑋 − 1)(𝑋 − 4) − (−2)(−3)=𝑋 2 − 5𝑋 −
−3 𝑋−4
2
Le théorème de Cayley-Hamilton affirme que
𝐴2 − 5𝐴 − 2𝐼2 = 0
et cette relation peut être rapidement vérifiée dans ce cas. De plus le
théorème de Cayley-Hamilton permet de calculer les puissances d’une
matrice plus simplement que par un calcul direct. Reprenons la relation
précédente
𝐴2 − 5𝐴 − 2𝐼2 = 0
𝐴2 = 5𝐴 + 2𝐼2
Ainsi par exemple, pour calculer 𝐴4 , nous pouvons écrire
𝐴3 = (5𝐴 + 2𝐼2 )𝐴 = 5𝐴2 + 2𝐴 = 5(5𝐴 + 2𝐼2 ) + 2𝐴 = 27𝐴 + 10𝐼2
Et il vient
𝐴4 = 𝐴3 𝐴 = (27𝐴 + 10𝐼2 )𝐴 = 27𝐴2 + 10𝐴 = 27(5𝐴 + 2𝐼2 ) + 10𝐴
𝐴4 = 145𝐴 + 54𝐼2 .
On peut également utiliser la relation polynomiale initiale 𝐴2 − 5𝐴 −
2𝐼2 = 0 pour démontrer l’invisibilité de 𝐴 et calculer son inverse. Il suffit
en effet de mettre en facteur une puissance de 𝐴 là où c’est possible et
𝐴(𝐴 − 5𝐼2 ) = 2𝐼2
Ce qui montre que A admet pour inverse
1
𝐴−1 = (𝐴 − 5𝐼2 )
2
Dérivation numérique
1. Introduction
Au chapitre précédent, on sait qu’une fonction 𝑓(𝑥) connue seulement en
quelques points peut être convenablement estimée à l’aide d’un polynôme
de degré 𝑛 avec une certaine erreur. Plus précisément :
𝑓(𝑥 ) = 𝑝𝑛 (𝑥 ) + 𝐸𝑛 (𝑥) (1)
Où 𝐸𝑛 (𝑥 ) est le terme d’erreur d’ordre (𝑛 + 1) donné par la relation :
𝑓(𝑛+1) [𝜉(𝑥)]
𝐸𝑛 (𝑥 ) = (𝑛+1)!
(𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑛 ) (1’)
(2)
𝑓 ′′′ (𝑥 ) = 𝑝𝑛′′′ (𝑥 ) + 𝐸𝑛′′′ (𝑥)
Ainsi, pour évaluer la dérivée d’une fonction connue aux points (𝑥𝑖 ,
𝑓(𝑥𝑖 ) 𝑝𝑜𝑢𝑟 𝑖 = 0,1, … , 𝑛 , il suffit de dériver le polynôme d’interpolation
passant par ces points. De plus, le terme d’erreur associé à cette
approximation de la dérivée est tout simplement la dérivée de l’erreur
d’interpolation. Ceci est vrai quel que soit l’ordre de la dérivée.
Remarque :
Bien qu’en théorie, on soit en mesure d’estimer les dérivées de tout ordre,
sur le plan pratique, on dépasse rarement l’ordre 4. Cela s’explique par le
fait que la différenciation numérique est un procédé numériquement
instable.
2. Dérivées d’ordre 1
Posons 𝐼 = (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑛 )
La dérivée du produit 𝐼 est plus délicate. Cette dérivée débouche sur une
somme de produits où tour à tour, l’un des facteurs (𝑥 − 𝑥𝑖 ) est manquant.
Il est facile de se convaincre, en reprenant ce développement avec 𝑛 = 2 par
exemple, et l’on obtient :
𝑓(𝑛+1) [𝜉(𝑥)]
(𝑛+1)!
(∑𝑛𝑘=0 ∏𝑛𝑗=0(𝑗≠𝑘)(𝑥 − 𝑥𝑗 )) (3)
𝑓(𝑛+1) [𝜉(𝑥𝑖 )]
𝐸𝑛′ (𝑥 ) = (𝑛+1)!
(∏𝑛𝑗=0(𝑗≠𝑖) (𝑥𝑖 − 𝑥𝑗 ))
𝑥𝑖+1 − 𝑥𝑖 = ℎ
On obtient :
En arrangeant, on a :
Remarque :
Définition
Le terme 𝑝𝑛′ (𝑥𝑖 ) de l’équation (6) est une formule aux différences finies ou
plus simplement une formule aux différences.
Exemple 1 :
𝑓 ′ (𝑥 ) = 𝑝1′ (𝑥 ) + 𝐸1′ (𝑥 )
𝑓[𝑥0 , 𝑥1 ] (8)
Ou encore :
Remarque :
Exemple 2 :
′(
−𝑓(𝑥2 ) + 4𝑓(𝑥1 ) − 3𝑓(𝑥0 ) ℎ2 𝑓′′′(𝜉0 )
𝑓 𝑥0 ) = +
2ℎ 3
3- Extrapolation de RICHARDSON
La méthode d’extrapolation de Richardson est valable non seulement
pour la différentiation et l’intégration numérique, mais aussi pour
l’interpolation, la résolution numérique des équations différentielles, etc.
Cette technique permet d’augmenter la précision d’une méthode
d’approximation par une méthode d’extrapolation que nous décrivons dans
cette section.
Prenons comme point de départ d’une approximation numérique,
notée 𝑄𝑎𝑝𝑝 (ℎ) d’une certaine quantité exacte 𝑄𝑒𝑥𝑎 inconnue.
L’approximation numérique dépend d’un paramètre h, comme c’est souvent
le cas. Généralement, plus h est petit, plus l’approximation est précise. On
suppose de plus que cette approximation est d’ordre n, c’est-à-dire :
𝑄𝑒𝑥𝑎 = 𝑄𝑎𝑝𝑝 (ℎ) + 𝑂(ℎ𝑛 )
La notation 𝑂(ℎ𝑛 ) signifie en fait que l’on a :
𝑄𝑒𝑥𝑎 = 𝑄𝑎𝑝𝑝 (ℎ) + 𝑐𝑛 ℎ𝑛 + 𝑐𝑛+1 ℎ𝑛+1 + 𝑐𝑛+2 ℎ𝑛+2 + ⋯ (6.17)
Où les constantes 𝑐𝑛 dépendent de la méthode numérique utilisée. La
technique d’extrapolation de Richardson consiste à obtenir, à partir de
l’approximation (6.17) d’ordre 𝑛, une nouvelle approximation d’ordre au
ℎ
moins 𝑛 + 1. Pour ce faire, il suffit de remplacer ℎ par dans l’équation
2
(6.17), ce qui conduit à la relation :
ℎ ℎ 𝑛 ℎ 𝑛+1 ℎ 𝑛+2
𝑄𝑒𝑥𝑎 = 𝑄𝑎𝑝𝑝 ( ) + 𝑐𝑛 ( ) + 𝑐𝑛+1 ( ) + 𝑐𝑛+2 ( ) + ⋯ (6.18)
2 2 2 2
𝑛 𝑛
ℎ 𝑛
ℎ𝑛+1 ℎ 𝑛+2
2 𝑄𝑒𝑥𝑎 = 2 𝑄𝑎𝑝𝑝 ( ) + 𝑐𝑛 ℎ + 𝑐𝑛+1 + 𝑐𝑛+2 2 +⋯
2 2 2
ℎ 1 3
(2𝑛 − 1)𝑄𝑒𝑥𝑎 = 2𝑛 𝑄𝑎𝑝𝑝 ( ) − 𝑄𝑎𝑝𝑝 (ℎ) − 𝑐𝑛+1 ℎ𝑛+1 − 𝑐𝑛+2 ℎ𝑛+2 + ⋯
2 2 4
D’où
ℎ 1 3
2𝑛 𝑄𝑎𝑝𝑝 ( ) − 𝑄𝑎𝑝𝑝 (ℎ) − 𝑐𝑛+1 ℎ𝑛+1 − 𝑐𝑛+2 ℎ𝑛+2 + ⋯
𝑄𝑒𝑥𝑎 = 2 + 2 4 (6.19)
𝑛
2 −1 𝑛
2 −1
Qui s’écrit plus simplement
ℎ
2𝑛 𝑄𝑎𝑝𝑝 ( ) − 𝑄𝑎𝑝𝑝 (ℎ)
𝑄𝑒𝑥𝑎 = 2 + 𝑂(ℎ𝑛+1 ) (6.20)
𝑛
2 −1
L’expression de droite est donc une approximation d’ordre au moins 𝑛 + 1
de 𝑄𝑒𝑥𝑎 . L’extrapolation de Richardson permet donc de gagner au moins un
ordre de convergence. En fait, on peut même en gagner d’avantage si, par
exemple, on a 𝑐𝑛+1 = 0 dès le départ. Dans ce cas, la nouvelle
approximation est d’ordre (𝑛 + 2). Cette situation se produit fréquemment,
notamment chez les différences centrées et la méthode d’intégration dite des
trapèzes que nous verrons plus loin.
Exemple : En utilisant une différence avant d’ordre 1 pour calculer la dérivée
de 𝑒 𝑥 en 𝑥 = 0, on obtient :
𝑝𝑜𝑢𝑟 ℎ = 0.1
′( )
𝑒 0+ℎ − 𝑒 0 𝑒 0.1 − 𝑒 0
𝑓 0 = = = 1,05170918 = 𝑄𝑎𝑝𝑝 (0,1)
ℎ 0.1
𝑝𝑜𝑢𝑟 ℎ = 0.05
′( )
𝑒 0+ℎ − 𝑒 0 𝑒 0.05 − 𝑒 0
𝑓 0 = = = 1,02542191 = 𝑄𝑎𝑝𝑝 (0,05)
ℎ 0.05
′(
21 𝑄𝑎𝑝𝑝 (0,05) − 𝑄𝑎𝑝𝑝 (0,1)
𝑓 0) ≈ ≈ 0,99913462
21 − 1
qui est une approximation d’ordre 2 et donc plus précise de 𝑓 ′ (0). De
même, si on utilisait une différence centrée d’ordre 2, on obtient :
𝑝𝑜𝑢𝑟 ℎ = 0.05
𝑒 0,05 − 𝑒 −0,05
′(
𝑓 0) = = 1,0004167
2 × 0,05
𝑝𝑜𝑢𝑟 ℎ = 0.025
′(
𝑒 0,025 − 𝑒 −0,025
𝑓 0) = = 1,00010418
2 × 0,025
Dans ce cas, l’extrapolation de Richardson permet de gagner deux ordres de
précisions puisque seules les puissances paires de h apparaissent dans le
terme d’erreur. Plus précisément, on a :
𝑓(𝑥 + ℎ) − 𝑓(𝑥 − ℎ) ′( )
𝑓 ′′′ (𝑥 )ℎ2 𝑓 (5) (𝑥)ℎ4
=𝑓 𝑥 + + + 𝑂(ℎ6 )
2ℎ 3! 5!
La différence centrée étant d’ordre 2, l’extrapolation de Richardson avec
𝑛 = 2 donne :
22 𝑄𝑎𝑝𝑝 (0,025) − 𝑄𝑎𝑝𝑝 (0,05)
′(
𝑓 0) ≈
22 − 1
4 × 1,00010418 − 1,0004167
≈ ≈ 1,000000007
3
Ce qui est une approximation d’ordre 4 de la solution exacte.
INTEGRATION NUMERIQUE
I- Méthode des Trapèzes
Soit 𝑓 une fonction continue sur [a, b], dérivable sur ]a, b[ et 𝑎 = 𝑥0 <
𝑥1 < 𝑥2 < ⋯ < 𝑥𝑛−1 < 𝑥𝑛 = 𝑏 une subdivision régulière de l’intervalle [a,
b]. On note h le pas de cette subdivision. Dans la méthode des trapèzes, la
fonction f est remplacée sur chaque intervalle [𝑥𝑖 , 𝑥𝑖+1 ] par la droite joignant les
points (𝑥𝑖 , 𝑓(𝑥𝑖 )) et (𝑥𝑖+1 , 𝑓(𝑥𝑖+1 )), soit
(𝑥 − 𝑥𝑖 )𝑓(𝑥𝑖+1 ) − (𝑥 − 𝑥𝑖+1 )𝑓(𝑥𝑖 )
ℎ(𝑥) = 𝑥 𝜖 [𝑥𝑖 , 𝑥𝑖+1 ]
𝑥𝑖+1 − 𝑥𝑖
La méthode s’écrit
𝑏 𝑛−1
𝑓(𝑥𝑖 ) + 𝑓(𝑥𝑖+1 )
∫ 𝑓(𝑥)𝑑𝑥 ≃ ∑(𝑥𝑖+1 − 𝑥𝑖 )
𝑎 2
𝑖=0
Remarque :
Le raisonnement précédent n’est pas parfaitement rigoureux même si le résultat
final est juste. En effet, dans chaque intervalle [𝑥𝑖 , 𝑥𝑖+1 ] l’erreur liée à la méthode
du trapèze simple devrait faire intervenir la dérivée seconde en 𝜂𝑖 (𝑓′′(𝜂𝑖 )) c’est-
à-dire une valeur de 𝜂 différente pour chaque sous intervalle. Un autre théorème
de la moyenne est alors nécessaire pour conclure ; l’erreur globale est donnée par :
𝑏−𝑎
− 𝑓 ′′ (𝜂)ℎ2 𝑝𝑜𝑢𝑟 𝑛 𝜖 [𝑎, 𝑏] (7)
12
Remarques
1. La méthode du trapèze avec un seul intervalle est également connue sous le
nom de méthode du trapèze simple.
2. La méthode des trapèzes composée est d’ordre 2. La méthode du trapèze simple,
bien que d’ordre 3 est rarement utilisée car elle est trop imprécise.
3. La méthode des trapèzes composée donne un résultat exact si la fonction 𝑓(𝑥)
est un polynôme de degré ≤1. Cela s’explique par la présence de la dérivée
seconde de 𝑓(𝑥) dans le terme d’erreur : celle-ci s’annule dans le cas de polynôme
de degré 1.
Le degré de précision de la formule des trapèzes est 1.
II- Méthode de Simpson (Simpson 1/3)
Dans la méthode de Thomas Simpson (1710-1761), la fonction 𝑓 est remplacée
par un polynôme du second degré définissant un arc de parabole passant par les
points d’ordonnées 𝑓(𝑥𝑖 ), 𝑓(𝑥𝑖+1 ) 𝑒𝑡 𝑓(𝑥𝑖+2 ). La méthode s’écrit
𝑏 𝑛−1
1 𝑥𝑖+1 + 𝑥𝑖
∫ 𝑓(𝑥)𝑑𝑥 ≃ ∑ (𝑥𝑖+1 − 𝑥𝑖 ) (𝑓(𝑥𝑖+1 ) + 𝑓(𝑥𝑖 ) + 4𝑓( ))
𝑎 6 2
𝑖=0
𝑏
ℎ
∫ 𝑓(𝑥)𝑑𝑥 = (𝑓(𝑥0 ) + 4𝑓(𝑥1 ) + 2𝑓(𝑥2 ) + 4𝑓(𝑥3 ) + 2𝑓(𝑥4 ) + ⋯
3
𝑎
+ 4𝑓(𝑥2𝑛−3 ) + 2𝑓(𝑥2𝑛−2 ) + 4𝑓(𝑥2𝑛−1 ) + 2𝑓(𝑥2𝑛 ))
𝑛−1
ℎ
= ∑ 𝑓(𝑥2𝑖 ) + 4𝑓(𝑥2𝑖+1 ) + 𝑓(𝑥2𝑖+2 )
3
𝑖=0
Exercice
Evaluer numériquement par la méthode de Simpson 1/3simple l’intégrale
𝜋/2
∫ sin 𝑥 𝑑𝑥
0
Remarque :
1- Tous les termes de rang impair sont multipliés par 4 tandis que ceux de rang
pair sont multipliés par 2, sauf 1𝑒𝑟 𝑓(𝑥0 ) et le dernier 𝑓(𝑥2𝑛 ).
Exercice
Evaluer par la méthode de Simpson 1/3 composée l’intégrale :
𝜋/2
∫ sin 𝑥 𝑑𝑥
0
…
…
2𝑛−1
1 (𝑏 − 𝑎) 𝑏−𝑎
𝐴𝑛,0 = 𝐴𝑛−1,0 + ∑ 𝑓(𝑎 + (2𝑘 + 1) )
{ 2 2𝑛 2𝑛
𝑘=0
Si la dérivée seconde de 𝑓 est continue bornée sur [𝑎, 𝑏] , la suite 𝐴𝑛,0 converge
vers la valeur exacte de l’intégrale. Pour accélérer la vitesse de la convergence,
on applique l’extrapolation de Richardson, au couple𝐴𝑛,0 , 𝐴𝑛−1,0 pour définir
𝐴𝑛,1 qui converge vers la valeur de l’intégrale si la dérivée quatrième de 𝑓 est
continue et bornée.
4𝐴𝑛,0 − 𝐴𝑛−1,0
𝐴𝑛,1 =
3
De proche en proche, on définit ainsi les valeurs extrapolées
4𝐴𝑛,𝑙−1 − 𝐴𝑛−1,𝑙−1
𝐴𝑛,𝑙 =
4𝑙 − 1
Lorsque 𝑛 tend vers l’infini, on a alors
𝑏
𝐴𝑛,𝑙 = ∫ 𝑓(𝑥)𝑑𝑥 + 𝑂( 4−𝑛(𝑙+1) )
𝑎
Exercice : Soit une fonction 𝑓(𝑥) connue seulement pour quelques valeurs de 𝑥 .
1
Evaluer l’intégrale ∫0 𝑓(𝑥)𝑑𝑥 à l’aide de la méthode de Romberg.
𝑥 𝑓(𝑥)
0,00 0,3989
0,25 0,3867
0,50 0,3521
0,75 0,3011
1,00 0,2420
𝑦(𝑡 + ℎ) − 𝑦(𝑡)
ℎ
𝑏−𝑎
Ou ℎ = est le pas d’intégration numérique .
𝑁
Remarque
𝑂𝑛 𝑑𝑖𝑡 𝑞𝑢𝑒 𝑙𝑎 𝑚é𝑡ℎ𝑜𝑑𝑒 𝑑′ 𝐸𝑢𝑙𝑒𝑟 𝑒𝑠𝑡 à 𝑝𝑎𝑠 𝑠é𝑝𝑎𝑟é𝑠 𝑜𝑢 à 𝑢𝑛 𝑝𝑎𝑠 , 𝑝𝑎𝑟𝑐𝑒 𝑞𝑢𝑒
𝑙𝑒 𝑐𝑎𝑙𝑐𝑢𝑙 𝑑𝑒 𝑦i+1 𝑛𝑒 𝑓𝑎𝑖𝑡 𝑞𝑢𝑒 𝑖𝑛𝑡𝑒𝑟𝑣𝑒𝑛𝑖𝑟 𝑦i
𝑬𝒕𝒖𝒅𝒆 𝒅𝒆 𝒍’𝑬𝒓𝒓𝒆𝒖𝒓 𝒅’𝑬𝒖𝒍𝒆𝒓
Définition
Une méthode numérique approchant 𝑦(𝑡j) par 𝑦j telle que l’erreur
𝑒j= 𝑦(𝑡j)- 𝑦j vérifie est dite d’ordre 𝑝, (𝑘 ∈ 𝑅*+) .
Théorème
Supposons que l’application 𝑓(𝑡, 𝑦) soit continue par rapport aux deux
variables , et 𝐿𝑖𝑝𝑠𝑐ℎ𝑖𝑡𝑖𝑒𝑛𝑛𝑒 par rapport à y uniformément par rapport à t et
que
𝑦 ∈ 𝐶 2[𝑎, 𝑏].
On pose 𝑀2=𝑚𝑎𝑥t∈[a,b]|𝑦 ′′ (𝑡)| , alors on a la majoration
𝑀2
|𝑒i| ≤ (𝑒 𝐿(𝑏−𝑎) − 1) ℎ
2𝑙
Exercice d’application
Résoudre par la méthode d’Euler l’équation différentielle
𝑦 ′ (𝑡) = −𝑦(𝑡) + 𝑡 + 1
{
𝑦(0) = 1 (𝐶𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛 𝑖𝑛𝑖𝑡𝑖𝑎𝑙𝑒)
𝑏−𝑎
ℎ= , 𝑥0 = 𝑎 , 𝑦0 𝑑𝑜𝑛𝑛é 𝑡i + 1 = 𝑡i + ℎ
2
ℎ2 𝜕𝑓 𝜕𝑓
𝑦i + 1 = 𝑦i + ℎ𝑓(𝑡I, 𝑦i) + ( + 𝑓)(𝑡i, 𝑦i) 𝑖 = 0 , 1 , … … … (𝑁 − 1)
{ 2 𝜕𝑡 𝜕𝑦
D’ou
ℎ
𝑦i+1= 𝑦i + (𝑓(𝑡i, 𝑦i) + 𝑓(𝑡i+ℎ , 𝑦i +ℎ𝑓(𝑡i, 𝑦i))
2
Exercice 1
Résoudre par la méthode de 𝑅𝑢𝑛𝑔𝑒 − 𝐾𝑢𝑡𝑡𝑎 le système suivant :
𝑦 ′ (𝑡) = −𝑦(𝑡) + 𝑡 + 1
{
𝑦(0) = 1 (𝐶𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛 𝑖𝑛𝑖𝑡𝑖𝑎𝑙𝑒)
Exercice 2
1. Transformer l’équation différentielle suivante :
𝑑2 𝑥 2)
𝑑𝑥
− ( 1 − 𝑥 +𝑥 =0
𝑑𝑡 2 𝑑𝑡
Ou initialement 𝑥 (0) = 0.5 ; 𝑥 ′ (0) =
0 ; 𝑒𝑛 𝑢𝑛 𝑠𝑦𝑠𝑡è𝑚𝑒 𝑑′ é𝑞𝑢𝑎𝑡𝑖𝑜𝑛 𝑑′ 𝑜𝑟𝑑𝑒 1
2. Indiquer les conditions initiales applicables au système
3. Avec un pas de temps ℎ = 0.1 , calculer 𝑥(𝑡) 𝑒𝑡 𝑥 ′ (𝑡) à 𝑡 = 0.1 à
l’aide de la méthode 𝑑’𝐸𝑢𝑙𝑒𝑟