Régularisation de Tikhonov
La régularisation de Tikhonov est la méthode de régularisation la plus utilisée pour la résolution de problèmes qui ne sont pas bien posés ainsi que pour les problèmes inverses. Elle a été formalisée par le mathématicien russe Andreï Nikolaïevitch Tikhonov. En statistique, la méthode est également connue sous le nom de régression d'arête (ridge regression). Elle est connexe à l'algorithme de Levenberg-Marquardt pour la résolution de problèmes non linéaires de moindres carrés.
Développement
[modifier | modifier le code]Problème
[modifier | modifier le code]L'approche classique pour résoudre un système d'équations linéaires surdéterminées exprimées par
est connue comme la méthode des moindres carrés et consiste à minimiser le résidu
où est la norme euclidienne. Cependant, la matrice A peut-être mal conditionnée ou non inversible, conduisant à un grand nombre de solutions.
Régularisation
[modifier | modifier le code]Dans le but de privilégier une solution particulière dotée de propriétés qui semblent pertinentes, un terme de régularisation est introduit dans la minimisation :
La « matrice de Tikhonov » Γ doit être judicieusement choisie pour le problème considéré. Le vecteur x est celui que l'on cherche à exprimer, souvent comme une approximation discrétisée d'une fonction continue. Dans de nombreux cas, la matrice Γ est la matrice identité Γ = I, ce qui favorise les solutions dont les normes sont petites. Dans d'autres cas des opérateurs passe-haut, par exemple un opérateur de différence ou un opérateur de Fourier pondéré peut être utilisé pour éliminer les variations rapides de la fonction lorsque l'on a de bonnes raisons de croire que le vecteur x est l'approximation d'une fonction continue.
Cette régularisation améliore le conditionnement du problème, permettant ainsi de trouver une solution numérique.
Solution
[modifier | modifier le code]Une solution numérique que l'on va appeler est donnée par :
L'effet de la régularisation dépend du choix de la matrice Γ. Lorsque Γ est nulle, on en revient au cas de la solution, non régularisée, des moindres carrés, pourvu que (ATA)−1 existe.
Régularisation généralisée
[modifier | modifier le code]Le problème de régularisation généralisée s'écrit
où :
- x0 désigne l'espérance de x,
- Q = ΓTΓ désigne l'inverse de la matrice de covariance de x,
- P désigne l'inverse de la matrice de covariance de b,
- désigne xT P x, soit le carré de la norme pondérée.
Sa solution généralisée est alors :
Sources
[modifier | modifier le code]- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Tikhonov regularization » (voir la liste des auteurs), dont les sources étaient :
- Tikhonov AN, 1943, On the stability of inverse problems, Dokl. Akad. Nauk SSSR, 39, No. 5, 195-198
- Tikhonov AN, 1963, Solution of incorrectly formulated problems and the regularization method, Soviet Math Dokl 4, 1035-1038 English translation of Dokl Akad Nauk SSSR 151, 1963, 501-504
- Tikhonov AN and Arsenin VA, 1977, Solution of Ill-posed Problems, Winston & Sons, Washington, (ISBN 0-470-99124-0).
- Hansen, P.C., 1998, Rank-deficient and Discrete ill-posed problems, SIAM
- Hoerl AE, 1962, Application of ridge analysis to regression problems, Chemical Engineering Progress, 58, 54-59.
- Foster M, 1961, An application of the Wiener-Kolmogorov smoothing theory to matrix inversion, J. SIAM, 9, 387-392
- Phillips DL, 1962, A technique for the numerical solution of certain integral equations of the first kind, J Assoc Comput Mach, 9, 84-97
- Tarantola A, 2004, Inverse Problem Theory (free PDF version), Society for Industrial and Applied Mathematics, (ISBN 0-89871-572-5)
- Wahba, G, 1990, spline Models for Observational Data, SIAM