chap5_regularisatiion
chap5_regularisatiion
chap5_regularisatiion
Introduction
• Lorsque les variables sont fortement corrélées ou que leur nombre dépasse
celui des observations, la régression linéaire devient mal définie, ce qui
peut entraîner du surapprentissage.
• La régularisation consiste à minimiser simultanément l'erreur
d'entraînement et la complexité du modèle en ajoutant un terme de
pénalité aux coefficients du modèle.
• La régularisation consiste à apprendre un modèle en minimisant une
fonction de coût :
1
𝑓=arg min σ𝑛𝑖=1 𝐿(h(𝑥Ԧ 𝑖),𝑦𝑖)+𝜆Ω(h)
h∈𝐹 𝑛
• Ω(ℎ) est un terme de contrainte, qui pénalise des solutions complexes ou sur-
ajustées. Ce terme contrôle la taille ou la complexité des coefficients.
• 𝜆 est un hyperparamètre qui contrôle l'importance du terme de régularisation par
rapport à l'erreur d'entraînement.
La régularisation Ridge (L2)
• La régularisation Ridge est l'une des formes les plus courantes de
régularisation. Elle est utilisée pour résoudre des problèmes où il y a de la
multicolinéarité ou lorsque le modèle risque de surajuster les données.
• La régularisation Ridge fonctionne en ajoutant une pénalité basée sur la
norme ℓ2 des coefficients 𝛽. Cette norme est simplement la somme des
carrés des coefficients :
𝑝
Ωridge(𝛽)= 𝛽 2 = σ𝑗=0 𝛽𝑗2
2