Tout Savoir Sur La Régression Pénalisé

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 19

Tout savoir sur la régression pénalisée

Partie 3

Présenté par Morgan Gautherot


A. Pénalisation de la fonction de coût
Sur-entraînement et sous-entraînement

Sous-entraînement Entraînement correct Sur-entraînement


Erreur sur le jeu d’entraînement : Élevée Erreur sur le jeu d’entraînement : Erreur sur le jeu d’entraînement :
Faible Nulle
Erreur sur le jeu de test : Élevée Erreur sur le jeu de test : Erreur sur le jeu de test :
Faible Moyenne

Prix
Prix

Prix

Surface Surface Surface


Jeu d’entraînement Jeu de test
Complexité du modèle
𝑦! = 𝑤! + 𝑤" . 𝑥" + 𝑤# . 𝑥" # +
𝑦! = 𝑤! + 𝑤" . 𝑥" 𝑦! = 𝑤! + 𝑤" . 𝑥" + 𝑤# . 𝑥" #
𝑤$ . 𝑥" $ +𝑤% . 𝑥" % + ⋯

Prix
Prix

Prix

Surface Surface Surface


Jeu d’entraînement Jeu de test
Pénalisation des paramètres

𝑦! = 𝑤! + 𝑤" . 𝑥" + 𝑤# . 𝑥" # + 𝑤$ . 𝑥" $ + 𝑤% . 𝑥" % + ⋯


Prix

Pénalisation des paramètres


)
1
min𝐽 𝑤 = 0(𝑦! (') − 𝑦 (') )# +1000. 𝑤$ + 1000. 𝑤% + ⋯
& 2𝑚
'("

Surface
Minimiser l’erreur Minimiser la valeur des
Jeu d’entraînement Jeu de test de prédiction paramètres 𝑤$ , 𝑤% , …
B. La régression Lasso
Régression Lasso ou pénalisation L1

● Un modèle plus simple avec moins de paramètres est moins sujet


au sur-entraînement.
Paramètre de régularisation

$ '
1 !
𝐽 𝑤 = '(𝑦) − 𝑦 ! )%+𝜆 ' |𝑤( |
2𝑚
!"# &"#

Régularisation
Impact du coefficient de régularisation
$ '
1 !
𝜆 trop petit 𝐽 𝑤 = '(𝑦) − 𝑦 ! )%+𝜆 ' |𝑤( |
2𝑚
!"# &"#
Prix

Prix
Surface Surface
Impact du coefficient de régularisation
$ '
1 !
𝜆 trop grand 𝐽 𝑤 = '(𝑦) − 𝑦 ! )%+𝜆 ' |𝑤( |
2𝑚
!"# &"#
Prix

Prix
Surface Surface
Impact du coefficient de régularisation

[0.01, …, 0.1, …., 0.5] $ '


1 !
𝐽 𝑤 = '(𝑦) − 𝑦 ! )%+𝜆 ' |𝑤( |
𝜆 adéquat 2𝑚
!"# &"#
Prix

Prix
Surface Surface
C. La régression Ridge
Régression Ridge ou pénalisation L2

● Un modèle avec des paramètres plus homogène est moins sujet au


sur-entraînement.
Paramètre de régularisation

$ '
1
𝐽 𝑤 = '(𝑦) ! − 𝑦 ! )%+𝜆 ' 𝑤&%
2𝑚
!"# &"#

Régularisation
D. La régression Elasticnet
Régression Elasticnet ou régularisation L1 et L2
Paramètre de régularisation

$ ' '
1
𝐽 𝑤 = '(ℎ(𝑥 ! ) − 𝑦 ! )% +𝜆# ' |𝑊( | + 𝜆% ' 𝑤&%
2𝑚
!"# &"# &"#

Paramètre de régularisation

$ ' '
1 1−𝛼
𝐽 𝑤 = '(ℎ(𝑥 ! ) − 𝑦 ! )% +𝜆 𝛼 ' |𝑊( | + ' 𝑤&%
2𝑚 2
!"# &"# &"#

Mix entre la régularisation L1 et L2


Régression Elasticnet ou régularisation L1 et L2

$ ' '
1 1−𝛼
𝛼=0 𝐽 𝑤 = '(ℎ(𝑥 ! ) − 𝑦 ! )% +𝜆 𝛼 ' |𝑊( | + ' 𝑤&% L2
2𝑚 2
!"# &"# &"#

$ ' '
1 1−𝛼
𝛼=1 𝐽 𝑤 = '(ℎ(𝑥 ! ) − 𝑦 ! )% +𝜆 𝛼 ' |𝑊( | + ' 𝑤&% L1
2𝑚 2
!"# &"# &"#
E. Pour la régression logistique
Pour la classification

Sous-entraînement Entraînement correct Sur-entraînement


Régression logistique pénalisée

$ &
1 𝜆
Ridge 𝐽 𝑤 =− /𝑦 ! log ℎ 𝑥 ! + 1−𝑦 ! log 1 − ℎ 𝑥 ! + / 𝑤%'
𝑚 2𝑚
!"# %"#

$ &
1 ! ! ! !
𝜆
Lasso 𝐽 𝑤 =−
𝑚
/𝑦 log ℎ 𝑥 + 1−𝑦 log 1 − ℎ 𝑥 +
2𝑚
/ 𝑊(
!"# %"#

$ & &
1 1−𝛼
Elasticnet 𝐽 𝑤 =− /𝑦 ! log ℎ 𝑥 ! + 1−𝑦 ! log 1 − ℎ 𝑥 ! + 𝜆 𝛼 / |𝑊( | + / 𝑤%'
𝑚 2
!"# %"# %"#
Résumé

● Lasso/pénalisation L1
■ Sélection des variables les plus importantes

● Ridge/pénalisation L2
■ Homogénéisation des paramètres

● Elasticnet/pénalisation L1 & L2
■ Sélection des variables et homogénéisation des
paramètres.

Vous aimerez peut-être aussi