« Taux de régularisation » : différence entre les versions
(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
__NOTOC__ | __NOTOC__ | ||
== Domaine == | == Domaine == | ||
[[Category:Vocabulaire]] | [[Category:Vocabulaire]] | ||
[[Category:Google]] | [[Category:Google]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:scotty]] | |||
<br /> | <br /> | ||
Ligne 9 : | Ligne 10 : | ||
== Définition == | == Définition == | ||
Grandeur scalaire, notée lambda, qui indique l'importance relative de la fonction de régularisation. L'équation de perte simplifiée suivante montre l'influence du taux de régularisation : | Grandeur scalaire, notée lambda, qui indique l'importance relative de la fonction de régularisation. L'équation de perte simplifiée suivante montre l'influence du taux de régularisation : | ||
[[Fichier:Taux de regularisation.jpg]] | |||
L'augmentation du taux de régularisation réduit le surapprentissage, mais peut aussi réduire la justesse du modèle.<br /> | L'augmentation du taux de régularisation réduit le surapprentissage, mais peut aussi réduire la justesse du modèle.<br /> |
Version du 1 décembre 2018 à 12:36
Domaine
Définition
Grandeur scalaire, notée lambda, qui indique l'importance relative de la fonction de régularisation. L'équation de perte simplifiée suivante montre l'influence du taux de régularisation :
L'augmentation du taux de régularisation réduit le surapprentissage, mais peut aussi réduire la justesse du modèle.
aussi
Lambda recouvre de nombreux concepts. Ici, nous nous référons à sa définition dans le cadre de la régularisation.
Termes privilégiés
taux de régularisation
lambda
Anglais
regularization rate
Contributeurs: Claire Gorjux, Jacques Barolet, wiki, Robert Meloche