« Régularisation (mathématiques) » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Domaine== | ==Domaine== | ||
[[category:Vocabulaire2]] | [[category:Vocabulaire2]] | ||
Ligne 7 : | Ligne 6 : | ||
[[Catégorie:scotty2]] | [[Catégorie:scotty2]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
==Définition== | ==Définition== | ||
Dans le domaine des statistiques et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème pour éviter le '''[https://datafranca.org/wiki/Surapprentissage surapprentissage]'''. Cette information prend généralement la forme d'une pénalité envers la complexité du modèle. On peut relier cette méthode au principe du rasoir d'Occam. D'un point de vue bayésien, l'utilisation de la régularisation revient à imposer une distribution a priori sur les paramètres du modèle. | Dans le domaine des statistiques et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème pour éviter le '''[https://datafranca.org/wiki/Surapprentissage surapprentissage]'''. Cette information prend généralement la forme d'une pénalité envers la complexité du modèle. On peut relier cette méthode au principe du rasoir d'Occam. D'un point de vue bayésien, l'utilisation de la régularisation revient à imposer une distribution a priori sur les paramètres du modèle. | ||
==Français== | ==Français== | ||
'''régularisation''' n.f. | '''régularisation''' n.f. | ||
==Anglais== | |||
'''regularization''' | |||
Version du 15 juin 2019 à 22:28
Domaine
Définition
Dans le domaine des statistiques et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème pour éviter le surapprentissage. Cette information prend généralement la forme d'une pénalité envers la complexité du modèle. On peut relier cette méthode au principe du rasoir d'Occam. D'un point de vue bayésien, l'utilisation de la régularisation revient à imposer une distribution a priori sur les paramètres du modèle.
Français
régularisation n.f.
Anglais
regularization
Contributeurs: Jacques Barolet, wiki