« Régularisation (mathématiques) » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
==Domaine==
==Domaine==
[[category:Vocabulaire2]]  
[[category:Vocabulaire2]]  
Ligne 7 : Ligne 6 :
[[Catégorie:scotty2]]  
[[Catégorie:scotty2]]  
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br>


==Définition==
==Définition==
Dans le domaine des statistiques et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème pour éviter le '''[https://datafranca.org/wiki/Surapprentissage surapprentissage]'''. Cette information prend généralement la forme d'une pénalité envers la complexité du modèle. On peut relier cette méthode au principe du rasoir d'Occam. D'un point de vue bayésien, l'utilisation de la régularisation revient à imposer une distribution a priori sur les paramètres du modèle.
Dans le domaine des statistiques et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème pour éviter le '''[https://datafranca.org/wiki/Surapprentissage surapprentissage]'''. Cette information prend généralement la forme d'une pénalité envers la complexité du modèle. On peut relier cette méthode au principe du rasoir d'Occam. D'un point de vue bayésien, l'utilisation de la régularisation revient à imposer une distribution a priori sur les paramètres du modèle.


==Français==
==Français==
'''régularisation'''  n.f.
'''régularisation'''  n.f.
   
   
==Anglais==
'''regularization'''




==Anglais==
'''regularization'''





Version du 15 juin 2019 à 22:28

Domaine

Définition

Dans le domaine des statistiques et plus particulièrement dans le domaine de l'apprentissage automatique, la régularisation fait référence à un processus consistant à ajouter de l'information à un problème pour éviter le surapprentissage. Cette information prend généralement la forme d'une pénalité envers la complexité du modèle. On peut relier cette méthode au principe du rasoir d'Occam. D'un point de vue bayésien, l'utilisation de la régularisation revient à imposer une distribution a priori sur les paramètres du modèle.

Français

régularisation n.f.

Anglais

regularization




Source : Wikipedia IA

Contributeurs: Jacques Barolet, wiki