« Régularisation par abandon » : différence entre les versions


m (Remplacement de texte — « <!-- Vocabulaire --> » par «  »)
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
== Définition ==
== Définition ==
Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.  
Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.  


== Français ==
== Français ==
''' régularisation par abandon   nom fém.'''
''' régularisation par abandon ''' <small> loc. nom. fém. </small>


== Anglais ==
== Anglais ==
Ligne 16 : Ligne 9 :


<small>
<small>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]




[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]

Version du 8 mai 2020 à 17:36

Définition

Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.

Français

régularisation par abandon loc. nom. fém.

Anglais

dropout regularization

Source: Google machine learning glossary