« Régularisation par abandon » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
Ligne 6 : | Ligne 5 : | ||
[[Category:Apprentissage profond]]Apprentissage profond<br /> | [[Category:Apprentissage profond]]Apprentissage profond<br /> | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
== Définition == | == Définition == | ||
Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits. | Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits. | ||
== Français == | == Français == | ||
''' régularisation par abandon n.f.''' | |||
== Anglais == | |||
''' dropout regularization ''' | |||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | ||
Version du 15 juin 2019 à 22:29
Domaine
Apprentissage profond
Définition
Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.
Français
régularisation par abandon n.f.
Anglais
dropout regularization
Contributeurs: Claire Gorjux, Jacques Barolet, wiki, Robert Meloche