Régularisation par abandon


Révision datée du 16 avril 2020 à 12:07 par Pitpitt (discussion | contributions) (Remplacement de texte — « n.f. » par « nom fém. »)


Définition

Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.

Français

régularisation par abandon nom fém.

Anglais

dropout regularization


Source: Google machine learning glossary