« Régularisation par abandon » : différence entre les versions


Aucun résumé des modifications
Ligne 8 : Ligne 8 :


== Définition ==
== Définition ==
Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits. Pour plus d'informations, consultez l'article Dropout: A Simple Way to Prevent Neural Networks from Overfitting (en anglais).
Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.  


<br />


<br />
== Termes privilégiés ==
== Termes privilégiés ==
=== régularisation par abandon  n.f.===
=== régularisation par abandon  n.f.===

Version du 6 décembre 2018 à 23:38

Domaine

Vocabulaire
Google
Apprentissage profond


Définition

Forme de régularisation utile dans l'apprentissage des réseaux de neurones. La régularisation par abandon consiste à supprimer de manière aléatoire un nombre fixe d'unités dans une couche du réseau pour un pas de gradient unique. Plus le nombre d'unités abandonnées est élevé, plus la régularisation est solide. Cette méthode est analogue à l'entraînement du modèle pour émuler un groupe exponentiellement large de réseaux plus petits.


Termes privilégiés

régularisation par abandon n.f.


Anglais

dropout regularization




Source: Google machine learning glossary