« Problème de l'explosion du gradient » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:Vocabulary]] Vocabulary | [[Category:Vocabulary]] Vocabulary<br /> | ||
[[Catégorie:Apprentissage profond]] Apprentissage profond | [[Catégorie:Apprentissage profond]] Apprentissage profond | ||
== Définition == | == Définition == | ||
Version du 17 mars 2018 à 20:54
Domaine
Vocabulary
Apprentissage profond
Définition
Termes privilégiés
Anglais
Exploding Gradient Problem
The Exploding Gradient Problem is the opposite of the Vanishing Gradient Problem. In Deep Neural Networks gradients may explode during backpropagation, resulting number overflows. A common technique to deal with exploding gradients is to perform Gradient Clipping. • On the difficulty of training recurrent neural networks
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, Pierre Labreche, wiki