« Problème de l'explosion du gradient » : différence entre les versions
(→Termes privilégiés : explosion) |
m (Remplacement de texte — « Termes privilégiés » par « Français ») |
||
Ligne 10 : | Ligne 10 : | ||
== | == Français == | ||
=== le problème de l'explosion du gradient === | === le problème de l'explosion du gradient === |
Version du 31 décembre 2018 à 14:44
Domaine
Vocabulary
Apprentissage profond
Définition
Français
le problème de l'explosion du gradient
Anglais
Exploding Gradient Problem
The Exploding Gradient Problem is the opposite of the Vanishing Gradient Problem. In Deep Neural Networks gradients may explode during backpropagation, resulting number overflows. A common technique to deal with exploding gradients is to perform Gradient Clipping. • On the difficulty of training recurrent neural networks
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, Pierre Labreche, wiki