« RMSProp » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte — « Termes privilégiés » par « Français ») |
||
Ligne 9 : | Ligne 9 : | ||
== | == Français == | ||
Version du 31 décembre 2018 à 14:56
Domaine
Vocabulary Apprentissage profond
Définition
Français
Anglais
RMSProp
RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate. • Neural Networks for Machine Learning Lecture 6a • Stanford CS231n: Optimization Algorithms • An overview of gradient descent optimization algorithms
Contributeurs: Claude Coulombe, Jacques Barolet, wiki