« RMSProp » : différence entre les versions
(Page créée avec « == Domaine == catégorie:Démo Catégorie Démo Catégorie:Apprentissage profond Apprentissage profond == Définition == == Termes privilégiés ==... ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[ | [[Category:Vocabulary]] Vocabulary | ||
[[Catégorie:Apprentissage profond]] Apprentissage profond | [[Catégorie:Apprentissage profond]] Apprentissage profond | ||
Version du 26 février 2018 à 20:32
Domaine
Vocabulary Apprentissage profond
Définition
Termes privilégiés
Anglais
RMSProp
RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate. • Neural Networks for Machine Learning Lecture 6a • Stanford CS231n: Optimization Algorithms • An overview of gradient descent optimization algorithms
Contributeurs: Claude Coulombe, Jacques Barolet, wiki