RMSProp


Révision datée du 31 décembre 2018 à 14:56 par Pitpitt (discussion | contributions) (Remplacement de texte — « Termes privilégiés » par « Français »)

Domaine

Vocabulary Apprentissage profond

Définition

Français

Anglais

RMSProp

RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate. • Neural Networks for Machine Learning Lecture 6a • Stanford CS231n: Optimization Algorithms • An overview of gradient descent optimization algorithms