RMSProp


Révision datée du 26 février 2018 à 20:42 par Pitpitt (discussion | contributions) (Page créée avec « == Domaine == catégorie:Démo Catégorie Démo Catégorie:Apprentissage profond Apprentissage profond == Définition == == Termes privilégiés ==... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Domaine

Catégorie Démo Apprentissage profond

Définition

Termes privilégiés

Anglais

RMSProp

RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate. • Neural Networks for Machine Learning Lecture 6a • Stanford CS231n: Optimization Algorithms • An overview of gradient descent optimization algorithms