« RMSProp » : différence entre les versions


(Page créée avec « == Domaine == catégorie:Démo Catégorie Démo Catégorie:Apprentissage profond Apprentissage profond == Définition == == Termes privilégiés ==... »)
 
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[catégorie:Démo]] Catégorie Démo
[[Category:Vocabulary]] Vocabulary
[[Catégorie:Apprentissage profond]] Apprentissage profond
[[Catégorie:Apprentissage profond]] Apprentissage profond
   
   

Version du 26 février 2018 à 20:32

Domaine

Vocabulary Apprentissage profond

Définition

Termes privilégiés

Anglais

RMSProp

RMSProp is a gradient-based optimization algorithm. It is similar to Adagrad, but introduces an additional decay term to counteract Adagrad’s rapid decrease in learning rate. • Neural Networks for Machine Learning Lecture 6a • Stanford CS231n: Optimization Algorithms • An overview of gradient descent optimization algorithms