« Adagrad » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte — « [[Category: » par « [[Catégorie: »)
 
(25 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
#REDIRECTION[[ Gradient adaptatif ]]
[[category:Vocabulary]] Vocabulary<br />
[[Catégorie:ENGLISH]]
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Apprentissage profond]] Apprentissage profond
 
== Définition ==
 
 
 
== Termes privilégiés ==
 
== Anglais ==
 
 
'''Adagrad'''
 
Adagrad is an adaptive learning rate algorithms that keeps track of the squared gradients over time and automatically adapts the learning rate per-parameter. It can be used instead of vanilla SGD and is particularly helpful for sparse data, where it assigns a higher learning rate to infrequently updated parameters.
• Adaptive Subgradient Methods for Online Learning and Stochastic Optimization
• Stanford CS231n: Optimization Algorithms
• An overview of gradient descent optimization algorithms

Dernière version du 27 septembre 2019 à 12:33

Rediriger vers :



Contributeurs: Jacques Barolet, wiki