« Adagrad » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 9 : Ligne 9 :


== Définition ==
== Définition ==
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. Pour plus d'explication, consultez ces articles.
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant.
 
http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf
 
http://ruder.io/optimizing-gradient-descent/index.html#adagrad
 


<br />
<br />

Version du 29 septembre 2018 à 22:21

Domaine

Vocabulaire
Google
Apprentissage profond


Définition

Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant.


Termes privilégiés

AdaGrad (diminutif de adaptive gradient, anglais pour gradient adaptatif.)

Gradient adaptatif


Anglais

AdaGrad




Source: Google machine learning glossary


Contributeurs: Jacques Barolet, wiki