« Adagrad » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 8 : | Ligne 8 : | ||
== Définition == | == Définition == | ||
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. Pour une explication complète, consultez cet article.http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf | Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. Pour une explication complète, consultez cet article. http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf | ||
<br /> | <br /> | ||
== Termes privilégiés == | == Termes privilégiés == | ||
=== AdaGrad=== | === AdaGrad=== |
Version du 29 septembre 2018 à 20:16
Domaine
Vocabulaire
Google
Apprentissage profond
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. Pour une explication complète, consultez cet article. http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf
Termes privilégiés
AdaGrad
Anglais
AdaGrad
Contributeurs: Jacques Barolet, wiki