« Gradient adaptatif » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte — « Category:scotty2 » par « <!-- Scotty2 --> ») |
||
Ligne 2 : | Ligne 2 : | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
<!-- Scotty2 --> | |||
== Définition == | == Définition == |
Version du 2 juillet 2019 à 11:42
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de adaptive gradient.
Français
gradient adaptatif n.m.
adagrad
Anglais
AdaGrad
Adaptive Gradient
Contributeurs: Jacques Barolet, wiki, Robert Meloche