« Gradient adaptatif » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte — « <!-- Google --> » par « ») |
||
Ligne 1 : | Ligne 1 : | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] |
Version du 5 mai 2020 à 19:50
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de adaptive gradient.
Français
gradient adaptatif loc. nom. masc.
Adagrad nom propre
Anglais
AdaGrad
Adaptive Gradient
Contributeurs: Jacques Barolet, wiki, Robert Meloche