« Gradient adaptatif » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:Vocabulaire2]] | [[Category:Vocabulaire2]] | ||
[[Category:Google2]] | [[Category:Google2]] | ||
[[Category:Apprentissage | [[Category:Apprentissage profond]]Apprentissage profond<br /> | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:scotty2]] | [[Category:scotty2]] |
Version du 3 juin 2019 à 15:43
Domaine
Apprentissage profond
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de adaptive gradient.
Français
gradient adaptatif n.m.
adagrad
Anglais
AdaGrad
Adaptive Gradient
Source: Google machine learning glossary
Publié : datafranca.org
Contributeurs: Jacques Barolet, wiki, Robert Meloche