« Gradient adaptatif » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 6 : | Ligne 6 : | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
== Définition == | == Définition == | ||
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de ''adaptive gradient''. | Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de ''adaptive gradient''. | ||
== Français == | == Français == | ||
Ligne 17 : | Ligne 14 : | ||
''' adagrad ''' | ''' adagrad ''' | ||
== Anglais == | == Anglais == | ||
Ligne 27 : | Ligne 20 : | ||
''' Adaptive Gradient''' | ''' Adaptive Gradient''' | ||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | ||
[https://datafranca.org/lexique/gradient-adaptatif/ Publié : datafranca.org ] | [https://datafranca.org/lexique/gradient-adaptatif/ Publié : datafranca.org ] | ||
Version du 14 juin 2019 à 21:17
Domaine
Apprentissage profond
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de adaptive gradient.
Français
gradient adaptatif n.m.
adagrad
Anglais
AdaGrad
Adaptive Gradient
Contributeurs: Jacques Barolet, wiki, Robert Meloche