« Gradient adaptatif » : différence entre les versions
m (Remplacement de texte — « <!-- Scotty2 --> » par « ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de ''adaptive gradient''. | Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de ''adaptive gradient''. | ||
Ligne 21 : | Ligne 16 : | ||
[https://developers.google.com/machine-learning/glossary/ Source: Google, ''Machine learning glossary''.] | [https://developers.google.com/machine-learning/glossary/ Source: Google, ''Machine learning glossary''.] | ||
[[Category:Apprentissage profond]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] |
Version du 6 mai 2020 à 21:20
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de adaptive gradient.
Français
gradient adaptatif loc. nom. masc.
Adagrad nom propre
Anglais
AdaGrad
Adaptive Gradient
Contributeurs: Jacques Barolet, wiki, Robert Meloche