« Gradient adaptatif » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications |
||
Ligne 4 : | Ligne 4 : | ||
<!-- Scotty2 --> | <!-- Scotty2 --> | ||
== Définition == | ==Définition== | ||
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de ''adaptive gradient''. | Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de ''adaptive gradient''. | ||
== Français == | ==Français== | ||
''' gradient adaptatif <small> | ''' gradient adaptatif''' <small>loc. nom. masc.</small> | ||
''' | ''' Adagrad '''<small>nom propre masc.</small> | ||
== Anglais == | ==Anglais== | ||
''' AdaGrad''' | ''' AdaGrad''' | ||
Ligne 20 : | Ligne 20 : | ||
<small> | <small> | ||
[https://developers.google.com/machine-learning/glossary/ | [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary] |
Version du 12 juillet 2019 à 20:47
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de adaptive gradient.
Français
gradient adaptatif loc. nom. masc.
Adagrad nom propre masc.
Anglais
AdaGrad
Adaptive Gradient
Contributeurs: Jacques Barolet, wiki, Robert Meloche