« Adagrad » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 9 : | Ligne 9 : | ||
== Définition == | == Définition == | ||
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. | Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. | ||
<br /> | <br /> |
Version du 29 septembre 2018 à 22:21
Domaine
Vocabulaire
Google
Apprentissage profond
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant.
Termes privilégiés
AdaGrad (diminutif de adaptive gradient, anglais pour gradient adaptatif.)
Gradient adaptatif
Anglais
AdaGrad
Contributeurs: Jacques Barolet, wiki