« Adagrad » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 8 : | Ligne 8 : | ||
<br /> | <br /> | ||
== Définition == | |||
Acronyme de ''adaptive gradient''. Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. | Acronyme de ''adaptive gradient''. Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. | ||
Version du 2 octobre 2018 à 18:42
Domaine
Vocabulaire
Google
Apprentissage profond
Définition
Acronyme de adaptive gradient. Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant.
Termes privilégiés
Gradient adaptatif
Anglais
AdaGrad
Contributeurs: Jacques Barolet, wiki