« Optimisation Adam » : différence entre les versions
(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Adam Optimization''' The Adam Optimization algorithm is used in tra... ») |
m (Remplacement de texte — « [http » par « * [http ») |
||
Ligne 15 : | Ligne 15 : | ||
[https://www.analyticsvidhya.com/glossary-of-common-statistics-and-machine-learning-terms/ Source : analyticsvidhya.com ] | * [https://www.analyticsvidhya.com/glossary-of-common-statistics-and-machine-learning-terms/ Source : analyticsvidhya.com ] | ||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] | ||
[[Catégorie:analyticsvidhya]] | [[Catégorie:analyticsvidhya]] |
Version du 4 février 2021 à 22:32
en construction
Définition
XXXXXXXXX
Français
XXXXXXXXX
Anglais
Adam Optimization
The Adam Optimization algorithm is used in training deep learning models. It is an extension to Stochastic Gradient Descent. In this optimization algorithm, running averages of both the gradients and the second moments of the gradients are used. It is used to compute adaptive learning rates for each parameter.
Contributeurs: Imane Meziani, wiki