« Optimisation Adam » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « * [https:// » par « [https:// ») |
||
(3 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre. | L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre. | ||
== Français == | == Français == | ||
Ligne 11 : | Ligne 8 : | ||
''' Adam optimization''' | ''' Adam optimization''' | ||
'''Adaptive Moment Estimation''' (Adam) | |||
==Sources== | |||
[https://www.analyticsvidhya.com/glossary-of-common-statistics-and-machine-learning-terms/ Source : analyticsvidhya.com ] | |||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 11 février 2024 à 21:33
Définition
L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre.
Français
optimisation Adam
Anglais
Adam optimization
Adaptive Moment Estimation (Adam)
Sources
Contributeurs: Imane Meziani, wiki