« Optimisation Adam » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « * [https:// » par « [https:// »)
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 11 : Ligne 11 :




<small>
==Sources==


* [https://www.analyticsvidhya.com/glossary-of-common-statistics-and-machine-learning-terms/    Source : analyticsvidhya.com ]
[https://www.analyticsvidhya.com/glossary-of-common-statistics-and-machine-learning-terms/    Source : analyticsvidhya.com ]




[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 11 février 2024 à 21:33

Définition

L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre.

Français

optimisation Adam

Anglais

Adam optimization

Adaptive Moment Estimation (Adam)


Sources

Source : analyticsvidhya.com

Contributeurs: Imane Meziani, wiki