« Optimisation Adam » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 3 : Ligne 3 :


L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre.
L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre.


== Français ==
== Français ==
Ligne 12 : Ligne 11 :


<small>
<small>


* [https://www.analyticsvidhya.com/glossary-of-common-statistics-and-machine-learning-terms/    Source : analyticsvidhya.com ]
* [https://www.analyticsvidhya.com/glossary-of-common-statistics-and-machine-learning-terms/    Source : analyticsvidhya.com ]

Version du 2 mai 2021 à 09:55

Définition

Adaptive Moment Estimation (Adam).

L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre.

Français

optimisation Adam

Anglais

Adam optimization

Contributeurs: Imane Meziani, wiki