« Optimisation Adam » : différence entre les versions


m (Imeziani a déplacé la page Adam Optimization vers Optimisation Adam)
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
'''Adaptive Moment Estimation''' (Adam).
 
L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre.


== Définition ==
XXXXXXXXX


== Français ==
== Français ==
''' XXXXXXXXX '''
''' optimisation Adam '''


== Anglais ==
== Anglais ==
''' Adam Optimization'''
''' Adam optimization'''
 
The Adam Optimization algorithm is used in training deep learning models. It is an extension to Stochastic Gradient Descent. In this optimization algorithm, running averages of both the gradients and the second moments of the gradients are used. It is used to compute adaptive learning rates for each parameter.


<small>
<small>
Ligne 18 : Ligne 17 :




[[Catégorie:vocabulary]]
[[Catégorie:publication]]
[[Catégorie:analyticsvidhya]]
[[Catégorie:analyticsvidhya]]

Version du 2 mai 2021 à 10:55

Définition

Adaptive Moment Estimation (Adam).

L'algorithme d'optimisation Adam est utilisé pour la formation de modèles d'apprentissage profond. Il s'agit d'une extension de la descente de gradient stochastique. Dans cet algorithme d'optimisation, les moyennes courantes des gradients et des seconds moments des gradients sont utilisées. Il est utilisé pour calculer les taux d'apprentissage adaptatifs pour chaque paramètre.


Français

optimisation Adam

Anglais

Adam optimization




Contributeurs: Imane Meziani, wiki