« Adagrad » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte — « [[Category: » par « [[Catégorie: »)
 
(21 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
#REDIRECTION[[ Gradient adaptatif ]]
== Domaine ==
[[Catégorie:ENGLISH]]
[[Category:Vocabulaire]]Vocabulaire<br />
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
 
<br />
 
== Définition ==
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. Pour plus d'explication, consultez ces articles.
 
http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf
 
http://ruder.io/optimizing-gradient-descent/index.html#adagrad
 
 
<br />
 
== Termes privilégiés ==
=== AdaGrad  <small>(diminutif de ''adaptive gradient'', anglais pour «gradient adaptatif»</small>)===
 
 
<br />
 
== Anglais ==
 
===  AdaGrad===
 
<br/>
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Dernière version du 27 septembre 2019 à 11:33

Rediriger vers :

Contributeurs: Jacques Barolet, wiki