|
|
(22 versions intermédiaires par 2 utilisateurs non affichées) |
Ligne 1 : |
Ligne 1 : |
| __NOTOC__
| | #REDIRECTION[[ Gradient adaptatif ]] |
| == Domaine ==
| | [[Catégorie:ENGLISH]] |
| [[Category:Vocabulaire]]Vocabulaire<br /> | | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
| [[Category:Google]]Google<br /> | |
| [[Category:Apprentissage profond]]Apprentissage profond<br /> | |
| | |
| <br />
| |
| | |
| == Définition ==
| |
| Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. Pour plus d'explication, consultez ces articles.
| |
|
| |
| http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf
| |
| | |
| http://ruder.io/optimizing-gradient-descent/index.html#adagrad
| |
| | |
| | |
| <br />
| |
| | |
| == Termes privilégiés ==
| |
| === AdaGrad===
| |
| | |
| | |
| <br />
| |
| == Anglais ==
| |
| | |
| === AdaGrad===
| |
| | |
| <br/>
| |
| <br/>
| |
| <br/>
| |
| [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ]
| |
| <br/>
| |
| <br/>
| |
| <br/>
| |