« Adagrad » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
m (Remplacement de texte — « [[Category: » par « [[Catégorie: »)
 
(3 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
#REDIRECTION[[ Gradient adaptatif ]]
== Domaine ==
[[Catégorie:ENGLISH]]
[[Category:Vocabulaire2]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Category:Google2]]
[[Category:Apprentissage profond2]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:scotty2]]
<br />
 
== Définition ==
Diminutif de ''adaptive gradient''. Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant.
 
<br />
 
== Français ==
=== Gradient adaptatif <small>n.m.</small>===
 
 
 
 
<br />
 
== Anglais ==
===  AdaGrad===
===  Adaptive Gradient===
 
<br/>
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Dernière version du 27 septembre 2019 à 12:33

Rediriger vers :



Contributeurs: Jacques Barolet, wiki