« Optimiseur » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
__NOTOC__
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Google]]Google<br />
[[Category:Vocabulaire2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Google2]]
 
[[Category:Apprentissage profond2]]
[[Category:9]]
[[Category:scotty2]]


<br />
<br />

Version du 11 décembre 2018 à 19:54

Domaine


Définition

Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum) ;
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
  • la parcimonie/régularisation (Ftrl) ;
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.



Termes privilégiés

optimiseur n.m.


Anglais

optimizer




Source: Google machine learning glossary