« Optimiseur » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
Aucun résumé des modifications
Ligne 35 : Ligne 35 :
<br/>
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>[https://datafranca.org/lexique/optimiseur/        ''Publié : datafranca.org'' ]
<br/>
<br/>
<br/>
<br/>
<br/>
<br/>

Version du 5 janvier 2019 à 22:46

Domaine


Définition

Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum) ;
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
  • la parcimonie/régularisation (Ftrl) ;
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.



Français

optimiseur n.m.


Anglais

optimizer




Source: Google machine learning glossary

Publié : datafranca.org