« Optimiseur » : différence entre les versions
m (Remplacement de texte — « Termes privilégiés » par « Français ») |
Aucun résumé des modifications |
||
Ligne 35 : | Ligne 35 : | ||
<br/> | <br/> | ||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | [https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | ||
<br/> | |||
<br/>[https://datafranca.org/lexique/optimiseur/ ''Publié : datafranca.org'' ] | |||
<br/> | <br/> | ||
<br/> | <br/> | ||
<br/> | <br/> |
Version du 5 janvier 2019 à 21:46
Domaine
Définition
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
- le moment (Momentum) ;
- la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
- la parcimonie/régularisation (Ftrl) ;
- des opérations mathématiques plus complexes (proximal et autres).
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.
Français
optimiseur n.m.
Anglais
optimizer
Source: Google machine learning glossary
Publié : datafranca.org
Contributeurs: Claire Gorjux, Jacques Barolet, Nathalie Tremblay, wiki, Robert Meloche