« Optimiseur » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
__NOTOC__ | __NOTOC__ | ||
== Domaine == | == Domaine == | ||
[[Category: | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category: | [[Category:Vocabulaire2]] | ||
[[Category:Apprentissage | [[Category:Google2]] | ||
[[Category:Apprentissage profond2]] | |||
[[Category: | [[Category:scotty2]] | ||
<br /> | <br /> |
Version du 11 décembre 2018 à 19:54
Domaine
Définition
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
- le moment (Momentum) ;
- la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
- la parcimonie/régularisation (Ftrl) ;
- des opérations mathématiques plus complexes (proximal et autres).
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.
Termes privilégiés
optimiseur n.m.
Anglais
optimizer
Contributeurs: Claire Gorjux, Jacques Barolet, Nathalie Tremblay, wiki, Robert Meloche