« Optimiseur » : différence entre les versions
m (Remplacement de texte — « Category:Google2 » par « <!-- Google --> ») |
m (Remplacement de texte — « n.m. » par « nom masc. ») |
||
Ligne 12 : | Ligne 12 : | ||
== Français == | == Français == | ||
''' optimiseur | ''' optimiseur nom masc.''' | ||
== Anglais == | == Anglais == |
Version du 16 avril 2020 à 12:36
Définition
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
- le moment (Momentum) ;
- la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
- la parcimonie/régularisation (Ftrl) ;
- des opérations mathématiques plus complexes (proximal et autres).
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.
Français
optimiseur nom masc.
Anglais
optimizer
Contributeurs: Claire Gorjux, Jacques Barolet, Nathalie Tremblay, wiki, Robert Meloche