« Optimiseur » : différence entre les versions
(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... ») |
m (Ajout de la lettre i dans la définition au début du mot implémentation qui était manquante.) |
||
Ligne 8 : | Ligne 8 : | ||
== Définition == | == Définition == | ||
implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que : | |||
* le moment (Momentum) ; | * le moment (Momentum) ; | ||
Ligne 19 : | Ligne 19 : | ||
<br /> | <br /> | ||
== Termes privilégiés == | == Termes privilégiés == | ||
=== optimiseur === | === optimiseur === |
Version du 6 juin 2018 à 14:28
Domaine
Vocabulaire
Google
Apprentissage profond
Définition
implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
- le moment (Momentum) ;
- la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
- la parcimonie/régularisation (Ftrl) ;
- des opérations mathématiques plus complexes (proximal et autres).
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.
Termes privilégiés
optimiseur
Anglais
optimizer
Contributeurs: Claire Gorjux, Jacques Barolet, Nathalie Tremblay, wiki, Robert Meloche