Optimiseur


Révision datée du 6 juin 2018 à 15:28 par NathalieT (discussion | contributions) (Ajout de la lettre i dans la définition au début du mot implémentation qui était manquante.)

Domaine

Vocabulaire
Google
Apprentissage profond


Définition

implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum) ;
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
  • la parcimonie/régularisation (Ftrl) ;
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.



Termes privilégiés

optimiseur


Anglais

optimizer




Source: Google machine learning glossary