Optimiseur


Révision datée du 25 avril 2024 à 15:58 par ClaireGorjux (discussion | contributions)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum);
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp);
  • la parcimonie/régularisation (Ftrl);
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.

Français

optimiseur

Anglais

optimizer

Sources

Source : Google machine learning glossary