« Optimiseur » : différence entre les versions


m (Remplacement de texte — « nom masc. » par « masculin »)
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 8 : Ligne 8 :


== Français ==
== Français ==
''' optimiseur''' <small>masculin </small>
''' optimiseur'''  


== Anglais ==
== Anglais ==
'''  optimizer'''
'''  optimizer'''


<small>
==Sources==





Version du 28 janvier 2024 à 11:38

Définition

Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum) ;
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
  • la parcimonie/régularisation (Ftrl) ;
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.

Français

optimiseur

Anglais

optimizer

Sources

Source: Google machine learning glossary