« Optimiseur » : différence entre les versions


m (Remplacement de texte — « <!-- Google --> » par «  »)
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]
== Définition ==
== Définition ==
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
Ligne 12 : Ligne 8 :


== Français ==
== Français ==
''' optimiseur nom masc.'''
''' optimiseur''' <small>nom masc. </small>


== Anglais ==
== Anglais ==
'''  optimizer'''
'''  optimizer'''
<small>
<small>




[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Apprentissage profond]]

Version du 7 mai 2020 à 19:32

Définition

Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum) ;
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
  • la parcimonie/régularisation (Ftrl) ;
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.

Français

optimiseur nom masc.

Anglais

optimizer


Source: Google machine learning glossary