« Optimiseur » : différence entre les versions


(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... »)
 
m (Ajout de la lettre i dans la définition au début du mot implémentation qui était manquante.)
Ligne 8 : Ligne 8 :


== Définition ==
== Définition ==
mplémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :


*    le moment (Momentum) ;
*    le moment (Momentum) ;
Ligne 19 : Ligne 19 :


<br />
<br />
== Termes privilégiés ==
== Termes privilégiés ==
=== optimiseur ===
=== optimiseur ===

Version du 6 juin 2018 à 15:28

Domaine

Vocabulaire
Google
Apprentissage profond


Définition

implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum) ;
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
  • la parcimonie/régularisation (Ftrl) ;
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.



Termes privilégiés

optimiseur


Anglais

optimizer




Source: Google machine learning glossary