« Optimiseur » : différence entre les versions


(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... »)
 
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(18 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
<br />
== Définition ==
== Définition ==
mplémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
 
*    le moment (Momentum) ;
*    le moment (Momentum) ;
*   la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
*   la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
*    la parcimonie/régularisation (Ftrl) ;
*    la parcimonie/régularisation (Ftrl) ;
*    des opérations mathématiques plus complexes (proximal et autres).
*    des opérations mathématiques plus complexes (proximal et autres).
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.


== Français ==
''' optimiseur'''


<br />
== Anglais ==
== Termes privilégiés ==
'''  optimizer'''
=== optimiseur ===


==Sources==


<br />
== Anglais ==


=== optimizer===
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ]
 


<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br/>
[[Category:Apprentissage profond]]
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Version du 28 janvier 2024 à 11:38

Définition

Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum) ;
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
  • la parcimonie/régularisation (Ftrl) ;
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.

Français

optimiseur

Anglais

optimizer

Sources

Source: Google machine learning glossary