« Optimiseur » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(14 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:scotty]]Jacques<br />
<br />
== Définition ==
== Définition ==
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
*    le moment (Momentum) ;
*    le moment (Momentum) ;
Ligne 17 : Ligne 7 :
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.


== Français ==
''' optimiseur'''


<br />
== Anglais ==
'''  optimizer'''


== Termes privilégiés ==
==Sources==
=== optimiseur n.m.===




<br />
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
 
== Anglais ==


===  optimizer===


<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br/>
[[Category:Apprentissage profond]]
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Version du 28 janvier 2024 à 11:38

Définition

Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :

  • le moment (Momentum) ;
  • la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ;
  • la parcimonie/régularisation (Ftrl) ;
  • des opérations mathématiques plus complexes (proximal et autres).

Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.

Français

optimiseur

Anglais

optimizer

Sources

Source: Google machine learning glossary