« Optimiseur » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(15 versions intermédiaires par 3 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Implémentation particulière de l'[[algorithme de descente de gradient]]. La classe de base de [[TensorFlow]] pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que : | |||
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que : | * le moment (Momentum); | ||
* le moment (Momentum) ; | * la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp); | ||
* la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp) ; | * la parcimonie/régularisation (Ftrl); | ||
* la parcimonie/régularisation (Ftrl) ; | |||
* des opérations mathématiques plus complexes (proximal et autres). | * des opérations mathématiques plus complexes (proximal et autres). | ||
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones. | Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones. | ||
== Français == | |||
'''optimiseur''' | |||
== | |||
== Anglais == | == Anglais == | ||
'''optimizer''' | |||
=== | ==Sources== | ||
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary ] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Apprentissage profond]] | |||
[ | |||
Dernière version du 25 avril 2024 à 15:58
Définition
Implémentation particulière de l'algorithme de descente de gradient. La classe de base de TensorFlow pour les optimiseurs est tf.train.Optimizer. Différents optimiseurs (sous-classes de tf.train.Optimizer) tiennent compte des concepts tels que :
- le moment (Momentum);
- la fréquence de mise à jour (AdaGrad = descente de gradient adaptative ; Adam = adaptative avec Momentum ; RMSProp);
- la parcimonie/régularisation (Ftrl);
- des opérations mathématiques plus complexes (proximal et autres).
Il est même possible d'imaginer un optimiseur reposant sur un réseau de neurones.
Français
optimiseur
Anglais
optimizer
Sources
Contributeurs: Claire Gorjux, Jacques Barolet, Nathalie Tremblay, wiki, Robert Meloche