« Adadelta » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « * [https:// » par « [https:// ») |
||
(5 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Adadelta est un algorithme d'apprentissage basé sur la descente de gradient qui adapte le taux d'apprentissage par paramètre. Il a été proposé comme une amélioration à '''[[Adagrad]]''', qui est plus sensible aux hyperparamètres et peut diminuer le taux d'apprentissage de manière significative. | Adadelta est un algorithme d'apprentissage basé sur la descente de gradient qui adapte le taux d'apprentissage par paramètre. Il a été proposé comme une amélioration à '''[[Adagrad]]''', qui est plus sensible aux hyperparamètres et peut diminuer le taux d'apprentissage de manière significative. | ||
== Français == | == Français == | ||
Ligne 9 : | Ligne 8 : | ||
'''Adadelta''' | '''Adadelta''' | ||
==Sources== | |||
[https://golden.com/wiki/Adadelta Source : Golden.com ] | [https://golden.com/wiki/Adadelta Source : Golden.com ] |
Dernière version du 11 février 2024 à 22:30
Définition
Adadelta est un algorithme d'apprentissage basé sur la descente de gradient qui adapte le taux d'apprentissage par paramètre. Il a été proposé comme une amélioration à Adagrad, qui est plus sensible aux hyperparamètres et peut diminuer le taux d'apprentissage de manière significative.
Français
Adadelta
Anglais
Adadelta
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki, Sihem Kouache