« Adadelta » : différence entre les versions
m (Remplacement de texte — « [http » par « * [http ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Adadelta est un algorithme d'apprentissage basé sur la descente de gradient qui adapte le taux d'apprentissage par paramètre. Il a été proposé comme une amélioration à '''[[Adagrad]]''', qui est plus sensible aux hyperparamètres et peut diminuer le taux d'apprentissage de manière significative. | Adadelta est un algorithme d'apprentissage basé sur la descente de gradient qui adapte le taux d'apprentissage par paramètre. Il a été proposé comme une amélioration à '''[[Adagrad]]''', qui est plus sensible aux hyperparamètres et peut diminuer le taux d'apprentissage de manière significative. | ||
== Français == | == Français == |
Version du 18 décembre 2023 à 20:00
Définition
Adadelta est un algorithme d'apprentissage basé sur la descente de gradient qui adapte le taux d'apprentissage par paramètre. Il a été proposé comme une amélioration à Adagrad, qui est plus sensible aux hyperparamètres et peut diminuer le taux d'apprentissage de manière significative.
Français
Adadelta
Anglais
Adadelta
Contributeurs: Claude Coulombe, Imane Meziani, wiki, Sihem Kouache