« Adadelta » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
Ligne 12 : Ligne 12 :
== Français ==
== Français ==
=== Adadelta ===
=== Adadelta ===
Algorithme d'optimisation de la descente de gradient.


== Anglais ==
== Anglais ==

Version du 29 janvier 2019 à 14:39

Domaine

Vocabulary
Apprentissage profond

Définition

Français

Adadelta

Algorithme d'optimisation de la descente de gradient.

Anglais

Adadelta

Adadelta is a gradient descent based learning algorithm that adapts the learning rate per parameter over time. It was proposed as an improvement over Adagrad, which is more sensitive to hyperparameters and may decrease the learning rate too aggressively. Adadelta It is similar to rmsprop and can be used instead of vanilla SGD.

  • ADADELTA: An Adaptive Learning Rate Method
  • Stanford CS231n: Optimization Algorithms
  • An overview of gradient descent optimization algorithms