« Adadelta » : différence entre les versions


m (Remplacement de texte — « Category:Coulombe » par « <!-- Coulombe --> »)
m (Remplacement de texte : « * [https:// » par « [https:// »)
 
(11 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
[[Catégorie:Apprentissage profond]] Apprentissage profond<br />
[[Category:Vocabulary]]Vocabulary<br />
<!-- Coulombe -->Coulombe<br />
== Définition ==
== Définition ==
Adadelta est un algorithme d'apprentissage basé sur la descente de gradient qui adapte le taux d'apprentissage par paramètre. Il a été proposé comme une amélioration à '''[[Adagrad]]''', qui est plus sensible aux hyperparamètres et peut diminuer le taux d'apprentissage de manière significative.  
 
 


== Français ==
== Français ==
=== Adadelta ===
'''Adadelta'''
Algorithme d'optimisation de la descente de gradient.


== Anglais ==
== Anglais ==
'''Adadelta'''
==Sources==


=== Adadelta===
[https://golden.com/wiki/Adadelta   Source : Golden.com ]


Adadelta is a gradient descent based learning algorithm that adapts the learning rate per parameter over time. It was proposed as an improvement over Adagrad, which is more sensitive to hyperparameters and may decrease the learning rate too aggressively. Adadelta It is similar to rmsprop and can be used instead of vanilla SGD.
[[Catégorie:ENGLISH]]
* ADADELTA: An Adaptive Learning Rate Method
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
* Stanford CS231n: Optimization Algorithms
* An overview of gradient descent optimization algorithms

Dernière version du 11 février 2024 à 22:30

Définition

Adadelta est un algorithme d'apprentissage basé sur la descente de gradient qui adapte le taux d'apprentissage par paramètre. Il a été proposé comme une amélioration à Adagrad, qui est plus sensible aux hyperparamètres et peut diminuer le taux d'apprentissage de manière significative.  

Français

Adadelta

Anglais

Adadelta

Sources

Source : Golden.com