« Gradient adaptatif » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « ↵↵↵↵ » par « ») |
||
(12 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | |||
== Définition == | |||
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de ''adaptive gradient''. | Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de ''adaptive gradient''. | ||
== Français == | ==Français== | ||
''' gradient adaptatif | ''' gradient adaptatif''' | ||
''' | ''' Adagrad '''<small>nom propre </small> | ||
== Anglais == | ==Anglais== | ||
''' AdaGrad''' | ''' AdaGrad''' | ||
Ligne 20 : | Ligne 13 : | ||
==Sources== | |||
[https://developers.google.com/machine-learning/glossary/ Source: Google, ''Machine learning glossary''.] | |||
[ | [[Category:Apprentissage profond]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 29 janvier 2024 à 12:23
Définition
Algorithme complexe de descente de gradient qui redimensionne les gradients de chaque paramètre en attribuant à chacun des paramètres un taux d'apprentissage indépendant. AdaGrad est le diminutif de adaptive gradient.
Français
gradient adaptatif
Adagrad nom propre
Anglais
AdaGrad
Adaptive Gradient
Sources
Contributeurs: Jacques Barolet, wiki, Robert Meloche