« Descente de gradient par lot » : différence entre les versions
m (Remplacement de texte — « <small> féminin </small> » par « ») |
m (Remplacement de texte : « ↵↵↵==Sources== » par « ==Sources== ») |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 12 : | Ligne 12 : | ||
'''batch gradient descent''' | '''batch gradient descent''' | ||
==Sources== | |||
Source: Bisson, Valentin (2012). ''Algorithmes d’apprentissage pour la recommandatio''n, thèse de doctorat, Université de Montréal, 96 pages. | Source: Bisson, Valentin (2012). ''Algorithmes d’apprentissage pour la recommandatio''n, thèse de doctorat, Université de Montréal, 96 pages. |
Dernière version du 29 janvier 2024 à 09:12
Définition
Variante de l'algorithme descente de gradient où la mise à jour des poids est faite selon la moyenne des gradients sur tout l’ensemble des données d'apprentissage.
Français
descente de gradient par lot
descente de gradient groupée
descente de gradient par lot unique
Anglais
batch gradient descent
Sources
Source: Bisson, Valentin (2012). Algorithmes d’apprentissage pour la recommandation, thèse de doctorat, Université de Montréal, 96 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages.
Contributeurs: Jacques Barolet, Julie Roy, Patrick Drouin, wiki