« Descente de gradient par lot » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
[[Category:Vocabulaire2]] | [[Category:Vocabulaire2]] | ||
[[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
[[Catégorie:App-profond-livre2]] | [[Catégorie:App-profond-livre2]] | ||
[[Category: Termino 2019]] | [[Category: Termino 2019]] | ||
Ligne 22 : | Ligne 21 : | ||
<small> | |||
Source: Bisson, Valentin (2012). ''Algorithmes d’apprentissage pour la recommandatio''n, thèse de doctorat, Université de Montréal, 96 pages. | Source: Bisson, Valentin (2012). ''Algorithmes d’apprentissage pour la recommandatio''n, thèse de doctorat, Université de Montréal, 96 pages. | ||
Version du 17 juin 2019 à 14:33
Définition
Variante de l'algorithme descente de gradient où la mise à jour des poids est faite selon la moyenne des gradients sur tout l’ensemble des données d'apprentissage.
Français
descente de gradient par lot n. f
descente de gradient groupée n. f.
descente de gradient par lot unique n. f.
Anglais
batch gradient descent
Source: Bisson, Valentin (2012). Algorithmes d’apprentissage pour la recommandation, thèse de doctorat, Université de Montréal, 96 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages.
Contributeurs: Jacques Barolet, Julie Roy, Patrick Drouin, wiki