« Descente de gradient par lot » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 17 : | Ligne 17 : | ||
==Français== | ==Français== | ||
'''descente de gradient par lot''' n. f.<br> | |||
'''descente de gradient groupée''' n. f.<br> | |||
'''descente de gradient par lot unique''' n. f.<br> | '''descente de gradient par lot unique''' n. f.<br> | ||
Source: Bisson, Valentin (2012). Algorithmes d’apprentissage pour la recommandation, thèse de doctorat, Université de Montréal, 96 pages. | |||
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages. | |||
==Anglais== | ==Anglais== | ||
'''batch gradient descent''' | '''batch gradient descent''' |
Version du 7 juin 2019 à 13:38
Domaine
Intelligence artificielle
Définition
Variante de l'algorithme descente de gradient où la mise à jour des poids est faite selon la moyenne des gradients sur tout l’ensemble des données d'apprentissage.
Français
descente de gradient par lot n. f.
descente de gradient groupée n. f.
descente de gradient par lot unique n. f.
Source: Bisson, Valentin (2012). Algorithmes d’apprentissage pour la recommandation, thèse de doctorat, Université de Montréal, 96 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Anglais
batch gradient descent
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages.
Source: Termino
Contributeurs: Jacques Barolet, Julie Roy, Patrick Drouin, wiki