« Descente de gradient par lot » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 10 : | Ligne 10 : | ||
==Français== | ==Français== | ||
'''descente de gradient par lot''' loc. nom. | '''descente de gradient par lot''' <small>loc. nom. fém.</small> | ||
'''descente de gradient groupée''' loc. nom. | '''descente de gradient groupée''' <small>loc. nom. fém.</small> | ||
'''descente de gradient par lot unique''' <small>loc. nom. fém. | |||
</small> | |||
==Anglais== | ==Anglais== | ||
'''batch gradient descent''' | '''batch gradient descent''' |
Version du 9 juillet 2019 à 23:19
Définition
Variante de l'algorithme descente de gradient où la mise à jour des poids est faite selon la moyenne des gradients sur tout l’ensemble des données d'apprentissage.
Français
descente de gradient par lot loc. nom. fém.
descente de gradient groupée loc. nom. fém.
descente de gradient par lot unique loc. nom. fém.
Anglais
batch gradient descent
Source: Bisson, Valentin (2012). Algorithmes d’apprentissage pour la recommandation, thèse de doctorat, Université de Montréal, 96 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages.
Contributeurs: Jacques Barolet, Julie Roy, Patrick Drouin, wiki