« Descente de gradient par lot » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 17 : Ligne 17 :


==Français==
==Français==
'''descente de gradient par lot''' n. f.<br>
'''descente de gradient groupée''' n. f.<br>
'''descente de gradient par lot unique''' n. f.<br>
'''descente de gradient par lot unique''' n. f.<br>
'''descente de gradient par lot''' n. f.<br>
 
<br>
 
<br><br>
 
<br>
Source: Bisson, Valentin (2012). Algorithmes d’apprentissage pour la recommandation, thèse de doctorat, Université de Montréal, 96 pages.
 
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
 
==Anglais==
==Anglais==
'''batch gradient descent'''
'''batch gradient descent'''

Version du 7 juin 2019 à 13:38

Domaine

Intelligence artificielle




Définition

Variante de l'algorithme descente de gradient où la mise à jour des poids est faite selon la moyenne des gradients sur tout l’ensemble des données d'apprentissage.

Français

descente de gradient par lot n. f.
descente de gradient groupée n. f.
descente de gradient par lot unique n. f.


Source: Bisson, Valentin (2012). Algorithmes d’apprentissage pour la recommandation, thèse de doctorat, Université de Montréal, 96 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Anglais

batch gradient descent


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages.

Source: Termino