« Descente de gradient par lot » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
==Domaine==
[[Category:Vocabulaire2]]  
[[Category:Vocabulaire2]]  
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
[[Category:Intelligence artificielle]]
[[Catégorie:App-profond-livre2]]  
[[Catégorie:App-profond-livre2]]  
[[Category: Termino 2019]]
[[Category: Termino 2019]]
Ligne 22 : Ligne 21 :




<small>
Source: Bisson, Valentin (2012). ''Algorithmes d’apprentissage pour la recommandatio''n, thèse de doctorat, Université de Montréal, 96 pages.
Source: Bisson, Valentin (2012). ''Algorithmes d’apprentissage pour la recommandatio''n, thèse de doctorat, Université de Montréal, 96 pages.



Version du 17 juin 2019 à 14:33


Définition

Variante de l'algorithme descente de gradient où la mise à jour des poids est faite selon la moyenne des gradients sur tout l’ensemble des données d'apprentissage.

Français

descente de gradient par lot n. f

descente de gradient groupée n. f.

descente de gradient par lot unique n. f.

Anglais

batch gradient descent



Source: Bisson, Valentin (2012). Algorithmes d’apprentissage pour la recommandation, thèse de doctorat, Université de Montréal, 96 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages.

Source : Termino