« Descente de gradient stochastique » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 4 : | Ligne 4 : | ||
[[Category:Google]]Google<br /> | [[Category:Google]]Google<br /> | ||
[[Category:Apprentissage profond]]Apprentissage profond<br /> | [[Category:Apprentissage profond]]Apprentissage profond<br /> | ||
[[Category:9]] | |||
[[Category:scotty]] | |||
<br /> | <br /> | ||
Version du 17 octobre 2018 à 13:05
Domaine
Vocabulaire
Google
Apprentissage profond
Définition
Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.
Termes privilégiés
descente de gradient stochastique (SGD)
Anglais
stochastic gradient descent (SGD)
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki