« Descente de gradient stochastique » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 14 : | Ligne 14 : | ||
== Termes privilégiés == | == Termes privilégiés == | ||
=== descente de gradient stochastique (SGD) === | === descente de gradient stochastique (SGD) === | ||
Version du 7 octobre 2018 à 20:24
Domaine
Vocabulaire
Google
Apprentissage profond
Définition
Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.
Termes privilégiés
descente de gradient stochastique (SGD)
Anglais
stochastic gradient descent (SGD)
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki