« Descente de gradient stochastique » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
__NOTOC__ | __NOTOC__ | ||
== Domaine == | == Domaine == | ||
[[Category: | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category: | [[Category:Vocabulaire2]] | ||
[[Category: | [[Category:Google2]] | ||
[[Category: | [[Category:Apprentissage profond2]] | ||
[[Category: | [[Category:scotty2]] | ||
<br /> | <br /> | ||
Version du 18 octobre 2018 à 10:37
Domaine
Définition
Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.
Termes privilégiés
descente de gradient stochastique (SGD)
Anglais
stochastic gradient descent (SGD)
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki