« Descente de gradient stochastique » : différence entre les versions
m (Remplacement de texte — « Termes privilégiés » par « Français ») |
Aucun résumé des modifications |
||
Ligne 9 : | Ligne 9 : | ||
== Définition == | == Définition == | ||
Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas. | Algorithme de [[descente de gradient]] dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas. | ||
Version du 18 mars 2019 à 21:11
Domaine
Définition
Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.
Français
descente de gradient stochastique (SGD) n.f.
Anglais
stochastic gradient descent (SGD)
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki