« Descente de gradient stochastique » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 14 : | Ligne 14 : | ||
<br /> | <br /> | ||
== Français == | == Français == | ||
'''descente de gradient stochastique''' (SGD) n.f. | |||
Ligne 22 : | Ligne 22 : | ||
== Anglais == | == Anglais == | ||
'''stochastic gradient descent''' (SGD) | |||
<br/> | <br/> | ||
<br/> | <br/> |
Version du 25 mars 2019 à 09:42
Domaine
Définition
Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.
Français
descente de gradient stochastique (SGD) n.f.
Anglais
stochastic gradient descent (SGD)
Source: Google machine learning glossary
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki