« Descente de gradient stochastique » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
Aucun résumé des modifications
Ligne 9 : Ligne 9 :


== Définition ==
== Définition ==
Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.
Algorithme de [[descente de gradient]] dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.





Version du 18 mars 2019 à 21:11

Domaine


Définition

Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.



Français

descente de gradient stochastique (SGD) n.f.


Anglais

stochastic gradient descent (SGD)




Source: Google machine learning glossary