« Descente de gradient stochastique » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
__NOTOC__
__NOTOC__
== Domaine ==
== Domaine ==
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Google]]Google<br />
[[Category:Vocabulaire2]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Google2]]
[[Category:9]]
[[Category:Apprentissage profond2]]
[[Category:scotty]]
[[Category:scotty2]]
<br />
<br />



Version du 18 octobre 2018 à 10:37

Domaine


Définition

Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.



Termes privilégiés

descente de gradient stochastique (SGD)


Anglais

stochastic gradient descent (SGD)




Source: Google machine learning glossary