« Algorithme du gradient stochastique » : différence entre les versions
m (Remplacement de texte — « Catégorie:Wikipedia-IA2 » par « <!-- Wikipedia-IA2 --> ») |
m (Remplacement de texte — « [[Category: » par « [[Catégorie: ») |
||
Ligne 3 : | Ligne 3 : | ||
[[Catégorie:Algorithme d'optimisation]] | [[Catégorie:Algorithme d'optimisation]] | ||
<!-- Scotty2 --> | <!-- Scotty2 --> | ||
[[ | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
==Définition== | ==Définition== |
Version du 27 septembre 2019 à 10:07
Définition
L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.
Français
algorithme du gradient stochastique locution nominale, masculin
Anglais
Scholastic gradient algorithm
Contributeurs: Jacques Barolet, wiki