« Algorithme du gradient stochastique » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte — « Catégorie:scotty2  » par « <!-- Scotty2 --> »)
Ligne 2 : Ligne 2 :
[[Catégorie:Apprentissage automatique]]
[[Catégorie:Apprentissage automatique]]
[[Catégorie:Algorithme d'optimisation]]
[[Catégorie:Algorithme d'optimisation]]
[[Catégorie:scotty2]]
<!-- Scotty2 -->
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]



Version du 3 juillet 2019 à 10:02


Définition

L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.

Français

algorithme du gradient stochastique locution nominale, masculin

Anglais

Scholastic gradient algorithm


Source:Wikipedia IA



Contributeurs: Jacques Barolet, wiki