« Algorithme du gradient stochastique » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications |
||
Ligne 7 : | Ligne 7 : | ||
==Définition== | ==Définition== | ||
L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. | L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. | ||
Voir [https://datafranca.org/wiki/Descente_de_gradient_stochastique '''descente de gradient stochastique''']'''.''' | |||
==Français== | ==Français== |
Version du 28 octobre 2019 à 17:08
Définition
L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.
Voir descente de gradient stochastique.
Français
algorithme du gradient stochastique locution nominale, masc.
descente de gradient stochastique locution nominale, fém.
Anglais
Scholastic gradient algorithm
Contributeurs: Jacques Barolet, wiki