« Algorithme du gradient stochastique » : différence entre les versions
m (Remplacement de texte — « locution » par « loc. ») |
m (Remplacement de texte — « nom., » par « nom. ») |
||
Ligne 6 : | Ligne 6 : | ||
==Français== | ==Français== | ||
'''algorithme du gradient stochastique''' <small>loc. nom. | '''algorithme du gradient stochastique''' <small>loc. nom. masc. </small> | ||
'''descente de gradient stochastique''' <small>loc. nom. | '''descente de gradient stochastique''' <small>loc. nom. fém. </small> | ||
==Anglais== | ==Anglais== |
Version du 5 mai 2020 à 10:09
Définition
L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.
Voir descente de gradient stochastique.
Français
algorithme du gradient stochastique loc. nom. masc.
descente de gradient stochastique loc. nom. fém.
Anglais
Scholastic gradient algorithm
Contributeurs: Jacques Barolet, wiki