Algorithme du gradient stochastique


Révision datée du 4 mai 2020 à 23:09 par Pitpitt (discussion | contributions) (Remplacement de texte — « nominale » par « nom. »)

Définition

L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.

Voir descente de gradient stochastique.

Français

algorithme du gradient stochastique locution nom., masc.

descente de gradient stochastique locution nom., fém.

Anglais

Scholastic gradient algorithm


Source:Wikipedia IA

Contributeurs: Jacques Barolet, wiki