« Algorithme du gradient stochastique » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte — «  ==Définition== » par «  ==Définition== »)
Ligne 4 : Ligne 4 :
<!-- Scotty2 -->
<!-- Scotty2 -->
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
==Définition==
==Définition==
L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.
L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.

Version du 18 avril 2020 à 11:28

Définition

L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.

Voir descente de gradient stochastique.

Français

algorithme du gradient stochastique locution nominale, masc.

descente de gradient stochastique locution nominale, fém.


Anglais

Scholastic gradient algorithm



Source:Wikipedia IA

Contributeurs: Jacques Barolet, wiki