« Descente de gradient stochastique » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte — «  ==Définition== » par «  ==Définition== »)
Ligne 5 : Ligne 5 :
<!-- Scotty2 -->
<!-- Scotty2 -->
[[Category:Termino 2019]]
[[Category:Termino 2019]]
==Définition==
==Définition==
Méthode de descente de gradient itérative sur des lots de données tirés aléatoirement utilisée pour minimiser une fonction objectif qui prend la forme d'une somme de fonctions différentiables
Méthode de descente de gradient itérative sur des lots de données tirés aléatoirement utilisée pour minimiser une fonction objectif qui prend la forme d'une somme de fonctions différentiables

Version du 18 avril 2020 à 09:25

Définition

Méthode de descente de gradient itérative sur des lots de données tirés aléatoirement utilisée pour minimiser une fonction objectif qui prend la forme d'une somme de fonctions différentiables

Note: en apprentissage profond, la fonction objectif que l’on cherche à minimiser est souvent non convexe et non régulière. La convergence de la descente du gradient vers le minimum global n’est donc pas garantie et la convergence même vers un minimum local peut être extrêmement lente. Une solution à ce problème consiste en l’utilisation de l’algorithme de descente de gradient stochastique

Français

descente de gradient stochastique loc. nom. fém.

Anglais

stochastic gradient descent



Source: Benois-Pineau, J.; Gillot, P; Y. Nesterov et A. Zemmari (2018). Reconnaissance des Formes, Image, Apprentissage et Perception, Actes de la conférence Reconnaissance des Formes, Image, Apprentissage et Perception, 7 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Magdalena Fuentes, Apprentissage Statistique Relationnel pour l'Extraction d'information de contenu musical, theses.fr

Source: Google machine learning glossary

Source: Termino