« Descente de gradient stochastique » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(34 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Méthode de descente de gradient itérative sur des lots de données tirés aléatoirement utilisée pour minimiser une fonction objectif qui prend la forme d'une somme de fonctions différentiables.
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:9]]
[[Category:scotty]]
<br />


== Définition ==
Remarque : en [[apprentissage profond]], la fonction objectif que l’on cherche à minimiser est souvent non convexe et non régulière. La convergence de la descente du gradient vers le minimum global n’est donc pas garantie et la convergence même vers un minimum local peut être extrêmement lente.Une solution à ce problème consiste en l’utilisation de l’algorithme de descente de gradient stochastique.
Algorithme de descente de gradient dans lequel la taille de lot est égale à un. Autrement dit, la descente de gradient stochastique repose sur un seul exemple prélevé uniformément, de manière aléatoire, dans un ensemble de données afin de calculer une estimation du gradient à chaque pas.


==Français==
'''descente de gradient stochastique''' 


<br />
==Anglais==
== Termes privilégiés ==
'''stochastic gradient descent'''
=== descente de gradient stochastique (SGD) ===


==Sources==
Source : Benois-Pineau, J.; Gillot, P; Y. Nesterov et A. Zemmari (2018). ''Reconnaissance des Formes, Image, Apprentissage et Perception'', Actes de la conférence Reconnaissance des Formes, Image, Apprentissage et Perception, 7 pages.


Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.


<br />
[https://www.theses.fr/s191606 Source : Magdalena Fuentes, ''Apprentissage Statistique Relationnel pour l'Extraction d'information de contenu musical'', theses.fr]


== Anglais ==
[https://developers.google.com/machine-learning/glossary/ Source : ''Google machine learning glossary'']


=== stochastic gradient descent (SGD)===
[[Utilisateur:Patrickdrouin | Source : Termino]]
[[Category:GRAND LEXIQUE FRANÇAIS]]


<br/>
[[Category:Intelligence artificielle]]
<br/>
[[Category:Apprentissage profond]]
<br/>
 
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
[[Category:Termino 2019]]
<br/>
<br/>
<br/>

Dernière version du 16 avril 2024 à 19:14

Définition

Méthode de descente de gradient itérative sur des lots de données tirés aléatoirement utilisée pour minimiser une fonction objectif qui prend la forme d'une somme de fonctions différentiables.

Remarque : en apprentissage profond, la fonction objectif que l’on cherche à minimiser est souvent non convexe et non régulière. La convergence de la descente du gradient vers le minimum global n’est donc pas garantie et la convergence même vers un minimum local peut être extrêmement lente.Une solution à ce problème consiste en l’utilisation de l’algorithme de descente de gradient stochastique.

Français

descente de gradient stochastique

Anglais

stochastic gradient descent

Sources

Source : Benois-Pineau, J.; Gillot, P; Y. Nesterov et A. Zemmari (2018). Reconnaissance des Formes, Image, Apprentissage et Perception, Actes de la conférence Reconnaissance des Formes, Image, Apprentissage et Perception, 7 pages.

Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source : Magdalena Fuentes, Apprentissage Statistique Relationnel pour l'Extraction d'information de contenu musical, theses.fr

Source : Google machine learning glossary

Source : Termino