« Descente de gradient stochastique » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
__NOTOC__
__NOTOC__
== Domaine ==
==Domaine==
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Google2]]
[[Category:Google2]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
[[Category:Intelligence artificielle]]
[[Category:Apprentissage profond]]Apprentissage profond<br>  
Intelligence artificielle<br />
[[Category:Apprentissage profond]]
Apprentissage profond<br>  
[[Category:Scotty]]
[[Category:Scotty]]


Ligne 11 : Ligne 13 :
<br />
<br />


== Définition ==
==Définition==
Méthode de descente de gradient itérative sur des lots de données tirés aléatoirement utilisée pour minimiser une fonction objectif qui prend la forme d'une somme de fonctions différentiables
Méthode de descente de gradient itérative sur des lots de données tirés aléatoirement utilisée pour minimiser une fonction objectif qui prend la forme d'une somme de fonctions différentiables


Note: en apprentissage profond, la fonction objectif que l’on cherche à minimiser est souvent non convexe et non régulière. La convergence de la descente du gradient vers le minimum global n’est donc pas garantie et la convergence même vers un minimum local peut être extrêmement lente. Une solution à ce problème consiste en l’utilisation de l’algorithme de descente de gradient stochastique


Note
==Français==


En apprentissage profond, la fonction objectif que l’on cherche à minimiser est souvent non convexe et non régulière. La convergence de la descente du gradient vers le minimum global n’est donc pas garantie et la convergence même vers un minimum local peut être extrêmement lente. Une solution à ce problème consiste en l’utilisation de l’algorithme de descente de gradient stochastique
'''descente de gradient stochastique'''  n.f.


<br />
== Français ==
'''descente de gradient stochastique'''


Source: Benois-Pineau, J.; Gillot, P; Y. Nesterov et A. Zemmari (2018). Reconnaissance des Formes, Image, Apprentissage et Perception, Actes de la conférence Reconnaissance des Formes, Image, Apprentissage et Perception, 7 pages.


<br />
<br />


== Anglais ==
==Anglais==


'''stochastic gradient descent'''  
'''stochastic gradient descent'''  
Ligne 37 : Ligne 33 :




[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ]
Source: Benois-Pineau, J.; Gillot, P; Y. Nesterov et A. Zemmari (2018). Reconnaissance des Formes, Image, Apprentissage et Perception, Actes de la conférence Reconnaissance des Formes, Image, Apprentissage et Perception, 7 pages.
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary]
 
[https://www.theses.fr/s191606 Source : theses.fr]


[https://www.theses.fr/s191606    Source : theses.fr  ]
Source: Termino

Version du 4 juin 2019 à 20:12

Domaine

Intelligence artificielle
Apprentissage profond


Définition

Méthode de descente de gradient itérative sur des lots de données tirés aléatoirement utilisée pour minimiser une fonction objectif qui prend la forme d'une somme de fonctions différentiables

Note: en apprentissage profond, la fonction objectif que l’on cherche à minimiser est souvent non convexe et non régulière. La convergence de la descente du gradient vers le minimum global n’est donc pas garantie et la convergence même vers un minimum local peut être extrêmement lente. Une solution à ce problème consiste en l’utilisation de l’algorithme de descente de gradient stochastique

Français

descente de gradient stochastique n.f.



Anglais

stochastic gradient descent

SGD


Source: Benois-Pineau, J.; Gillot, P; Y. Nesterov et A. Zemmari (2018). Reconnaissance des Formes, Image, Apprentissage et Perception, Actes de la conférence Reconnaissance des Formes, Image, Apprentissage et Perception, 7 pages. Source: Google machine learning glossary

Source : theses.fr

Source: Termino