« Descente de gradient » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
La descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte. | La descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte. | ||
==Compléments== | |||
Par abus de langage on utilise «descente de gradient» pour faire référence à la fois à la «descente de gradient stochastique» et à la «descente de gradient par mini-lot». En mathématiques, la descente de gradient prend en considération l'ensemble des points sans échantillonnage, on pourrait alors parler de «vraie descente de gradient» (true gradient descent). | |||
==Français== | ==Français== | ||
''' descente de gradient''' | ''' descente de gradient ''' | ||
''' descente de gradient stochastique ''' | |||
==Anglais== | ==Anglais== | ||
'''gradient descent''' | '''gradient descent''' | ||
'''stochastic gradient descent''' | |||
Ligne 20 : | Ligne 28 : | ||
[[Utilisateur:JulieRoy | Source: Julie Roy, Termino]] | [[Utilisateur:JulieRoy | Source: Julie Roy, Termino]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] |
Version du 4 avril 2023 à 14:37
Définition
Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement.
La descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte.
Compléments
Par abus de langage on utilise «descente de gradient» pour faire référence à la fois à la «descente de gradient stochastique» et à la «descente de gradient par mini-lot». En mathématiques, la descente de gradient prend en considération l'ensemble des points sans échantillonnage, on pourrait alors parler de «vraie descente de gradient» (true gradient descent).
Français
descente de gradient
descente de gradient stochastique
Anglais
gradient descent
stochastic gradient descent
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Fourure, Damien (2017). Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur. thèse de doctorat, Université de Lyon, 178 pages. Source: Google machine learning glossary
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki