« Descente de gradient » : différence entre les versions


m (Remplacement de texte — « Category:Google2 » par « <!-- Google --> »)
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 24 : Ligne 24 :
<small>
<small>


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018),'' Apprentissage profond'', Paris, Massot éditions, 800 pages.


Source: Fourure, Damien (2017). Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur. thèse de doctorat, Université de Lyon, 178 pages.
Source: Fourure, Damien (2017). ''Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur''. thèse de doctorat, Université de Lyon, 178 pages.
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary]
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary]


[[Utilisateur:JulieRoy  | Source : Julie Roy, Termino  ]]
[[Utilisateur:JulieRoy  | Source: Julie Roy, Termino  ]]

Version du 6 juillet 2019 à 14:42


Définition

Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement.

Note: la descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte.

Français

descente de gradient n.f.

Anglais

gradient descent



Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Fourure, Damien (2017). Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur. thèse de doctorat, Université de Lyon, 178 pages. Source: Google machine learning glossary

Source: Julie Roy, Termino