« Descente de gradient » : différence entre les versions
m (Remplacement de texte — « <!-- Scotty2 --> » par « ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement. | Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement. | ||
Ligne 17 : | Ligne 10 : | ||
'''gradient descent''' | '''gradient descent''' | ||
Ligne 29 : | Ligne 20 : | ||
[[Utilisateur:JulieRoy | Source: Julie Roy, Termino]] | [[Utilisateur:JulieRoy | Source: Julie Roy, Termino]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Intelligence artificielle]] | |||
[[Catégorie:Apprentissage automatique]] | |||
[[Catégorie:Apprentissage profond]] | |||
[[Category:Termino 2019]] |
Version du 6 mai 2020 à 08:45
Définition
Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement.
La descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte.
Français
descente de gradient loc. nom. fém.
Anglais
gradient descent
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Fourure, Damien (2017). Réseaux de neurones convolutifs pour la segmentation sémantique et l'apprentissage d'invariants de couleur. thèse de doctorat, Université de Lyon, 178 pages. Source: Google machine learning glossary
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki