« Descente de gradient » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 6 : | Ligne 6 : | ||
[[Category:Apprentissage profond2]] | [[Category:Apprentissage profond2]] | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
<br /> | <br /> | ||
Version du 11 décembre 2018 à 19:47
Domaine
Définition
Technique de minimisation de la perte en calculant les gradients de la perte pour les paramètres du modèle, en fonction des données d'apprentissage. La descente de gradient ajuste de manière itérative les paramètres afin de trouver progressivement la meilleure combinaison de pondérations et de biais pour minimiser la perte.
Termes privilégiés
descente de gradient n.f.
Anglais
gradient descent
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki