« Descente de gradient » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
__NOTOC__ | __NOTOC__ | ||
== Domaine == | == Domaine == | ||
[[Category: | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category: | [[Category:Vocabulaire2]] | ||
[[Category: | [[Category:Google2]] | ||
[[Category: | [[Category:Apprentissage profond2]] | ||
[[Category: | [[Category:scotty2]] | ||
<br /> | <br /> | ||
Version du 18 octobre 2018 à 10:34
Domaine
Définition
Technique de minimisation de la perte en calculant les gradients de la perte pour les paramètres du modèle, en fonction des données d'apprentissage. La descente de gradient ajuste de manière itérative les paramètres afin de trouver progressivement la meilleure combinaison de pondérations et de biais pour minimiser la perte.
Termes privilégiés
descente de gradient
Anglais
gradient descent
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki