« Descente de gradient » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
(Ajustement de quelques sections de la fiche.) Balise : Éditeur de wikicode 2017 |
||
Ligne 6 : | Ligne 6 : | ||
[[Category:Apprentissage profond2]] | [[Category:Apprentissage profond2]] | ||
[[Category:scotty2]] | [[Category:scotty2]] | ||
[[Category:Vocabulaire]]<br/> | |||
[[Category:Intelligence artificielle]]Intelligence artificielle<br/> | |||
[[Catégorie:Apprentissage automatique]] Apprentissage automatique<br/> | |||
[[Catégorie:Apprentissage profond]] Apprentissage profond<br/> | |||
[[Category:Termino 2019]] | |||
[[Category:Scotty]] | |||
<br /> | <br /> | ||
== Définition == | == Définition == | ||
Technique de | Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement. | ||
Note | |||
La descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte. | |||
Ligne 21 : | Ligne 32 : | ||
== Anglais == | == Anglais == | ||
''' | '''gradient descent''' | ||
<br/> | <br/> |
Version du 3 juin 2019 à 09:52
Domaine
Intelligence artificielle
Apprentissage automatique
Apprentissage profond
Définition
Technique permettant de minimiser les pertes en calculant les gradients des pertes par rapport aux paramètres du modèle en fonction des données d'entraînement.
Note
La descente de gradient ajuste les paramètres de façon itérative en trouvant graduellement la meilleure combinaison de poids et de biais pour minimiser la perte.
Français
descente de gradient n.f.
Anglais
gradient descent
Contributeurs: Evan Brach, Claire Gorjux, Jacques Barolet, Patrick Drouin, wiki