« Évanescence du gradient » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(30 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== | ==Définition== | ||
Problème posé, dans un réseau de neurones profond, par la diminution très rapide des valeurs des gradients pendant la rétropropagation entraînant l'annulation du gradient et par conséquent l'arrêt de l'apprentissage. | |||
==Compléments== | |||
Nous recommandons l'expression « évanescence du gradient » pour sa spécificité et sa <i>beauté</i> langagière. | |||
==Français == | |||
'''évanescence du gradient''' | |||
'''disparition du gradient''' | |||
'''dissipation du gradients''' | |||
'''problème de l'évanescence du gradient''' | |||
== | ==Anglais== | ||
'''gradient vanishing''' | |||
'''gradient vanishing problem''' | |||
== | ==Sources== | ||
''' | Source: Pascanu, Razvan (2015). ''On Recurrent and Deep Neural Networks'', thèse de doctorat, Université de Montréal, 267 pages. | ||
'' | [https://openclassrooms.com/courses/utilisez-des-modeles-supervises-non-lineaires/empilez-les-perceptrons Source : ''openclassrooms.com''] | ||
[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe]] ([[Discussion utilisateur:Claude COULOMBE | discussion]]) | |||
[[Utilisateur:Patrickdrouin | Source: Termino ]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[ | |||
{{DEFAULTSORT: evanescence du gradient}} | |||
Dernière version du 1 août 2024 à 17:38
Définition
Problème posé, dans un réseau de neurones profond, par la diminution très rapide des valeurs des gradients pendant la rétropropagation entraînant l'annulation du gradient et par conséquent l'arrêt de l'apprentissage.
Compléments
Nous recommandons l'expression « évanescence du gradient » pour sa spécificité et sa beauté langagière.
Français
évanescence du gradient
disparition du gradient
dissipation du gradients
problème de l'évanescence du gradient
Anglais
gradient vanishing
gradient vanishing problem
Sources
Source: Pascanu, Razvan (2015). On Recurrent and Deep Neural Networks, thèse de doctorat, Université de Montréal, 267 pages.
Source: Claude Coulombe ( discussion)
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, Pierre Labreche, wiki