« Réseau récurrent à portes » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 6 : | Ligne 6 : | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
[[Category:Scotty]] | [[Category:Scotty]] | ||
[[Category:9]] | |||
== Définition == | == Définition == | ||
Réseau de neurones récurrent à longue mémoire à court terme qui comporte un seul vecteur d'état, fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation. | Réseau de neurones récurrent à longue mémoire à court terme qui comporte un seul vecteur d'état, fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation. | ||
Notes: | Notes: les réseaux de neurones récurrents à portes ont été développés pour résoudre le problème de la disparition du gradient que peuvent poser les réseaux de neurones récurrents réguliers. Ils peuvent être considérés comme une variante des réseaux de neurones récurrents à longue mémoire à court terme parce qu'ils sont de conception similaire et produisent des résultats identiques dans certains cas. | ||
Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA [Chung et al, 2014]. | Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA [Chung et al, 2014]. | ||
== Français == | == Français == | ||
'''réseau de neurones récurrent à portes''' | '''réseau de neurones récurrent à portes''' n.m. | ||
'''réseau récurrent à portes''' | '''réseau récurrent à portes''' n.m. | ||
'''unité récurrente à portes''' | '''unité récurrente à portes''' n.f. | ||
== Anglais == | == Anglais == | ||
Ligne 31 : | Ligne 32 : | ||
<small> | <small> | ||
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages. | Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | ||
[[Utilisateur:Claude COULOMBE | source : Claude Coulombe, Datafranca.org]] | [[Utilisateur:Claude COULOMBE | source : Claude Coulombe, Datafranca.org]] | ||
[[Utilisateur:Patrickdrouin | Source : Termino ]] | [[Utilisateur:Patrickdrouin | Source : Termino ]] |
Version du 4 juillet 2019 à 00:11
Définition
Réseau de neurones récurrent à longue mémoire à court terme qui comporte un seul vecteur d'état, fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation.
Notes: les réseaux de neurones récurrents à portes ont été développés pour résoudre le problème de la disparition du gradient que peuvent poser les réseaux de neurones récurrents réguliers. Ils peuvent être considérés comme une variante des réseaux de neurones récurrents à longue mémoire à court terme parce qu'ils sont de conception similaire et produisent des résultats identiques dans certains cas.
Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA [Chung et al, 2014].
Français
réseau de neurones récurrent à portes n.m.
réseau récurrent à portes n.m.
unité récurrente à portes n.f.
Anglais
gated recurrent unit
Gated Recurrent Unit
GRU
Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki