« Réseau récurrent à portes » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 22 : | Ligne 22 : | ||
'''GRU''' | '''GRU''' | ||
==Sources== | |||
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | ||
Ligne 35 : | Ligne 35 : | ||
[[Category:Apprentissage automatique]] | [[Category:Apprentissage automatique]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 11 octobre 2024 à 08:31
Définition
Le réseau récurrent à portes est une variante simplifiée et plus rapide à entraîner du réseau récurrent à longue mémoire court terme (LMCT).
Compléments
Le réseau récurrent à portes comporte un seul vecteur d'état et fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation.
Les réseaux de neurones récurrents à portes ont été développés pour résoudre le problème de la disparition du gradient que peuvent poser les réseaux de neurones récurrents réguliers. Ils peuvent être considérés comme une variante des réseaux de neurones récurrents à longue mémoire court terme parce qu'ils sont de conception similaire et produisent des résultats identiques dans beaucoup de cas.
Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA de l'Université de Montréal.
Français
réseau de neurones récurrent à portes
réseau récurrent à portes
unité récurrente à portes
Anglais
gated recurrent unit
Gated Recurrent Unit
GRU
Sources
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
[Cho et al, 2014 arxiv - Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation].
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki