« Réseau récurrent à longue mémoire court terme » : différence entre les versions
(Page créée avec « == Domaine == catégorie:Démo Catégorie Démo == Définition == == Termes privilégiés == == Anglais == ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[catégorie:Démo]] Catégorie Démo | [[catégorie:Démo]] Catégorie Démo | ||
[[Catégorie:Apprentissage profond]] Apprentissage profond | |||
== Définition == | == Définition == | ||
Ligne 15 : | Ligne 14 : | ||
== Anglais == | == Anglais == | ||
'''LSTM''' | |||
Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies. | |||
• Long Short-Term Memory | |||
• Understanding LSTM Networks | |||
• Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano |
Version du 26 février 2018 à 19:36
Domaine
Catégorie Démo Apprentissage profond
Définition
Termes privilégiés
Anglais
LSTM
Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies. • Long Short-Term Memory • Understanding LSTM Networks • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki