« Réseau récurrent à longue mémoire court terme » : différence entre les versions


(Page créée avec « == Domaine == catégorie:Démo Catégorie Démo == Définition == == Termes privilégiés == == Anglais == »)
 
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[catégorie:Démo]] Catégorie Démo
[[catégorie:Démo]] Catégorie Démo
 
[[Catégorie:Apprentissage profond]] Apprentissage profond
   
   
== Définition ==
== Définition ==
Ligne 15 : Ligne 14 :
   
   
== Anglais ==
== Anglais ==
'''LSTM'''
Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies.
• Long Short-Term Memory
• Understanding LSTM Networks
• Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano

Version du 26 février 2018 à 20:36

Domaine

Catégorie Démo Apprentissage profond

Définition

Termes privilégiés

Anglais

LSTM

Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies. • Long Short-Term Memory • Understanding LSTM Networks • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano