« Réseau récurrent à longue mémoire court terme » : différence entre les versions
(Suggestions de termes pour LSTM) |
|||
Ligne 21 : | Ligne 21 : | ||
à mémoire pour courtes et longues séquences | à mémoire pour courtes et longues séquences | ||
</poll></h3> | </poll></h3> | ||
== Anglais == | == Anglais == |
Version du 20 mars 2018 à 16:11
Domaine
Vocabulary
Apprentissage profond
Définition
Termes privilégiés
Réseau récurrent ou réseau de neurones récurrent <poll> Choisissez parmi ces termes proposés : à mémoire court et long terme à mémoire long et court terme à mémoire courte et longue portée à mémoire longue et courte portée à mémoire de courtes et longues séquences à mémoire pour courtes et longues séquences </poll>
Anglais
LSTM
Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies. • Long Short-Term Memory • Understanding LSTM Networks • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki