« Réseau récurrent à longue mémoire court terme » : différence entre les versions
mAucun résumé des modifications |
mAucun résumé des modifications |
||
Ligne 10 : | Ligne 10 : | ||
== Termes privilégiés == | == Termes privilégiés == | ||
< | <h4> | ||
Réseau récurrent ou réseau de neurones récurrent | Réseau récurrent ou réseau de neurones récurrent | ||
<poll> | <poll> | ||
Ligne 22 : | Ligne 22 : | ||
à mémoire pour courtes et longues séquences | à mémoire pour courtes et longues séquences | ||
à mémoire pour longues et courtes séquences | à mémoire pour longues et courtes séquences | ||
</poll></ | </poll></h4> | ||
<h4>Discussion:</h4> | <h4>Discussion:</h4> | ||
Conceptuellement, on peut voir les séquences d'un point de vue temporel (court et long terme) ou spatial (portée). On a également le choix de respecter l'ordre long et court ou de l'inverser pour retrouver des expressions plus familières comme «à long et court terme».<br/> | Conceptuellement, on peut voir les séquences d'un point de vue temporel (court et long terme) ou spatial (portée). On a également le choix de respecter l'ordre long et court ou de l'inverser pour retrouver des expressions plus familières comme «à long et court terme».<br/> |
Version du 20 mars 2018 à 17:46
Domaine
Vocabulary
Apprentissage profond
Définition
Le terme Long Short-Term Memory, abrégé par LSTM [Hochreiter & Schmidhuber, 1997], désigne une architecture de réseau de neurones récurrent capable d'apprendre et de mémoriser de courtes et de longues séquences de symboles.
Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735‑1780, http://web.eecs.utk.edu/~itamar/courses/ECE-692/Bobby_paper1.pdf
Termes privilégiés
Réseau récurrent ou réseau de neurones récurrent <poll> Choisissez parmi ces termes proposés : à mémoire court et long terme à mémoire long et court terme à mémoire courte et longue portée à mémoire longue et courte portée à mémoire de courtes et longues séquences à mémoire de longues et courtes séquences à mémoire pour courtes et longues séquences à mémoire pour longues et courtes séquences </poll>
Discussion:
Conceptuellement, on peut voir les séquences d'un point de vue temporel (court et long terme) ou spatial (portée). On a également le choix de respecter l'ordre long et court ou de l'inverser pour retrouver des expressions plus familières comme «à long et court terme».
Note: À voir avec un linguiste: à mémoire pour, à mémoire de, à mémoire à, à mémoire.
Anglais
LSTM
Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies. • Long Short-Term Memory • Understanding LSTM Networks • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki