« Réseau récurrent à longue mémoire court terme » : différence entre les versions


mAucun résumé des modifications
mAucun résumé des modifications
Ligne 24 : Ligne 24 :
</poll></h3>
</poll></h3>
<h4>Discussion:</h4>
<h4>Discussion:</h4>
Conceptuellement, on peut voir les séquences d'un point de vue temporel (court et long terme) ou spatial (portée). On a également le choix de respecter l'ordre long et court ou de l'inverser pour retrouver des expressions plus familières comme «à long et court terme».
Conceptuellement, on peut voir les séquences d'un point de vue temporel (court et long terme) ou spatial (portée). On a également le choix de respecter l'ordre long et court ou de l'inverser pour retrouver des expressions plus familières comme «à long et court terme».<br/>
Note: À voir avec un linguiste: à mémoire pour, à mémoire de, à mémoire


== Anglais ==
== Anglais ==

Version du 20 mars 2018 à 17:45

Domaine

Vocabulary
Apprentissage profond

Définition

Le terme Long Short-Term Memory, abrégé par LSTM [Hochreiter & Schmidhuber, 1997], désigne une architecture de réseau de neurones récurrent capable d'apprendre et de mémoriser de courtes et de longues séquences de symboles.

Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735‑1780, http://web.eecs.utk.edu/~itamar/courses/ECE-692/Bobby_paper1.pdf

Termes privilégiés

Réseau récurrent ou réseau de neurones récurrent <poll> Choisissez parmi ces termes proposés : à mémoire court et long terme à mémoire long et court terme à mémoire courte et longue portée à mémoire longue et courte portée à mémoire de courtes et longues séquences à mémoire de longues et courtes séquences à mémoire pour courtes et longues séquences à mémoire pour longues et courtes séquences </poll>

Discussion:

Conceptuellement, on peut voir les séquences d'un point de vue temporel (court et long terme) ou spatial (portée). On a également le choix de respecter l'ordre long et court ou de l'inverser pour retrouver des expressions plus familières comme «à long et court terme».
Note: À voir avec un linguiste: à mémoire pour, à mémoire de, à mémoire

Anglais

LSTM

Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies. • Long Short-Term Memory • Understanding LSTM Networks • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano