« Réseau récurrent à longue mémoire court terme » : différence entre les versions


(→‎Termes privilégiés : Ajouts de termes proposés et de justifications.)
Ligne 12 : Ligne 12 :
<h3>
<h3>
Réseau récurrent ou réseau de neurones récurrent  
Réseau récurrent ou réseau de neurones récurrent  
Notez: C'est le réseau qui est récurrent, pas les neurones.
<poll>
<poll>
Choisissez parmi ces termes proposés :
Choisissez parmi ces termes proposés :

Version du 20 mars 2018 à 16:10

Domaine

Vocabulary
Apprentissage profond

Définition

Termes privilégiés

Réseau récurrent ou réseau de neurones récurrent <poll> Choisissez parmi ces termes proposés : à mémoire court et long terme à mémoire long et court terme à mémoire courte et longue portée à mémoire longue et courte portée à mémoire de courtes et longues séquences à mémoire pour courtes et longues séquences </poll>

Explications: Le terme Long Short-Term Memory, abrégé par LSTM [Hochreiter & Schmidhuber, 1997], désigne une architecture de réseau de neurones récurrent capable d'apprendre et de mémoriser de courtes et de longues séquences de symboles. Conceptuellement, on peut voir ces séquences d'un point de vue temporel (court et long terme) ou spatial (portée). On a également le choix de respecter l'ordre long et court ou de l'inverser pour retrouver des expressions plus familières comme «à long et court terme».

Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735‑1780, http://web.eecs.utk.edu/~itamar/courses/ECE-692/Bobby_paper1.pdf

Anglais

LSTM

Long Short-Term Memory networks were invented to prevent the vanishing gradient problem in Recurrent Neural Networks by using a memory gating mechanism. Using LSTM units to calculate the hidden state in an RNN we help to the network to efficiently propagate gradients and learn long-range dependencies. • Long Short-Term Memory • Understanding LSTM Networks • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano