Réseau récurrent à portes
Domaine
Vocabulary
Claude
Apprentissage profond
Définition
Termes privilégiés
réseau récurrent à portes
Genre:</4>
masculin
<poll>
Choisissez parmi ces termes proposés :
réseau récurrent à portes
réseau de neurones récurrent à portes
unité récurrente à porte
</poll>
Discussion:
Anglais
Gated Recurrent Unit
GRU
The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step.
• Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
• Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki