Gated Recurrent Unit (GRU)

De DataFranca

Domaine

Vocabulary
Apprentissage profond

Définition



Français

réseau récurrent à portes

Genre: masculin

Choisissez parmi ces termes proposés :
Vous n'êtes pas autorisé à voter.
Vous n'êtes pas autorisé à voir les résultats de ce sondage.
Il y avait un vote depuis l’élaboration du sondage au 18 mai 2019 à 11:05.
poll-id 38D2D948B55670B2878DB6D0CA3041EA


Anglais

Gated Recurrent Unit

GRU

The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step. • Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano

 Contributeurs : Claude Coulombe, admin