« Réseau récurrent à portes » : différence entre les versions
Aucun résumé des modifications |
(Mise en place d'un vote) |
||
Ligne 12 : | Ligne 12 : | ||
== Termes privilégiés == | == Termes privilégiés == | ||
<h4> | |||
<poll> | |||
Choisissez parmi ces termes proposés : | |||
< | réseau récurrent à portes | ||
réseau de neurones récurrent à portes | |||
unité récurrente à porte | |||
</poll></h4> | |||
<h4>Discussion:</h4> | |||
== Anglais == | == Anglais == |
Version du 1 mai 2018 à 14:26
Domaine
Vocabulary
Claude
Apprentissage profond
Définition
Termes privilégiés
<poll> Choisissez parmi ces termes proposés : réseau récurrent à portes réseau de neurones récurrent à portes unité récurrente à porte </poll>
Discussion:
Anglais
Gated Recurrent Unit
GRU
The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step. • Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki