« Réseau récurrent à portes » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 15 : Ligne 15 :
<span><strong>Genre: </strong>masculin</span>
<span><strong>Genre: </strong>masculin</span>
<poll>
<poll>
<h4>
 
Choisissez parmi ces termes proposés :
Choisissez parmi ces termes proposés :
réseau récurrent à portes
réseau récurrent à portes
réseau de neurones récurrent à portes
réseau de neurones récurrent à portes
unité récurrente à porte
unité récurrente à porte
</h4>
 
</poll>
</poll>
<h4>Discussion:</h4>
 


== Anglais ==
== Anglais ==

Version du 18 mai 2019 à 10:05

Domaine

Vocabulary
Claude
Apprentissage profond

Définition



Français

réseau récurrent à portes

Genre: masculin <poll>

Choisissez parmi ces termes proposés : réseau récurrent à portes réseau de neurones récurrent à portes unité récurrente à porte

</poll>


Anglais

Gated Recurrent Unit

GRU

The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step. • Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano