« Réseau récurrent à portes » : différence entre les versions


Aucun résumé des modifications
(Mise en place d'un vote)
Ligne 12 : Ligne 12 :


== Termes privilégiés ==
== Termes privilégiés ==
===réseau récurrent à portes===
<h4>
=== réseau de neurones récurrents à portes===
<poll>
===unités récurrentes à porte===
Choisissez parmi ces termes proposés :
<br />
réseau récurrent à portes
 
réseau de neurones récurrent à portes
unité récurrente à porte
</poll></h4>
<h4>Discussion:</h4>


== Anglais ==
== Anglais ==

Version du 1 mai 2018 à 14:26

Domaine

Vocabulary
Claude
Apprentissage profond

Définition



Termes privilégiés

<poll> Choisissez parmi ces termes proposés : réseau récurrent à portes réseau de neurones récurrent à portes unité récurrente à porte </poll>

Discussion:

Anglais

Gated Recurrent Unit

GRU

The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step. • Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano