« Réseau récurrent à portes » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
(Ajustement de quelques sections de la fiche.)
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==


[[Category:Vocabulary]]  Vocabulary<br />
[[Category:Coulombe]]
[[Category:Coulombe]]
[[Catégorie:Apprentissage profond]] Apprentissage profond
[[Category:Vocabulaire]]<br/>
[[Category:Intelligence artificielle]]Intelligence artificielle<br/> 
[[Category:Apprentissage automatique]] Apprentissage automatique<br/>
[[Category:Apprentissage profond]] Apprentissage profond<br/>
[[Category:Termino 2019]]
[[Category:Scotty]]


== Définition ==
== Définition ==
Réseau de neurones récurrent à longue mémoire à court terme qui comporte un seul vecteur d'état, fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation.
 
 
Notes
 
Les réseaux de neurones récurrents à portes ont été développés pour résoudre le problème de la disparition du gradient que peuvent poser les réseaux de neurones récurrents réguliers. Ils peuvent être considérés comme une variante des réseaux de neurones récurrents à longue mémoire à court terme parce qu'ils sont de conception similaire et produisent des résultats identiques dans certains cas.
 
 
Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA [Chung et al, 2014].
<br />
<br />


Ligne 12 : Ligne 24 :


== Français ==
== Français ==
===réseau récurrent à portes===
'''réseau de neurones récurrent à portes'''
<span><strong>Genre: </strong>masculin</span>
 
'''réseau récurrent à portes'''
 
 
 
<poll>
<poll>


Ligne 25 : Ligne 41 :


== Anglais ==
== Anglais ==
===Gated Recurrent Unit===
'''gated recurrent unit'''
===GRU===
 
'''Gated Recurrent Unit'''
 
'''GRU'''


The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step.
The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step.
• Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
• Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
• Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano
• Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano

Version du 3 juin 2019 à 11:06

Domaine


Intelligence artificielle
Apprentissage automatique
Apprentissage profond

Définition

Réseau de neurones récurrent à longue mémoire à court terme qui comporte un seul vecteur d'état, fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation.


Notes

Les réseaux de neurones récurrents à portes ont été développés pour résoudre le problème de la disparition du gradient que peuvent poser les réseaux de neurones récurrents réguliers. Ils peuvent être considérés comme une variante des réseaux de neurones récurrents à longue mémoire à court terme parce qu'ils sont de conception similaire et produisent des résultats identiques dans certains cas.


Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA [Chung et al, 2014].


Français

réseau de neurones récurrent à portes

réseau récurrent à portes


<poll>

Choisissez parmi ces termes proposés : réseau récurrent à portes réseau de neurones récurrent à portes unité récurrente à porte

</poll>


Anglais

gated recurrent unit

Gated Recurrent Unit

GRU

The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step. • Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation • Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano