« Réseau récurrent à portes » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(21 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
Le réseau récurrent à portes est une variante simplifiée et plus rapide à entraîner du [[réseau récurrent]] à longue mémoire court terme [[Réseau_récurrent_à_longue_mémoire_court_terme|(LMCT)]].


[[Category:Coulombe]]
== Compléments ==
[[Category:Vocabulaire]]<br/>
Le réseau récurrent à portes comporte un seul vecteur d'état et fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation.
[[Category:Intelligence artificielle]]Intelligence artificielle<br/> 
<hr/>
[[Category:Apprentissage automatique]] Apprentissage automatique<br/>
Les réseaux de neurones récurrents à portes ont été développés pour résoudre le [[Problème_de_la_disparition_du_gradient|problème de la disparition du gradient]] que peuvent poser les [[réseau récurrent|réseaux de neurones récurrents]] réguliers. Ils peuvent être considérés comme une variante des [[réseau récurrent à longue mémoire court terme|réseaux de neurones récurrents à longue mémoire court terme]] parce qu'ils sont de conception similaire et produisent des résultats identiques dans beaucoup de cas.
[[Category:Apprentissage profond]] Apprentissage profond<br/>  
<hr/>
[[Category:Termino 2019]]
Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA de l'Université de Montréal.
[[Category:Scotty]]
==Français==
'''réseau de neurones récurrent à portes'''


== Définition ==
'''réseau récurrent à portes'''
Réseau de neurones récurrent à longue mémoire à court terme qui comporte un seul vecteur d'état, fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation.


'''unité récurrente à portes''' 


Notes
==Anglais==
'''gated recurrent unit'''


Les réseaux de neurones récurrents à portes ont été développés pour résoudre le problème de la disparition du gradient que peuvent poser les réseaux de neurones récurrents réguliers. Ils peuvent être considérés comme une variante des réseaux de neurones récurrents à longue mémoire à court terme parce qu'ils sont de conception similaire et produisent des résultats identiques dans certains cas.
'''Gated Recurrent Unit'''


'''GRU'''


Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA [Chung et al, 2014].
==Sources==
<br />


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.


== Français ==
[[https://arxiv.org/pdf/1406.1078.pdf Cho et al, 2014] arxiv - Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation].
'''réseau de neurones récurrent à portes'''


'''réseau récurrent à portes'''
[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe, Datafranca.org]]       


'''unité récurrente à portes'''
[[Utilisateur:Patrickdrouin  | Source: Termino]]


Source : Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
[[Category:Intelligence artificielle]]
 
[[Category:Apprentissage automatique]]
Source : Claude Coulombe
[[Category:Apprentissage profond]]
 
[[Category:Termino 2019]]
 
[[Category:GRAND LEXIQUE FRANÇAIS]]
<poll>
 
Choisissez parmi ces termes proposés :
réseau récurrent à portes
réseau de neurones récurrent à portes
unité récurrente à portes
 
</poll>
 
 
== Anglais ==
'''gated recurrent unit'''
 
'''Gated Recurrent Unit'''
 
'''GRU'''
 
The Gated Recurrent Unit is a simplified version of an LSTM unit with fewer parameters. Just like an LSTM cell, it uses a gating mechanism to allow RNNs to efficiently learn long-range dependency by preventing the vanishing gradient problem. The GRU consists of a reset and update gate that determine which part of the old memory to keep vs. update with new values at the current time step.
• Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
• Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano

Dernière version du 28 janvier 2024 à 13:27

Définition

Le réseau récurrent à portes est une variante simplifiée et plus rapide à entraîner du réseau récurrent à longue mémoire court terme (LMCT).

Compléments

Le réseau récurrent à portes comporte un seul vecteur d'état et fusionne les portes d'entrée et d'oubli en une porte de mise-à-jour et remplace la porte de sortie par une porte de réinitialisation.


Les réseaux de neurones récurrents à portes ont été développés pour résoudre le problème de la disparition du gradient que peuvent poser les réseaux de neurones récurrents réguliers. Ils peuvent être considérés comme une variante des réseaux de neurones récurrents à longue mémoire court terme parce qu'ils sont de conception similaire et produisent des résultats identiques dans beaucoup de cas.


Notons au passage que le réseau de neurones récurrent à portes a été créé en 2014 au laboratoire MILA de l'Université de Montréal.

Français

réseau de neurones récurrent à portes

réseau récurrent à portes

unité récurrente à portes

Anglais

gated recurrent unit

Gated Recurrent Unit

GRU

Sources

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

[Cho et al, 2014 arxiv - Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation].

Source: Claude Coulombe, Datafranca.org

Source: Termino