« Modèle séquence à séquence » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[Category:Vocabulary]] Vocabulary<br/>
[[Category:Vocabulary]] <br/>
[[Catégorie:Apprentissage profond]] Apprentissage profond<br/>
[[Catégorie:Apprentissage profond]] Apprentissage profond<br/>
[[Category:Coulombe]]Coulombe
[[Category:Coulombe]]
[[Category:scotty]]


== Définition ==
== Définition ==
Ligne 9 : Ligne 10 :


== Français ==
== Français ==
<poll>
 
Choisissez parmi ces termes proposés :
'''séq-à-séq'''
séq-à-séq
 
séq.-à-séq.
'''séq.-à-séq.'''
seq-à-seq
 
séquence-à-séquence
'''séquence-à-séquence'''
</poll>
 
<h3>Discussion:</h3>
 
Pour le moment, le terme privilégié est «séq.-à-séq.».
<br/>


== Anglais ==
== Anglais ==
'''Seq2Seq'''




'''Seq2Seq
source : ................
'''
A Sequence-to-Sequence model reads a sequence (such as a sentence) as an input and produces another sequence as an output. It differs from a standard RNN in that the input sequence is completely read before the network starts producing any output. Typically, seq2seq models are implemented using two RNNs, functioning as encoders and decoders. Neural Machine Translation is a typical example of a seq2seq model.
• Sequence to Sequence Learning with Neural Networks

Version du 18 avril 2019 à 15:47

Domaine


Apprentissage profond

Définition

Un modèle séquence-à-séquence (séq.-à-séq.) convertit une séquences d'un domaine en entrée vers une séquence dans un autre domaine en sortie. Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Un bon exemple d'utilisation d'un modèle séq.-à-séq. est la traduction neuronale d'une phrase d'une langue source vers une langue cible.

Français

séq-à-séq

séq.-à-séq.

séquence-à-séquence


Anglais

Seq2Seq


source : ................