« Modèle séquence à séquence » : différence entre les versions


m (Remplacement de texte — « Termes privilégiés » par « Français »)
Ligne 10 : Ligne 10 :


== Français ==
== Français ==
<h3><poll>
Choisissez parmi ces termes proposés :
séq-à-séq
séq.-à-séq.
seq-à-seq
séquence-à-sequence
</poll></h3>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «séq.-à-séq.».
<br/>


== Anglais ==
== Anglais ==



Version du 19 février 2019 à 23:14

Domaine

Vocabulary Apprentissage profond

Définition

Français

<poll> Choisissez parmi ces termes proposés : séq-à-séq séq.-à-séq. seq-à-seq séquence-à-sequence </poll>

Discussion:

Pour le moment, le terme privilégié est «séq.-à-séq.».

Anglais

Seq2Seq A Sequence-to-Sequence model reads a sequence (such as a sentence) as an input and produces another sequence as an output. It differs from a standard RNN in that the input sequence is completely read before the network starts producing any output. Typically, seq2seq models are implemented using two RNNs, functioning as encoders and decoders. Neural Machine Translation is a typical example of a seq2seq model. • Sequence to Sequence Learning with Neural Networks