« Modèle séquence à séquence » : différence entre les versions


Aucun résumé des modifications
Ligne 9 : Ligne 9 :


== Français ==
== Français ==
<h3><poll>
<poll>
Choisissez parmi ces termes proposés :
Choisissez parmi ces termes proposés :
séq-à-séq
séq-à-séq
Ligne 15 : Ligne 15 :
seq-à-seq
seq-à-seq
séquence-à-séquence
séquence-à-séquence
</poll></h3>
</poll>
<h3>Discussion:</h3>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «séq.-à-séq.».
Pour le moment, le terme privilégié est «séq.-à-séq.».

Version du 19 mars 2019 à 09:52

Domaine

Vocabulary
Apprentissage profond
Coulombe

Définition

Un modèle séquence-à-séquence (séq.-à-séq.) convertit une séquences d'un domaine en entrée vers une séquence dans un autre domaine en sortie. Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Un bon exemple d'utilisation d'un modèle séq.-à-séq. est la traduction neuronale d'une phrase d'une langue source vers une langue cible.

Français

<poll> Choisissez parmi ces termes proposés : séq-à-séq séq.-à-séq. seq-à-seq séquence-à-séquence </poll>

Discussion:

Pour le moment, le terme privilégié est «séq.-à-séq.».

Anglais

Seq2Seq A Sequence-to-Sequence model reads a sequence (such as a sentence) as an input and produces another sequence as an output. It differs from a standard RNN in that the input sequence is completely read before the network starts producing any output. Typically, seq2seq models are implemented using two RNNs, functioning as encoders and decoders. Neural Machine Translation is a typical example of a seq2seq model. • Sequence to Sequence Learning with Neural Networks