« Modèle séquence à séquence » : différence entre les versions
Ligne 5 : | Ligne 5 : | ||
== Définition == | == Définition == | ||
Un modèle séquence-à-séquence (séq.-à-séq.) convertit une séquences d'un domaine en entrée vers une séquence dans un autre domaine en sortie. Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Un bon exemple d'utilisation d'un modèle séq.-à-séq. est la traduction neuronale d'une phrase d'une langue source vers une langue cible. | |||
== Français == | == Français == |
Version du 20 février 2019 à 00:07
Domaine
Vocabulary Apprentissage profond
Définition
Un modèle séquence-à-séquence (séq.-à-séq.) convertit une séquences d'un domaine en entrée vers une séquence dans un autre domaine en sortie. Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Un bon exemple d'utilisation d'un modèle séq.-à-séq. est la traduction neuronale d'une phrase d'une langue source vers une langue cible.
Français
<poll> Choisissez parmi ces termes proposés : séq-à-séq séq.-à-séq. seq-à-seq séquence-à-séquence </poll>
Discussion:
Pour le moment, le terme privilégié est «séq.-à-séq.».
Anglais
Seq2Seq A Sequence-to-Sequence model reads a sequence (such as a sentence) as an input and produces another sequence as an output. It differs from a standard RNN in that the input sequence is completely read before the network starts producing any output. Typically, seq2seq models are implemented using two RNNs, functioning as encoders and decoders. Neural Machine Translation is a typical example of a seq2seq model. • Sequence to Sequence Learning with Neural Networks
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki