« Modèle séquence à séquence » : différence entre les versions


Ligne 5 : Ligne 5 :
== Définition ==
== Définition ==


L'apprentissage séquence-à-séquence (séq.-à-séq.) consiste à entraîner un modèle (un réseau de neurones récurrent) pour convertir une séquences d'un domaine vers une séquence dans un autre domaine. Un bon exemple est la traduction d'une phrase en anglais vers une phrase en français. On parle aussi d'une architecture encodeur-décodeur.
Un modèle séquence-à-séquence (séq.-à-séq.) convertit une séquences d'un domaine en entrée vers une séquence dans un autre domaine en sortie. Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Un bon exemple d'utilisation d'un modèle séq.-à-séq. est la traduction neuronale d'une phrase d'une langue source vers une langue cible.


== Français ==
== Français ==

Version du 20 février 2019 à 00:07

Domaine

Vocabulary Apprentissage profond

Définition

Un modèle séquence-à-séquence (séq.-à-séq.) convertit une séquences d'un domaine en entrée vers une séquence dans un autre domaine en sortie. Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Un bon exemple d'utilisation d'un modèle séq.-à-séq. est la traduction neuronale d'une phrase d'une langue source vers une langue cible.

Français

<poll> Choisissez parmi ces termes proposés : séq-à-séq séq.-à-séq. seq-à-seq séquence-à-séquence </poll>

Discussion:

Pour le moment, le terme privilégié est «séq.-à-séq.».

Anglais

Seq2Seq A Sequence-to-Sequence model reads a sequence (such as a sentence) as an input and produces another sequence as an output. It differs from a standard RNN in that the input sequence is completely read before the network starts producing any output. Typically, seq2seq models are implemented using two RNNs, functioning as encoders and decoders. Neural Machine Translation is a typical example of a seq2seq model. • Sequence to Sequence Learning with Neural Networks