« Modèle séquence à séquence » : différence entre les versions
Ligne 4 : | Ligne 4 : | ||
== Définition == | == Définition == | ||
L'apprentissage séquence-à-séquence (séq.-à-séq.) consiste à entraîner un modèle (un réseau de neurones récurrent) pour convertir une séquences d'un domaine vers une séquence dans un autre domaine. Un bon exemple est la traduction d'une phrase en anglais vers une phrase en français. On parle aussi d'une architecture encodeur-décodeur. | |||
== Français == | == Français == |
Version du 19 février 2019 à 23:36
Domaine
Vocabulary Apprentissage profond
Définition
L'apprentissage séquence-à-séquence (séq.-à-séq.) consiste à entraîner un modèle (un réseau de neurones récurrent) pour convertir une séquences d'un domaine vers une séquence dans un autre domaine. Un bon exemple est la traduction d'une phrase en anglais vers une phrase en français. On parle aussi d'une architecture encodeur-décodeur.
Français
<poll> Choisissez parmi ces termes proposés : séq-à-séq séq.-à-séq. seq-à-seq séquence-à-séquence </poll>
Discussion:
Pour le moment, le terme privilégié est «séq.-à-séq.».
Anglais
Seq2Seq A Sequence-to-Sequence model reads a sequence (such as a sentence) as an input and produces another sequence as an output. It differs from a standard RNN in that the input sequence is completely read before the network starts producing any output. Typically, seq2seq models are implemented using two RNNs, functioning as encoders and decoders. Neural Machine Translation is a typical example of a seq2seq model. • Sequence to Sequence Learning with Neural Networks
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki