« Modèle séquence à séquence » : différence entre les versions
m (Remplacement de texte — « Category:Coulombe2 » par « <!-- Coulombe2 --> ») |
Aucun résumé des modifications |
||
Ligne 12 : | Ligne 12 : | ||
==Français== | ==Français== | ||
'''modèle séquence à séquence''' | '''modèle séquence à séquence''' loc. nom. masc. | ||
'''modèle encodeur-décodeur''' n.m. | '''modèle encodeur-décodeur''' n.m. |
Version du 6 juillet 2019 à 18:52
Définition
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.
Note: généralement, un est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur.Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur.Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.
Français
modèle séquence à séquence loc. nom. masc.
modèle encodeur-décodeur n.m.
modèle séq.-à-séq. n.m.
modèle seq2seq n.m.
Anglais
sequence to sequence model
seq2seq model
encoder-decoder model
Source : Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.
Source : Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf, consulté le 30 mai 2019.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki