« Modèle séquence à séquence » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 32 : Ligne 32 :
Source: Henri Lasselin (2018). ''Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain'', rapport de stages, 44 pages.
Source: Henri Lasselin (2018). ''Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain'', rapport de stages, 44 pages.


  [http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf Source: Marceau Caron, Gaétan (2017), ''Réseaux pour le langage'', Montréal IVADO, consulté le 30 mai 2019.
  [http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf Source: Marceau Caron, Gaétan (2017), ''Réseaux pour le langage'', Montréal IVADO, consulté le 30 mai 2019.]


[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Utilisateur:Patrickdrouin  | Source: Termino]]

Version du 9 juillet 2019 à 21:36


Définition

Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.

Note: généralement, un modèle séquence à séquence est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.

Français

modèle séquence à séquence loc. nom. masc.

modèle encodeur-décodeur loc. nom. masc.

modèle séq.-à-séq. loc. nom. masc.

modèle seq2seq loc. nom. masc.

Anglais

sequence to sequence model

seq2seq model

encoder-decoder model


Source: Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.

Source: Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, consulté le 30 mai 2019.

Source: Termino