« Modèle séquence à séquence » : différence entre les versions
m (Remplacement de texte — « <!-- Coulombe2 --> » par « ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie. | Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie. | ||
Ligne 35 : | Ligne 28 : | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] | ||
[[Category:Apprentissage profond]] | |||
[[Category:Intelligence artificielle]] | |||
[[Category:Termino 2019]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] |
Version du 7 mai 2020 à 12:51
Définition
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.
Note: généralement, un modèle séquence à séquence est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.
Français
modèle séquence à séquence loc. nom. masc.
modèle encodeur-décodeur loc. nom. masc.
modèle séq.-à-séq. loc. nom. masc.
modèle seq2seq loc. nom. masc.
Anglais
sequence to sequence model
seq2seq model
encoder-decoder model
Source: Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki