« Modèle séquence à séquence » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte — « <small>loc. nom. masc.</small> » par « <small> masculin </small> ») |
||
Ligne 5 : | Ligne 5 : | ||
==Français== | ==Français== | ||
'''modèle séquence à séquence''' <small> | '''modèle séquence à séquence''' <small> masculin </small> | ||
'''modèle encodeur-décodeur''' <small> | '''modèle encodeur-décodeur''' <small> masculin </small> | ||
'''modèle séq.-à-séq.''' <small> | '''modèle séq.-à-séq.''' <small> masculin </small> | ||
'''modèle seq2seq''' <small> | '''modèle seq2seq''' <small> masculin </small> | ||
==Anglais== | ==Anglais== |
Version du 22 mai 2020 à 22:55
Définition
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.
Note: généralement, un modèle séquence à séquence est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.
Français
modèle séquence à séquence masculin
modèle encodeur-décodeur masculin
modèle séq.-à-séq. masculin
modèle seq2seq masculin
Anglais
sequence to sequence model
seq2seq model
encoder-decoder model
Source: Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki