« Modèle séquence à séquence » : différence entre les versions
m (Remplacement de texte — « <small> masculin </small> » par « ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie. | [[Réseau récurrent|Réseau de neurones récurrent]] qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie. | ||
== Compléments == | |||
Généralement, un modèle séquence à séquence est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. | |||
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances. | |||
==Français== | ==Français== | ||
'''modèle séquence à séquence''' | '''modèle séquence à séquence''' | ||
Ligne 11 : | Ligne 16 : | ||
'''modèle séq.-à-séq.''' | '''modèle séq.-à-séq.''' | ||
'''modèle seq2seq''' | '''modèle seq2seq''' | ||
'''réseau récurrent séquence à séquence''' | |||
'''réseau de neurones récurrent séquence à séquence''' | |||
==Anglais== | ==Anglais== | ||
'''sequence to sequence model''' | '''sequence to sequence model''' | ||
'''sequence-to-sequence''' | |||
'''seq2seq model''' | '''seq2seq model''' | ||
Ligne 20 : | Ligne 31 : | ||
'''encoder-decoder model''' | '''encoder-decoder model''' | ||
'''encoder-decoder''' | |||
<small> | <small> |
Version du 30 novembre 2022 à 17:57
Définition
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.
Compléments
Généralement, un modèle séquence à séquence est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.
Français
modèle séquence à séquence
modèle encodeur-décodeur
modèle séq.-à-séq.
modèle seq2seq
réseau récurrent séquence à séquence
réseau de neurones récurrent séquence à séquence
Anglais
sequence to sequence model
sequence-to-sequence
seq2seq model
encoder-decoder model
encoder-decoder
Source: Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki