« Modèle séquence à séquence » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 11 : Ligne 11 :


'''modèle séquence à séquence'''   
'''modèle séquence à séquence'''   
'''modèle encodeur-décodeur''' 


'''modèle séq.-à-séq.'''   
'''modèle séq.-à-séq.'''   


'''modèle seq2seq'''
'''modèle séq-à-séq'''


'''réseau récurrent séquence à séquence'''  
'''réseau récurrent séquence à séquence'''  


'''réseau de neurones récurrent séquence à séquence'''  
'''réseau de neurones récurrent séquence à séquence'''  
'''architecture séquence à séquence'''
'''séquence à séquence'''
'''séq.-à-séq.'''
'''séq-à-séq'''
'''modèle encodeur-décodeur''' 


'''architecture encodeur-décodeur'''  
'''architecture encodeur-décodeur'''  
Ligne 29 : Ligne 37 :


==Anglais==
==Anglais==
'''sequence to sequence model'''
'''sequence to sequence model'''



Version du 30 novembre 2022 à 18:07

Définition

Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.

Compléments

Généralement, un modèle séquence à séquence est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.

Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.

Français

modèle séquence à séquence

modèle séq.-à-séq.

modèle séq-à-séq

réseau récurrent séquence à séquence

réseau de neurones récurrent séquence à séquence

architecture séquence à séquence

séquence à séquence

séq.-à-séq.

séq-à-séq

modèle encodeur-décodeur

architecture encodeur-décodeur

réseau récurrent encodeur-décodeur

encodeur-décodeur

Anglais

sequence to sequence model

sequence-to-sequence

seq2seq model

encoder-decoder model

encoder-decoder architecture

recurrent encoder-decoder

encoder-decoder

Source: Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.

Source: Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, consulté le 30 mai 2019.

Source: Termino