« Modèle séquence à séquence » : différence entre les versions
(Ajout d'une source) Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 6 : | Ligne 6 : | ||
[[Category:scotty]] | [[Category:scotty]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
== Définition == | == Définition == | ||
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie. | Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie. | ||
Note | Note | ||
Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. | Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. | ||
Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur. | Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur. | ||
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. | |||
== Français == | == Français == | ||
'''modèle séquence à séquence''' | '''modèle séquence à séquence''' | ||
Ligne 37 : | Ligne 32 : | ||
== Anglais == | == Anglais == | ||
'''sequence to sequence model''' | '''sequence to sequence model''' | ||
Version du 16 juin 2019 à 20:41
Domaine
Apprentissage profond
Intelligence artificielle
Définition
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.
Note
Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur.
Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur.
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.
Français
modèle séquence à séquence
modèle encodeur-décodeur
modèle seq2seq
Source : Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.
Source : Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf, consulté le 30 mai 2019.
Anglais
sequence to sequence model
seq2seq model
encoder-decoder model
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki