« Modèle séquence à séquence » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
[[Category:Vocabulaire]] | [[Category:Vocabulaire]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
[[Category:Coulombe]] | [[Category:Coulombe]] | ||
[[Category:scotty]] | [[Category:scotty]] | ||
Ligne 10 : | Ligne 9 : | ||
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie. | Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie. | ||
Note | Note: Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. | ||
Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. | |||
Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur. | Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur. | ||
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. | Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. | ||
== Français == | == Français == | ||
Ligne 25 : | Ligne 21 : | ||
'''modèle seq2seq''' | '''modèle seq2seq''' | ||
== Anglais == | == Anglais == | ||
Ligne 37 : | Ligne 28 : | ||
'''encoder-decoder model''' | '''encoder-decoder model''' | ||
<small> | |||
Source : Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages. | |||
Source : Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf, consulté le 30 mai 2019. | |||
[[Utilisateur:Patrickdrouin | Source : Termino ]] |
Version du 17 juin 2019 à 21:00
Définition
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.
Note: Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur.
Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur.
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.
Français
modèle séquence à séquence
modèle encodeur-décodeur
modèle seq2seq
Anglais
sequence to sequence model
seq2seq model
encoder-decoder model
Source : Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.
Source : Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf, consulté le 30 mai 2019.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki