« Modèle séquence à séquence » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:Vocabulary]] | [[Category:Vocabulary]] <br/> | ||
[[Catégorie:Apprentissage profond]] Apprentissage profond<br/> | [[Catégorie:Apprentissage profond]] Apprentissage profond<br/> | ||
[[Category:Coulombe]] | [[Category:Coulombe]] | ||
[[Category:scotty]] | |||
== Définition == | == Définition == | ||
Ligne 9 : | Ligne 10 : | ||
== Français == | == Français == | ||
'''séq-à-séq''' | |||
séq-à-séq | |||
séq.-à-séq. | '''séq.-à-séq.''' | ||
séquence-à-séquence | '''séquence-à-séquence''' | ||
== Anglais == | == Anglais == | ||
'''Seq2Seq''' | |||
source : ................ | |||
Version du 18 avril 2019 à 14:47
Domaine
Apprentissage profond
Définition
Un modèle séquence-à-séquence (séq.-à-séq.) convertit une séquences d'un domaine en entrée vers une séquence dans un autre domaine en sortie. Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Un bon exemple d'utilisation d'un modèle séq.-à-séq. est la traduction neuronale d'une phrase d'une langue source vers une langue cible.
Français
séq-à-séq
séq.-à-séq.
séquence-à-séquence
Anglais
Seq2Seq
source : ................
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki