« Modèle séquence à séquence » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(11 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
[[ | [[Modèle d'apprentissage]] qui transforme une séquence de données en entrée vers une nouvelle séquence de données en sortie. | ||
Typiquement, on a un texte (ou une séquence de mots ou parties de mots en entrée) qui produit un autre texte (ou séquence de mots ou parties de mots) en sortie. | Typiquement, on a un texte (ou une séquence de mots ou parties de mots en entrée) qui produit un autre texte (ou séquence de mots ou parties de mots) en sortie. | ||
== Compléments == | == Compléments == | ||
Une point clé du modèle séquence à séquence est sa capacité de traiter des entrées et des sorties de longueurs variables. | |||
Généralement, un modèle séquence à séquence est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. | <hr/> | ||
Généralement, un modèle séquence à séquence est implémenté avec une [[architecture encodeur-décodeur]] en utilisant deux [[réseau récurrent|réseaux de neurones récurrents]], un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. | |||
<hr/> | |||
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances. | Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances. | ||
Ligne 37 : | Ligne 36 : | ||
'''séq-à-séq''' | '''séq-à-séq''' | ||
==Anglais== | ==Anglais== | ||
Ligne 60 : | Ligne 49 : | ||
'''seq2seq network''' | '''seq2seq network''' | ||
==Sources== | |||
[https://en.wikipedia.org/wiki/Seq2seq Source: Wikipedia Seq2seq] | |||
[https://theses.hal.science/tel-02077011/document Source: Thèse d'Edwin Simonnet] | |||
[ | |||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 11 octobre 2024 à 08:33
Définition
Modèle d'apprentissage qui transforme une séquence de données en entrée vers une nouvelle séquence de données en sortie.
Typiquement, on a un texte (ou une séquence de mots ou parties de mots en entrée) qui produit un autre texte (ou séquence de mots ou parties de mots) en sortie.
Compléments
Une point clé du modèle séquence à séquence est sa capacité de traiter des entrées et des sorties de longueurs variables.
Généralement, un modèle séquence à séquence est implémenté avec une architecture encodeur-décodeur en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.
Français
modèle séquence à séquence
modèle séq.-à-séq.
modèle séq-à-séq
réseau récurrent séquence à séquence
réseau de neurones récurrent séquence à séquence
réseau neuronal récurrent séquence à séquence
architecture séquence à séquence
architecture séq.-à-séq.
réseau séq.-à-séq.
séquence à séquence
séq.-à-séq.
séq-à-séq
Anglais
sequence to sequence model
sequence-to-sequence
seq2seq model
seq2seq architecture
seq2seq network
Sources
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki