« Modèle séquence à séquence » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(48 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
[[Category:Vocabulary]] Vocabulary
[[Modèle d'apprentissage]] qui transforme une séquence de données en entrée vers une nouvelle séquence de données en sortie.
[[Catégorie:Apprentissage profond]] Apprentissage profond
== Définition ==


L'apprentissage séquence-à-séquence (séq.-à-séq.) consiste à entraîner un modèle (un réseau de neurones récurrent) pour convertir une séquences d'un domaine vers une séquence dans un autre domaine. Un bon exemple est la traduction d'une phrase en anglais vers une phrase en français. On parle aussi d'une architecture encodeur-décodeur.
Typiquement, on a un texte (ou une séquence de mots ou parties de mots en entrée) qui produit un autre texte (ou séquence de mots ou parties de mots) en sortie.  


== Français ==
== Compléments ==
<h3><poll>
Une point clé du modèle séquence à séquence est sa capacité de traiter des entrées et des sorties  de longueurs variables.
Choisissez parmi ces termes proposés :
<hr/>
séq-à-séq
Généralement, un modèle séquence à séquence est implémenté avec une [[architecture encodeur-décodeur]] en utilisant deux [[réseau récurrent|réseaux de neurones récurrents]], un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.  
séq.-à-séq.
<hr/>
seq-à-seq
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.
séquence-à-séquence
</poll></h3>
<h3>Discussion:</h3>
Pour le moment, le terme privilégié est «séq.-à-séq.».
<br/>


== Anglais ==
==Français==


'''modèle séquence à séquence''' 


'''Seq2Seq
'''modèle séq.-à-séq.''' 
'''
 
A Sequence-to-Sequence model reads a sequence (such as a sentence) as an input and produces another sequence as an output. It differs from a standard RNN in that the input sequence is completely read before the network starts producing any output. Typically, seq2seq models are implemented using two RNNs, functioning as encoders and decoders. Neural Machine Translation is a typical example of a seq2seq model.
'''modèle séq-à-séq'''
• Sequence to Sequence Learning with Neural Networks
 
'''réseau récurrent séquence à séquence'''
 
'''réseau de neurones récurrent séquence à séquence'''
 
'''réseau neuronal récurrent séquence à séquence'''
 
'''architecture séquence à séquence'''
 
'''architecture séq.-à-séq.'''
 
'''réseau séq.-à-séq.'''
 
'''séquence à séquence'''
 
'''séq.-à-séq.'''
 
'''séq-à-séq'''
 
==Anglais==
 
'''sequence to sequence model'''
 
'''sequence-to-sequence'''
 
'''seq2seq model'''
 
'''seq2seq architecture'''
 
'''seq2seq network'''
 
 
==Sources==
 
[https://en.wikipedia.org/wiki/Seq2seq Source: Wikipedia Seq2seq]
 
[https://theses.hal.science/tel-02077011/document Source: Thèse d'Edwin Simonnet]
 
[[Utilisateur:Patrickdrouin  | Source: Termino]]
 
[[Category:Apprentissage profond]]
[[Category:Intelligence artificielle]]
 
[[Category:Termino 2019]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 10:57

Définition

Modèle d'apprentissage qui transforme une séquence de données en entrée vers une nouvelle séquence de données en sortie.

Typiquement, on a un texte (ou une séquence de mots ou parties de mots en entrée) qui produit un autre texte (ou séquence de mots ou parties de mots) en sortie.

Compléments

Une point clé du modèle séquence à séquence est sa capacité de traiter des entrées et des sorties de longueurs variables.


Généralement, un modèle séquence à séquence est implémenté avec une architecture encodeur-décodeur en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur.


Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée. Un mécanisme d'attention peut être ajouté pour améliorer les performances.

Français

modèle séquence à séquence

modèle séq.-à-séq.

modèle séq-à-séq

réseau récurrent séquence à séquence

réseau de neurones récurrent séquence à séquence

réseau neuronal récurrent séquence à séquence

architecture séquence à séquence

architecture séq.-à-séq.

réseau séq.-à-séq.

séquence à séquence

séq.-à-séq.

séq-à-séq

Anglais

sequence to sequence model

sequence-to-sequence

seq2seq model

seq2seq architecture

seq2seq network


Sources

Source: Wikipedia Seq2seq

Source: Thèse d'Edwin Simonnet

Source: Termino