« Modèle séquence à séquence » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
[[Category:Vocabulaire]]
[[Category:Vocabulaire]]
[[Category:Apprentissage profond]] Apprentissage profond<br/>
[[Category:Apprentissage profond]]  
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
[[Category:Intelligence artificielle]]
[[Category:Coulombe]]
[[Category:Coulombe]]
[[Category:scotty]]
[[Category:scotty]]
Ligne 10 : Ligne 9 :
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.  
Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.  


Note
Note: Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur.
 
Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur.


Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur.
Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur.


Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.  
Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.  


== Français ==
== Français ==
Ligne 25 : Ligne 21 :


'''modèle seq2seq'''
'''modèle seq2seq'''
Source : Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.
Source : Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf, consulté le 30 mai 2019.


== Anglais ==
== Anglais ==
Ligne 37 : Ligne 28 :


'''encoder-decoder model'''
'''encoder-decoder model'''
<small>
Source : Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.
Source : Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf, consulté le 30 mai 2019.
[[Utilisateur:Patrickdrouin  | Source : Termino  ]]

Version du 17 juin 2019 à 21:00


Définition

Réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.

Note: Généralement, un modèle séq.-à-séq. est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur.

Dans les modèles séquence à séquence, l'entrée et la sortie ne sont pas nécessairement de la même longueur.

Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.

Français

modèle séquence à séquence

modèle encodeur-décodeur

modèle seq2seq

Anglais

sequence to sequence model

seq2seq model

encoder-decoder model


Source : Henri Lasselin (2018). Make text look like speech: disfluency generation using sequence-to-sequence neuralnetworks Domain, rapport de stages, 44 pages.

Source : Marceau Caron, Gaétan (2017), Réseaux pour le langage, Montréal IVADO, http://ivado.ca/wp-content/uploads/2017/08/2017-08-24-3-MarceauCaron-Langage.pdf, consulté le 30 mai 2019.

Source : Termino