« Modèle d'attention » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 16 : Ligne 16 :
<small>
<small>


Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets. 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. ''Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets'' 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document


[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]

Version du 18 juin 2019 à 20:45


Définition

[Les] modèles d'attention [...] permettent dans le cas de données séquentielles [...] de fonder la décision du réseau sur [...] certains mots. [En effet,] le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée [qui sont utiles] pour prédire la classe attendue, et très peu de poids aux autres mots

Français

modèle d'attention n.m.

Anglais

attention model


Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document

Source : TERMIUM Plus



Contributeurs: Jacques Barolet, wiki