« Modèle d'attention » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Ligne 4 : Ligne 4 :
[[Catégorie:9]]
[[Catégorie:9]]


== Définition ==
==Définition==
[Les] modèles d'attention [...] permettent dans le cas de données séquentielles [...] de fonder la décision du réseau sur [...] certains mots. [En effet,] le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée [qui sont utiles] pour prédire la classe attendue, et très peu de poids aux autres mots
[Les] modèles d'attention [...] permettent dans le cas de données séquentielles [...] de fonder la décision du réseau sur [...] certains mots. [En effet,] le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée [qui sont utiles] pour prédire la classe attendue, et très peu de poids aux autres mots


== Français ==
==Français==
'''modèle d'attention '''
'''modèle d'attention   '''n.m.


== Anglais ==
==Anglais==
'''attention model '''
'''attention model '''


Ligne 18 : Ligne 18 :
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets. 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets. 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document


[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs   Source : TERMIUM Plus ]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]

Version du 18 juin 2019 à 20:44


Définition

[Les] modèles d'attention [...] permettent dans le cas de données séquentielles [...] de fonder la décision du réseau sur [...] certains mots. [En effet,] le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée [qui sont utiles] pour prédire la classe attendue, et très peu de poids aux autres mots

Français

modèle d'attention n.m.

Anglais

attention model


Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets. 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document

Source : TERMIUM Plus



Contributeurs: Jacques Barolet, wiki