« Modèle d'attention » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications |
||
Ligne 5 : | Ligne 5 : | ||
==Définition== | ==Définition== | ||
Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots | |||
==Français== | ==Français== |
Version du 18 juin 2019 à 19:47
Définition
Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots
Français
modèle d'attention n.m.
Anglais
attention model
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document
Contributeurs: Jacques Barolet, wiki