« Modèle d'attention » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 3 : | Ligne 3 : | ||
==Français== | ==Français== | ||
'''modèle d'attention ''' | '''modèle d'attention ''' | ||
==Anglais== | ==Anglais== | ||
Ligne 9 : | Ligne 9 : | ||
==Sources== | |||
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. ''Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets'' 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document | Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. ''Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets'' 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document |
Dernière version du 28 janvier 2024 à 09:59
Définition
Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots
Français
modèle d'attention
Anglais
attention model
Sources
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document
Contributeurs: Jacques Barolet, wiki