« Modèle d'attention » : différence entre les versions
m (Remplacement de texte — « Catégorie:scotty2 » par « ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots | Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots | ||
==Français== | ==Français== | ||
'''modèle d'attention | '''modèle d'attention '' <small>nom masc. </small> | ||
==Anglais== | ==Anglais== | ||
Ligne 19 : | Ligne 14 : | ||
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus] | [https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus] | ||
[[Catégorie:Termium]] | |||
[[Catégorie:Intelligence artificielle]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] |
Version du 7 mai 2020 à 12:43
Définition
Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots
Français
'modèle d'attention nom masc.
Anglais
attention model
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document
Contributeurs: Jacques Barolet, wiki