« Modèle d'attention » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(12 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
[[Catégorie:Termium]]
[[Catégorie:Intelligence artificielle]]
[[Catégorie:scotty]]
[[Catégorie:9]]
==Définition==
==Définition==
[Les] modèles d'attention [...] permettent dans le cas de données séquentielles [...] de fonder la décision du réseau sur [...] certains mots. [En effet,] le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée [qui sont utiles] pour prédire la classe attendue, et très peu de poids aux autres mots
Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots


==Français==
==Français==
'''modèle d'attention   '''n.m.
'''modèle d'attention '''


==Anglais==
==Anglais==
Ligne 14 : Ligne 9 :




<small>


Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets. 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document
==Sources==
 
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. ''Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets'' 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document


[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]
[[Catégorie:Intelligence artificielle]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 09:59

Définition

Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots

Français

modèle d'attention

Anglais

attention model


Sources

Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document

Source : TERMIUM Plus

Contributeurs: Jacques Barolet, wiki