« Modèle d'attention » : différence entre les versions


m (Remplacement de texte — « <!-- Termium --> » par « Catégorie:Termium »)
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(7 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
[[Catégorie:Termium]]
[[Catégorie:Intelligence artificielle]]
[[Catégorie:scotty]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
==Définition==
==Définition==
Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots
Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots


==Français==
==Français==
'''modèle d'attention   '''n.m.
'''modèle d'attention '''


==Anglais==
==Anglais==
Ligne 14 : Ligne 9 :




<small>
 
==Sources==


Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. ''Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets'' 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. ''Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets'' 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document


[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs Source : TERMIUM Plus]
[[Catégorie:Intelligence artificielle]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 09:59

Définition

Les modèles d'attention permettent dans le cas de données séquentielles de fonder la décision du réseau sur certains mots. En effet, le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée (qui sont utiles) pour prédire la classe attendue, et très peu de poids aux autres mots

Français

modèle d'attention

Anglais

attention model


Sources

Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document

Source : TERMIUM Plus

Contributeurs: Jacques Barolet, wiki