« Modèle d'attention » : différence entre les versions


(Page créée avec « == Domaine == Catégorie:Termium Catégorie:Intelligence artificielleIntelligence artificielle<br> Catégorie:scotty <br> == Définition == [Les] modèles d'... »)
Balise : Éditeur de wikicode 2017
 
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
[[Catégorie:Termium]]
[[Catégorie:Termium]]
[[Catégorie:Intelligence artificielle]]Intelligence artificielle<br>
[[Catégorie:Intelligence artificielle]]
[[Catégorie:scotty]]  
[[Catégorie:scotty]]  
<br>


== Définition ==
== Définition ==
[Les] modèles d'attention [...] permettent dans le cas de données séquentielles [...] de fonder la décision du réseau sur [...] certains mots. [En effet,] le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée [qui sont utiles] pour prédire la classe attendue, et très peu de poids aux autres mots
[Les] modèles d'attention [...] permettent dans le cas de données séquentielles [...] de fonder la décision du réseau sur [...] certains mots. [En effet,] le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée [qui sont utiles] pour prédire la classe attendue, et très peu de poids aux autres mots


== Français ==
== Français ==
'''modèle d'attention '''
'''modèle d'attention '''


== Anglais ==
== Anglais ==
'''attention model '''
'''attention model '''


<small>


Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets. 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document
Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets. 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document


[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs    Source : TERMIUM Plus  ]
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION&index=frt&codom2nd_wet=1#resultrecs    Source : TERMIUM Plus  ]

Version du 18 juin 2019 à 11:12


Définition

[Les] modèles d'attention [...] permettent dans le cas de données séquentielles [...] de fonder la décision du réseau sur [...] certains mots. [En effet,] le réseau va être entraîné à donner beaucoup de poids aux mots de l'entrée [qui sont utiles] pour prédire la classe attendue, et très peu de poids aux autres mots

Français

modèle d'attention

Anglais

attention model


Minard, Anne-Lyse, Christian Raymond et Vincent Claveau. Participation de l'IRISA à DeFT 2018 : classification et annotation d'opinion dans des tweets. 2018. Consulté : 2019-01-17. https://hal.archives-ouvertes.fr/hal-01844261/document

Source : TERMIUM Plus

Contributeurs: Jacques Barolet, wiki