« Pondération attentionnelle » : différence entre les versions
(Page créée avec « == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Attention-Weighting''' Attention-weighting is a technique by which the model learns which part of the incoming sequence needs to be focused on. Think of it as the ‘Eye of Sauron’ scanning everything at all times and throwing light on the parts that are relevant. == Source == [https://arxiv.org/pdf/2211.07714 Source : arxiv] Catégorie:vocabulary ») |
Aucun résumé des modifications |
||
(6 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
[[Mécanisme d'attention]] qui attribue un [[poids]] aux différents éléments qui constitue une [[Séquence de mots|séquence]] en fonction de leur importance. | |||
== Compléments == | |||
Par exemple, en [[traitement automatique de la langue]], le [[mécanisme d'attention]] attribuera des [[poids]] différents aux mots en fonction des liens entre les mots et de leur différent rôle linguistique. | |||
Nous proposons d'adopter le terme ''pondération attentionnelle'' qui est déjà en utilisation dans le domaine de la psychologie pour désigner un concept similaire. | |||
== Français == | == Français == | ||
''' | ''' pondération attentionnelle ''' | ||
''' pondération de l'attention ''' | |||
== Anglais == | == Anglais == | ||
''' Attention-Weighting''' | ''' Attention-Weighting''' | ||
Attention-weighting is a technique by which the model learns which part of the incoming sequence needs to be focused on. Think of it as the ‘Eye of Sauron’ scanning everything at all times and throwing light on the parts that are relevant. | '''Attention Weights''' | ||
<!-- Attention-weighting is a technique by which the model learns which part of the incoming sequence needs to be focused on. Think of it as the ‘Eye of Sauron’ scanning everything at all times and throwing light on the parts that are relevant. | |||
In natural language processing, this usually means assigning different levels of importance to different words in a sentence. It assigns importance to each word by calculating "soft" weights for the word's numerical representation, known as its embedding, within a specific section of the sentence called the context window to determine its importance. The calculation of these weights can occur simultaneously in models called transformers, or one by one in models known as recurrent neural networks. Unlike "hard" weights, which are predetermined and fixed during training, "soft" weights can --> | |||
== Source == | == Source == | ||
[https://doi.org/10.1146/annurev.psych.49.1.585 Source : Goldstone, R. L. (1998). ''Perceptual Learning. Annual Review of Psychology''] | |||
[https://arxiv.org/pdf/2211.07714 Source : arxiv] | [https://arxiv.org/pdf/2211.07714 Source : arxiv] | ||
[https://en.wikipedia.org/wiki/Attention_(machine_learning) Source: wiki] | |||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Version du 11 septembre 2024 à 19:48
Définition
Mécanisme d'attention qui attribue un poids aux différents éléments qui constitue une séquence en fonction de leur importance.
Compléments
Par exemple, en traitement automatique de la langue, le mécanisme d'attention attribuera des poids différents aux mots en fonction des liens entre les mots et de leur différent rôle linguistique.
Nous proposons d'adopter le terme pondération attentionnelle qui est déjà en utilisation dans le domaine de la psychologie pour désigner un concept similaire.
Français
pondération attentionnelle
pondération de l'attention
Anglais
Attention-Weighting
Attention Weights
Source
Source : Goldstone, R. L. (1998). Perceptual Learning. Annual Review of Psychology
Contributeurs: Arianne , Patrick Drouin, wiki