« Autoattention multitêtes » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(7 versions intermédiaires par 3 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
En [[apprentissage profond]], l'[[Mécanisme d'attention|autoattention]] multitêtes est un traitement de [[Séquence de mots| | En [[apprentissage profond]], l'[[Mécanisme d'attention|autoattention]] multitêtes est un traitement de [[Séquence de mots|séquence]] (typiquement en [[langue naturelle]]) qui consiste à paralléliser le mécanisme d'[[Mécanisme d'attention|autoattention]] en plusieurs points de la [[Séquence de mots|séquence]] pour ensuite fusionner les résultats. | ||
== Compléments == | |||
Puisque chaque tête prête attention à un élément distinct de la séquence, le modèle capture mieux les effets de la position dans la séquence. Il en résulte une représentation plus riche. | |||
<hr/> | |||
En fonction des [[segment|segments]] sur lesquels se focalise l'[[Mécanisme d'attention|attention]], le [[Mécanisme d'attention|mécanisme]] pourra vérifier l'accord sujet-verbe, reconnaîtra une entité nommée ou simplement une relation entre deux mots. | |||
== Français == | == Français == | ||
Ligne 7 : | Ligne 12 : | ||
''' Autoattention multi-têtes ''' | ''' Autoattention multi-têtes ''' | ||
'''Attention multitêtes''' | |||
'''Attention multi-têtes''' | |||
== Anglais == | == Anglais == | ||
Ligne 12 : | Ligne 21 : | ||
''' Multi-Head Self-Attention''' | ''' Multi-Head Self-Attention''' | ||
<!-- Multi-head Attention is a module for attention mechanisms which runs through an attention mechanism several times in parallel. The independent attention outputs are then concatenated and linearly transformed into the expected dimension. Intuitively, multiple attention heads allows for attending to parts of the sequence differently (e.g. longer-term dependencies versus shorter-term dependencies). --> | |||
<!-- Multi-head Attention is a module for attention mechanisms which runs through an attention mechanism several times in parallel. The independent attention outputs are then concatenated and linearly transformed into the expected dimension. Intuitively, multiple attention heads allows for attending to parts of the sequence differently (e.g. longer-term dependencies versus shorter-term dependencies). | |||
--> | |||
== Source == | == Source == | ||
[https://infoscience.epfl.ch/record/300271/files/EPFL_TH9822.pdf Cordonnier, J.-B. (2023), ''Transformer Models for Vision''.] | [https://infoscience.epfl.ch/record/300271/files/EPFL_TH9822.pdf Cordonnier, J.-B. (2023), ''Transformer Models for Vision''.] | ||
Ligne 24 : | Ligne 29 : | ||
[https://cs.paperswithcode.com/method/multi-head-attention Vaswani et al. (2017) ''Attention Is All You Need''] | [https://cs.paperswithcode.com/method/multi-head-attention Vaswani et al. (2017) ''Attention Is All You Need''] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 4 septembre 2024 à 18:54
Définition
En apprentissage profond, l'autoattention multitêtes est un traitement de séquence (typiquement en langue naturelle) qui consiste à paralléliser le mécanisme d'autoattention en plusieurs points de la séquence pour ensuite fusionner les résultats.
Compléments
Puisque chaque tête prête attention à un élément distinct de la séquence, le modèle capture mieux les effets de la position dans la séquence. Il en résulte une représentation plus riche.
En fonction des segments sur lesquels se focalise l'attention, le mécanisme pourra vérifier l'accord sujet-verbe, reconnaîtra une entité nommée ou simplement une relation entre deux mots.
Français
Autoattention multitêtes
Autoattention multi-têtes
Attention multitêtes
Attention multi-têtes
Anglais
Multi-Head Attention
Multi-Head Self-Attention
Source
Cordonnier, J.-B. (2023), Transformer Models for Vision.
Punyakeerthi (2024), Difference between Self-Attention and Multi-head Self-Attention
Contributeurs: Claude Coulombe, Patrick Drouin, wiki