Attention Mechanism




Définition

Inspiré par l'attention visuelle humaine, un mécanisme d'attention est la capacité d'apprendre à se concentrer sur des parties spécifiques d'une données complexes, par exemple une partie d'une image ou un mot dans un phrase. Des mécanismes d'attention peuvent être incorporés dans les architectures de traitement de la langue naturelle et de reconnaissance d'images pour aider un réseau de neurones artificiels à apprendre sur quoi "se concentrer" lorsqu'il fait des prédictions.

Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale. Perfectionné par des chercheurs de Google, le mécanisme d'attention et d'auto-attention (self-attention) est aujourd'hui à la base de nouvelles architectures de réseau de neurones très performantes comme l'architecture Transformer.

Français

mécanisme d'attention

attention

modèle d'attention visuelle

Anglais

Attention Mechanism

visual attention model



Muddamsetty, Satya M. Modèles d'attention visuelle pour l'analyse de scènes dynamiques [thèse de doctorat]. Université de Bourgogne, 7 juillet 2014, p. iv. Consulté : 2019-01-17. https://nuxeo.u-bourgogne.fr/nuxeo/site/esupversions/2496a7f0-c7f7-4400-9eed-f5fffb96b123

Source : TERMIUM Plus

source : Claude Coulombe, Datafranca.org

 Contributeurs : Claude Coulombe, admin