« Mécanisme d'attention » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(26 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
[[Category:Vocabulaire]]<br />
Inspiré par l'attention visuelle humaine, un mécanisme d'attention est la capacité d'apprendre à se concentrer sur des parties spécifiques d'une données complexes, par exemple une partie d'une image ou certains mots dans une phrase. Des mécanismes d'attention peuvent être incorporés dans les architectures de traitement de la langue naturelle et de reconnaissance d'images pour aider un réseau de neurones artificiels à apprendre sur quoi "se concentrer" lorsqu'il fait des prédictions.
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
[[Category:Termino 2019]]
[[Category:Scotty]]


== Définition ==
== Compléments ==
Capacité d'un réseau de neurones d'apprendre à cibler des parties spécifiques d'une donnée complexe (image, phrase, etc.) dans son mécanisme de prédiction.
Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale. Perfectionné par des chercheurs de Google, le mécanisme d'attention et d'auto-attention (self-attention) est aujourd'hui à la base de nouvelles architectures de réseau de neurones très performantes comme l'architecture de [[réseau autoattentif]], en anglais ''Transformer''.


==Français==
'''mécanisme d'attention''' 


Note
'''attention''' 


Plus précisément, le réseau de neurones apprend une distribution statistique indiquant sur quoi se concentrer parmi les différentes parties d'une donnée complexe (mot d'une phrase, partie d'une image).
'''modèle d'attention visuelle '''  




== Français ==
==Anglais==
'''mécanisme d'attention'''
'''attention mechanism'''
 
'''attention'''
 
'''visual attention model '''
 
 
==Sources==
 
Source: Simonnet, Edwin (2019). ''Réseaux de neurones profonds appliqués à la compréhension de la parole'', Université du Maine, 182 pages.
 
[https://nuxeo.u-bourgogne.fr/nuxeo/site/esupversions/2496a7f0-c7f7-4400-9eed-f5fffb96b123 Muddamsetty, Satya M. Modèles d'attention visuelle pour l'analyse de scènes dynamiques. Université de Bourgogne, 7 juillet 2014, p. iv. Consulté : 2019-01-17.]
 
[https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-fra.html?lang=fra&i=1&srchtxt=MODELE+ATTENTION+VISUELLE&index=frt&codom2nd_wet=1#resultrecs    Source : TERMIUM Plus  ]
 
[[Utilisateur:Claude COULOMBE | source : Claude Coulombe, Datafranca.org]]
 
[[Utilisateur:Patrickdrouin  | Source: Termino]]


Source: Simonnet, Edwin (2019). Réseaux de neurones profonds appliqués à la compréhension de la parole, Université du Maine, 182 pages.


== Anglais ==
[[Category:Intelligence artificielle]]
'''attention mechanism'''
 
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 11 octobre 2024 à 08:33

Définition

Inspiré par l'attention visuelle humaine, un mécanisme d'attention est la capacité d'apprendre à se concentrer sur des parties spécifiques d'une données complexes, par exemple une partie d'une image ou certains mots dans une phrase. Des mécanismes d'attention peuvent être incorporés dans les architectures de traitement de la langue naturelle et de reconnaissance d'images pour aider un réseau de neurones artificiels à apprendre sur quoi "se concentrer" lorsqu'il fait des prédictions.

Compléments

Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale. Perfectionné par des chercheurs de Google, le mécanisme d'attention et d'auto-attention (self-attention) est aujourd'hui à la base de nouvelles architectures de réseau de neurones très performantes comme l'architecture de réseau autoattentif, en anglais Transformer.

Français

mécanisme d'attention

attention

modèle d'attention visuelle


Anglais

attention mechanism

attention

visual attention model


Sources

Source: Simonnet, Edwin (2019). Réseaux de neurones profonds appliqués à la compréhension de la parole, Université du Maine, 182 pages.

Muddamsetty, Satya M. Modèles d'attention visuelle pour l'analyse de scènes dynamiques. Université de Bourgogne, 7 juillet 2014, p. iv. Consulté : 2019-01-17.

Source : TERMIUM Plus

source : Claude Coulombe, Datafranca.org

Source: Termino