« Mécanisme d'attention » : différence entre les versions
m (Remplacement de texte — « Catégorie:100 » par « ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Inspiré par l'attention visuelle humaine, un mécanisme d'attention est la capacité d'apprendre à se concentrer sur des parties spécifiques d'une données complexes, par exemple une partie d'une image ou un mot dans un phrase. Des mécanismes d'attention peuvent être incorporés dans les architectures de traitement de la langue naturelle et de reconnaissance d'images pour aider un réseau de neurones artificiels à apprendre sur quoi "se concentrer" lorsqu'il fait des prédictions. | Inspiré par l'attention visuelle humaine, un mécanisme d'attention est la capacité d'apprendre à se concentrer sur des parties spécifiques d'une données complexes, par exemple une partie d'une image ou un mot dans un phrase. Des mécanismes d'attention peuvent être incorporés dans les architectures de traitement de la langue naturelle et de reconnaissance d'images pour aider un réseau de neurones artificiels à apprendre sur quoi "se concentrer" lorsqu'il fait des prédictions. | ||
Ligne 13 : | Ligne 7 : | ||
'''mécanisme d'attention''' <small>loc. nom. masc.</small> | '''mécanisme d'attention''' <small>loc. nom. masc.</small> | ||
'''attention''' | '''attention''' <small>nom fém. </small> | ||
'''modèle d'attention visuelle ''' | '''modèle d'attention visuelle ''' <small> loc. nom. fém. </small> | ||
Ligne 22 : | Ligne 16 : | ||
'''visual attention model ''' | '''visual attention model ''' | ||
Ligne 36 : | Ligne 29 : | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] | ||
[[Category:Intelligence artificielle]] | |||
[[Category:Termino 2019]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] |
Version du 7 mai 2020 à 12:57
Définition
Inspiré par l'attention visuelle humaine, un mécanisme d'attention est la capacité d'apprendre à se concentrer sur des parties spécifiques d'une données complexes, par exemple une partie d'une image ou un mot dans un phrase. Des mécanismes d'attention peuvent être incorporés dans les architectures de traitement de la langue naturelle et de reconnaissance d'images pour aider un réseau de neurones artificiels à apprendre sur quoi "se concentrer" lorsqu'il fait des prédictions.
Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale. Perfectionné par des chercheurs de Google, le mécanisme d'attention et d'auto-attention (self-attention) est aujourd'hui à la base de nouvelles architectures de réseau de neurones très performantes comme l'architecture Transformer.
Français
mécanisme d'attention loc. nom. masc.
attention nom fém.
modèle d'attention visuelle loc. nom. fém.
Anglais
Attention Mechanism
visual attention model
Source: Simonnet, Edwin (2019). Réseaux de neurones profonds appliqués à la compréhension de la parole, Université du Maine, 182 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki