« Réseau autoattentif » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 6 : Ligne 6 :
==Français==
==Français==
'''réseau de neurones à auto-attention'''   
'''réseau de neurones à auto-attention'''   
'''réseau à auto-attention'''
'''Réseau auto-attentif'''


==Anglais==
==Anglais==

Version du 23 juillet 2022 à 17:58

Définition

Architecture de réseau de neurones profonds très performante en termes de calcul qui utilise le mécanisme d'attention, plus précisément l'auto-attention, pour remplacer à la fois la récurrence et les convolutions.

Note: soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.

Français

réseau de neurones à auto-attention

réseau à auto-attention

Réseau auto-attentif

Anglais

Transformer


Source: Claude Coulombe, Datafranca.org

Source: Termino