« Réseau autoattentif » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
Le réseau autoattentif ou réseau de neurones autoattentif désigne une architecture de réseau de neurones profond, de [[Modèle séquence à séquence|séquence à séquence]], très performante. Il utilise le [[Mécanisme_d%27attention|mécanisme d'attention]], plus précisément l'autoattention, pour remplacer à la fois la récurrence et les convolutions. | Le réseau autoattentif ou réseau de neurones autoattentif désigne une architecture de réseau de neurones profond, de [[Modèle séquence à séquence|séquence à séquence]], très performante. Il utilise le [[Mécanisme_d%27attention|mécanisme d'attention]], plus précisément l'autoattention, pour remplacer à la fois la récurrence et les convolutions. | ||
Le mécanisme d'autoattention permet d'améliorer considérablement la précision du réseau sur le plan sémantique et de traiter des jeux de données beaucoup plus volumineux. | Le mécanisme d'autoattention permet d'améliorer considérablement la précision du réseau sur le plan sémantique et de traiter des jeux de données beaucoup plus volumineux car le traitement peut se faire plus facilement en parallèle. | ||
==Compléments== | ==Compléments== |
Version du 22 mars 2023 à 16:47
Définition
Le réseau autoattentif ou réseau de neurones autoattentif désigne une architecture de réseau de neurones profond, de séquence à séquence, très performante. Il utilise le mécanisme d'attention, plus précisément l'autoattention, pour remplacer à la fois la récurrence et les convolutions.
Le mécanisme d'autoattention permet d'améliorer considérablement la précision du réseau sur le plan sémantique et de traiter des jeux de données beaucoup plus volumineux car le traitement peut se faire plus facilement en parallèle.
Compléments
Contrairement à un réseau récurrent, un réseau autoattentif traite toutes les données d'entrée simultanément. Grâce au mécanisme d'autoattention, le réseau peut donner un poids (ou attention) variable à différentes parties de la séquence de données d'entrée mises en relation avec n'importe quelle autre partie de cette séquence.
En anglais on dit self-attention learning et plus souvent transformer qui est un clin d'œil à la franchise de jouets et films japonais « Transformers ».
Les réseaux autoattentifs sont issus des travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.
Français
réseau de neurones autoattentif
réseau autoattentif
modèle autoattentif
apprentissage autoatttentif
réseau de neurones à autoattention
réseau à autoattention
transformeur
Anglais
Transformer
self-attention network
self-attention learning
Source: Claude Coulombe, Datafranca.org
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki