« Réseau autoattentif » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Le réseau autoattentif ou réseau de neurones autoattentif désigne une architecture de réseau de neurones profond de séquence à séquence très performante qui utilise le mécanisme d'attention, plus précisément l'autoattention, pour remplacer à la fois la récurrence et les convolutions. | |||
==Compléments== | |||
En anglais on dit self-attention learning et plus souvent transformer qui est un clin d'œil à la franchise de jouets et films japonais « Transformers ». | |||
Les réseaux autoattentifs sont issus des travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale. | |||
==Français== | ==Français== | ||
'''réseau de neurones autoattentif''' | |||
'''réseau autoattentif''' | |||
'''modèle autoattentif''' | |||
'''apprentissage autoatttentif''' | |||
'''réseau de neurones à autoattention''' | '''réseau de neurones à autoattention''' | ||
'''réseau à autoattention''' | '''réseau à autoattention''' | ||
''' | '''transformeur''' | ||
==Anglais== | ==Anglais== | ||
'''Transformer''' | '''Transformer''' | ||
'''self-attention network''' | |||
'''self-attention learning''' | |||
<small> | <small> | ||
Ligne 20 : | Ligne 36 : | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] | ||
</small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html> | </small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html> | ||
<br></div><br><br> | <br></div><br><br> | ||
[[Category:Intelligence artificielle]] | [[Category:Intelligence artificielle]] | ||
Ligne 32 : | Ligne 45 : | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:101]] | [[Catégorie:101]] | ||
[[Catégorie:PUBLICATION]] |
Version du 13 août 2022 à 14:40
Définition
Le réseau autoattentif ou réseau de neurones autoattentif désigne une architecture de réseau de neurones profond de séquence à séquence très performante qui utilise le mécanisme d'attention, plus précisément l'autoattention, pour remplacer à la fois la récurrence et les convolutions.
Compléments
En anglais on dit self-attention learning et plus souvent transformer qui est un clin d'œil à la franchise de jouets et films japonais « Transformers ».
Les réseaux autoattentifs sont issus des travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.
Français
réseau de neurones autoattentif
réseau autoattentif
modèle autoattentif
apprentissage autoatttentif
réseau de neurones à autoattention
réseau à autoattention
transformeur
Anglais
Transformer
self-attention network
self-attention learning
Source: Claude Coulombe, Datafranca.org
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki