« Réseau autoattentif » : différence entre les versions
(Page créée avec « == Domaine == Category:VocabulaireVocabulaire<br /> Category:Intelligence artificielleIntelligence artificielle<br /> Category:Apprentissage profondAppren... ») Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 23 : | Ligne 23 : | ||
Source : Claude Coulombe | |||
Version du 10 juin 2019 à 19:25
Domaine
Vocabulaire
Intelligence artificielle
Apprentissage profond
Définition
Architecture de réseau de neurones profond très performante en termes de calcul qui utilise le mécanisme d'attention, plus précisément l'auto-attention, pour remplacer à la fois la récurrence et les convolutions.
Note
Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.
Français
réseau de neurones à auto-attention
Transformer
Source : Claude Coulombe
Anglais
Transformer
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki