« Réseau autoattentif » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
[[Category:Vocabulaire]]
 
[[Category:Intelligence artificielle]]
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Apprentissage profond]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Category:Scotty]]
[[Category:Scotty]]
Ligne 10 : Ligne 8 :
Architecture de réseau de neurones profond très performante en termes de calcul qui utilise le mécanisme d'attention, plus précisément l'auto-attention, pour remplacer à la fois la récurrence et les convolutions.  
Architecture de réseau de neurones profond très performante en termes de calcul qui utilise le mécanisme d'attention, plus précisément l'auto-attention, pour remplacer à la fois la récurrence et les convolutions.  


 
Note: Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.
Note
 
Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.
 


== Français ==
== Français ==
'''réseau de neurones à auto-attention'''
'''réseau de neurones à auto-attention'''


'''Transformer'''
'''Transformer'''
Source : Claude Coulombe




== Anglais ==
== Anglais ==
'''Transformer'''
'''Transformer'''






<br>
[[Utilisateur:Claude COULOMBE | source : Claude Coulombe, Datafranca.org]]

Version du 17 juin 2019 à 21:18


Définition

Architecture de réseau de neurones profond très performante en termes de calcul qui utilise le mécanisme d'attention, plus précisément l'auto-attention, pour remplacer à la fois la récurrence et les convolutions.

Note: Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.

Français

réseau de neurones à auto-attention

Transformer


Anglais

Transformer


source : Claude Coulombe, Datafranca.org