« Réseau neuronal de graphes auto-attentif » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(4 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 5 : | Ligne 5 : | ||
== Compléments == | == Compléments == | ||
On recense 3 approches à l'apprentissage automatique à partir de graphes : 1) l'utilisation d'un réseau convolutif (c.-à-d. réseau de graphes convolutif), 2) l'utilisation d'un réseau récurrent (c.-à-d. [[réseau de graphes récurrent]]) et 3) l'utilisation d'un réseau auto-attentif (c.-à-d. réseau de graphes auto-attentif). | On recense 3 approches à l'apprentissage automatique à partir de graphes : 1) l'utilisation d'un réseau convolutif (c.-à-d. [[réseau neuronal de graphes convolutif]]), 2) l'utilisation d'un réseau récurrent (c.-à-d. [[réseau neuronal de graphes récurrent]]) et 3) l'utilisation d'un réseau auto-attentif (c.-à-d. réseau de graphes auto-attentif). | ||
== Français == | == Français == | ||
''' réseau neuronal de graphes auto-attentif ''' | |||
''' réseau de graphes auto-attentif ''' | ''' réseau de graphes auto-attentif ''' | ||
''' RGAA ''' | ''' RGAA ''' | ||
''' RNGAA ''' | ''' RNGAA ''' | ||
Ligne 25 : | Ligne 25 : | ||
''' GANN ''' | ''' GANN ''' | ||
'''graph transformer''' | |||
<!-- A Graph Attention Network (GAT) is a neural network architecture that operates on graph-structured data, leveraging masked self-attentional layers to address the shortcomings of prior methods based on graph convolutions or their approximations. By stacking layers in which nodes are able to attend over their neighborhoods’ features, a GAT enables (implicitly) specifying different weights to different nodes in a neighborhood, without requiring any kind of costly matrix operation (such as inversion) or depending on knowing the graph structure upfront. --> | <!-- A Graph Attention Network (GAT) is a neural network architecture that operates on graph-structured data, leveraging masked self-attentional layers to address the shortcomings of prior methods based on graph convolutions or their approximations. By stacking layers in which nodes are able to attend over their neighborhoods’ features, a GAT enables (implicitly) specifying different weights to different nodes in a neighborhood, without requiring any kind of costly matrix operation (such as inversion) or depending on knowing the graph structure upfront. --> | ||
==Sources== | |||
[https://mila.quebec/wp-content/uploads/2018/07/d1ac95b60310f43bb5a0b8024522fbe08fb2a482.pdf Source : MILA] | [https://mila.quebec/wp-content/uploads/2018/07/d1ac95b60310f43bb5a0b8024522fbe08fb2a482.pdf Source : MILA] |
Dernière version du 28 janvier 2024 à 12:12
Définition
Architecture de réseau de neurones pour l'apprentissage automatique à partir de données structurées en graphes, qui exploite des couches d'auto-attention masquées afin de remédier aux lacunes des méthodes antérieures basées sur les réseaux convolutifs.
Compléments
On recense 3 approches à l'apprentissage automatique à partir de graphes : 1) l'utilisation d'un réseau convolutif (c.-à-d. réseau neuronal de graphes convolutif), 2) l'utilisation d'un réseau récurrent (c.-à-d. réseau neuronal de graphes récurrent) et 3) l'utilisation d'un réseau auto-attentif (c.-à-d. réseau de graphes auto-attentif).
Français
réseau neuronal de graphes auto-attentif
réseau de graphes auto-attentif
RGAA
RNGAA
Anglais
graph attention network
GAT
graph attention neural network
GANN
graph transformer
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki