« Réseau neuronal de graphes auto-attentif » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(12 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Architectures de réseaux de neurones qui fonctionnent sur des données structurées en graphes, tirant parti des couches d'auto-attention masquées pour remédier aux lacunes des méthodes antérieures basées sur les convolutions de graphes ou leur approximations.
Architecture de réseau de neurones pour l'apprentissage automatique à partir de données structurées en graphes, qui exploite des couches d'auto-attention masquées afin de remédier aux lacunes des méthodes antérieures basées sur les [[réseau convolutif|réseaux convolutifs]].
 
 
== Compléments ==
 
On recense 3 approches à l'apprentissage automatique à partir de graphes : 1) l'utilisation d'un réseau convolutif (c.-à-d. [[réseau neuronal de graphes convolutif]]), 2) l'utilisation d'un réseau récurrent (c.-à-d. [[réseau neuronal de graphes récurrent]]) et 3) l'utilisation d'un réseau auto-attentif (c.-à-d. réseau de graphes auto-attentif).


== Français ==
== Français ==
''' réseau neuronal de graphes auto-attentif '''
''' réseau de graphes auto-attentif '''
''' réseau de graphes auto-attentif '''


''' RGAA '''
''' RNGAA '''


== Anglais ==
== Anglais ==
Ligne 10 : Ligne 20 :


''' GAT '''
''' GAT '''
''' graph attention neural network'''
''' GANN '''
'''graph transformer'''




<!-- A Graph Attention Network (GAT) is a neural network architecture that operates on graph-structured data, leveraging masked self-attentional layers to address the shortcomings of prior methods based on graph convolutions or their approximations. By stacking layers in which nodes are able to attend over their neighborhoods’ features, a GAT enables (implicitly) specifying different weights to different nodes in a neighborhood, without requiring any kind of costly matrix operation (such as inversion) or depending on knowing the graph structure upfront. -->
<!-- A Graph Attention Network (GAT) is a neural network architecture that operates on graph-structured data, leveraging masked self-attentional layers to address the shortcomings of prior methods based on graph convolutions or their approximations. By stacking layers in which nodes are able to attend over their neighborhoods’ features, a GAT enables (implicitly) specifying different weights to different nodes in a neighborhood, without requiring any kind of costly matrix operation (such as inversion) or depending on knowing the graph structure upfront. -->


<small>
==Sources==


[https://mila.quebec/wp-content/uploads/2018/07/d1ac95b60310f43bb5a0b8024522fbe08fb2a482.pdf Source : MILA]
[https://mila.quebec/wp-content/uploads/2018/07/d1ac95b60310f43bb5a0b8024522fbe08fb2a482.pdf Source : MILA]
Ligne 20 : Ligne 36 :
[https://paperswithcode.com/method/gat  Source : paperswithcode]
[https://paperswithcode.com/method/gat  Source : paperswithcode]


[https://arxiv.org/abs/2207.10168  Source: arXiv ]


[[Catégorie:Publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 12:12

Définition

Architecture de réseau de neurones pour l'apprentissage automatique à partir de données structurées en graphes, qui exploite des couches d'auto-attention masquées afin de remédier aux lacunes des méthodes antérieures basées sur les réseaux convolutifs.


Compléments

On recense 3 approches à l'apprentissage automatique à partir de graphes : 1) l'utilisation d'un réseau convolutif (c.-à-d. réseau neuronal de graphes convolutif), 2) l'utilisation d'un réseau récurrent (c.-à-d. réseau neuronal de graphes récurrent) et 3) l'utilisation d'un réseau auto-attentif (c.-à-d. réseau de graphes auto-attentif).

Français

réseau neuronal de graphes auto-attentif

réseau de graphes auto-attentif

RGAA

RNGAA

Anglais

graph attention network

GAT

graph attention neural network

GANN

graph transformer


Sources

Source : MILA

Source : paperswithcode

Source: arXiv