« Réseau autoattentif » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(51 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
Le réseau autoattentif ou réseau de neurones autoattentif désigne une architecture de réseau de neurones profond, de [[Modèle séquence à séquence|séquence à séquence]], très performante. Il utilise le [[Mécanisme_d%27attention|mécanisme d'attention]], plus précisément l'autoattention, pour remplacer à la fois la récurrence et les convolutions.


[[Category:Vocabulaire]]Vocabulaire<br />
Le mécanisme d'autoattention permet d'améliorer considérablement la précision du réseau sur le plan sémantique et de traiter des jeux de données beaucoup plus volumineux car le traitement peut se faire plus facilement en parallèle grâce à l'[[apprentissage autosupervisé]].
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
 
[[Category:Apprentissage profond]]Apprentissage profond<br />
==Compléments==
[[Category:Termino 2019]]
Contrairement à un [[réseau récurrent]], un réseau autoattentif traite toutes les données d'entrée simultanément. Grâce au mécanisme d'autoattention, le réseau peut donner un poids (ou attention) variable à différentes parties de la séquence de données d'entrée mises en relation avec n'importe quelle autre partie de cette séquence.
[[Category:Scotty]]
<hr/>
Des exemples connus de réseaux ou de modèles autoattentifs sont: [[BERT]] de Google et [[GPT]] d'OpenAI. 
<hr/>
En anglais on dit self-attention learning et plus souvent transformer qui est un clin d'œil à la franchise de jouets et films japonais « Transformers ».
<hr/>
Les réseaux autoattentifs sont le prolongement des travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.
 
==Français==
 
'''réseau de neurones autoattentif''' 
 
'''réseau autoattentif'''


== Définition ==
'''modèle autoattentif'''
Architecture de réseau de neurones profond très performante en termes de calcul qui utilise le mécanisme d'attention, plus précisément l'auto-attention, pour remplacer à la fois la récurrence et les convolutions.


'''apprentissage autoatttentif'''


Note
'''architecture autoattentive'''


Soulignons les travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.
'''transformeur''' <small>(emploi plus rare)</small>


==Anglais==
'''transformer'''


== Français ==
'''transformer architecture'''


'''réseau de neurones à auto-attention'''
'''self-attention network'''


'''Transformer'''
'''self-attention neural network'''


'''self-attention learning'''


Source : Claude Coulombe
'''self-attention model'''


'''self-attention architecture'''


== Anglais ==
==Sources==


'''Transformer'''
[[Utilisateur:Claude COULOMBE | Source: Claude Coulombe, Datafranca.org]]


[[Utilisateur:Patrickdrouin  | Source: Termino]]


</small><br> {{Modèle:101}}<br>


<br>
[[Category:Intelligence artificielle]]
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]

Dernière version du 27 février 2024 à 15:56

Définition

Le réseau autoattentif ou réseau de neurones autoattentif désigne une architecture de réseau de neurones profond, de séquence à séquence, très performante. Il utilise le mécanisme d'attention, plus précisément l'autoattention, pour remplacer à la fois la récurrence et les convolutions.

Le mécanisme d'autoattention permet d'améliorer considérablement la précision du réseau sur le plan sémantique et de traiter des jeux de données beaucoup plus volumineux car le traitement peut se faire plus facilement en parallèle grâce à l'apprentissage autosupervisé.

Compléments

Contrairement à un réseau récurrent, un réseau autoattentif traite toutes les données d'entrée simultanément. Grâce au mécanisme d'autoattention, le réseau peut donner un poids (ou attention) variable à différentes parties de la séquence de données d'entrée mises en relation avec n'importe quelle autre partie de cette séquence.


Des exemples connus de réseaux ou de modèles autoattentifs sont: BERT de Google et GPT d'OpenAI.


En anglais on dit self-attention learning et plus souvent transformer qui est un clin d'œil à la franchise de jouets et films japonais « Transformers ».


Les réseaux autoattentifs sont le prolongement des travaux pionniers du laboratoire MILA dirigé par Yoshua Bengio à l'Université de Montréal qui ont défini un mécanisme d'attention utilisé en traduction automatique neuronale.

Français

réseau de neurones autoattentif

réseau autoattentif

modèle autoattentif

apprentissage autoatttentif

architecture autoattentive

transformeur (emploi plus rare)

Anglais

transformer

transformer architecture

self-attention network

self-attention neural network

self-attention learning

self-attention model

self-attention architecture

Sources

Source: Claude Coulombe, Datafranca.org

Source: Termino



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »