« Vecteur sémantique compact » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 27 : | Ligne 27 : | ||
'''représentation contextuelle compacte''' | '''représentation contextuelle compacte''' | ||
'''représentation contextuelle dense''' | |||
'''représentation contextuelle compressée''' | '''représentation contextuelle compressée''' | ||
'''plongement neuronal''' | |||
'''plongement''' | |||
'''représentation vectorielle compacte''' | '''représentation vectorielle compacte''' | ||
'''représentation vectorielle dense''' | '''représentation vectorielle dense''' | ||
Ligne 40 : | Ligne 44 : | ||
'''vecteur contextuel dense''' | '''vecteur contextuel dense''' | ||
'''vecteur contextuel | '''vecteur contextuel''' | ||
==Anglais== | ==Anglais== |
Version du 3 août 2023 à 04:04
Définition
Représentation résultant de l'opération mathématique qui permet de passer d'une représentation catégorielle et de son contexte à une représentation vectorielle contextuelle compacte (c.-à-d. de plus faible dimension) et continue (c.-à-d. des nombres réels).
Il en découle que des objets similaires possèdent des vecteurs correspondants qui sont proches selon une distance (ou métrique) dans l'espace vectoriel où sont définis ces objets.
Il s'agit d'une représentation distribuée qui tente de décrire la « sémantique » d'un objet en considérant ses relations avec d'autres objets de son contexte.
Typiquement, on crée une représentation contextuelle compacte avec un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et d'éloigner les objets différents.
Compléments
L'algorithme de création d'une représentation contextuelle compacte procède par approximation pour passer d'une représentation discrete qui prend en compte un objet et son contexte (statique ou dynamique, plus ou moins étendu) vers une représentation contextuelle compacte (c.-à-d. de plus faible dimension) et continue (c.-à-d. vecteur de nombres réels). D'où la proposition du terme « représentation contextuelle compacte ».
Attention! En français, on retrouve souvent le terme « plongement neuronal ». La notion mathématique de plongement, bien que proche car elle implique une réduction de la dimension de la représentation, ne couvre pas l'ensemble des concepts sous-jacents. Par exemple, la notion de contexte ou voisinage. Aussi le plongement est davantage une opération de création d'un sous-ensemble qu'une opération de réduction de la dimension obtenue par approximation. À discuter...
La modélisation par représentation contextuelle compacte, bien que souvent appliquée aux mots, vecteur-mot (word embedding), ne se limite pas à ces derniers et peut être appliquée à des phrases, des documents, des paragraphes, etc. La représentation contextuelle compacte peut également s'appliquer à d'autres représentations catégorielles comme les différentes marchandises dans un magasin.
Une représentation contextuelle compacte peut également être « utilisée » comme représentation latente. À discuter...
On distingue trois principaux usages des représentations contextuelles compacte:
- identifier les plus proches voisins d'un objet ou d'un concept;
- enrichir l'entrée de données d'un algorithme;
- visualiser des objets ou des concepts et leurs relations.
Français
représentation contextuelle compacte
représentation contextuelle dense
représentation contextuelle compressée
plongement neuronal
plongement
représentation vectorielle compacte
représentation vectorielle dense
vecteur contextuel compact
vecteur contextuel dense
vecteur contextuel
Anglais
embedding
neural embedding
Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki