« Vecteur contextuel compact » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(76 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
[[Category:Vocabulaire]]
En [[apprentissage profond]], un vecteur contextuel compact fait référence à une représentation vectorielle dense et de faible dimension d’un objet de dimension supérieure.
[[Category:Intelligence artificielle]]Intelligence artificielle<br />
 
[[Category:Apprentissage profond]]Apprentissage profond<br>
Cette représentation résulte de l'opération mathématique qui permet de passer d'une représentation en haute dimension et habituellement de son contexte à une représentation vectorielle contextuelle compacte (c.-à-d. de plus faible dimension) et continue (c.-à-d. des nombres réels).
[[Category:Termino 2019]]
 
[[Category:Scotty]]
Il en découle que des objets similaires possèdent des vecteurs correspondants qui sont proches selon une distance (ou métrique) dans l'espace vectoriel où sont définis ces objets.
== Définition ==
 
Modèle résultant de l'opération mathématique qui permet de passer d'une représentation vectorielle à une nouvelle représentation où les objets similaires possèdent des vecteurs correspondants qui sont proches dans l'espace vectoriel où sont définis ces vecteurs (typiquement par un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et éloigne les objets différents).  
Il s'agit d'une représentation distribuée qui décrit la « sémantique » d'un objet en considérant ses relations avec d'autres objets de son contexte.
 
Typiquement, on crée une représentation contextuelle compacte avec un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et d'éloigner les objets différents.  
 
Voir aussi: [[vecteur contextuel]]


==Compléments==


L'algorithme de création d'un vecteur contextuel compact procède par approximation pour passer d'une représentation discrète qui prend en compte un objet et son contexte (statique ou dynamique, plus ou moins étendu) vers une représentation contextuelle compacte (c.-à-d. de plus faible dimension) et continue (c.-à-d. vecteur de nombres réels). D'où la proposition du terme « vecteur contextuel compact » ou encore « représentation contextuelle compacte ». À discuter...
<hr/>
Attention! En français, on retrouve souvent le terme « plongement neuronal ». La notion mathématique de plongement, bien que proche, car elle implique une réduction de la dimension de la représentation, ne couvre pas l'ensemble des concepts sous-jacents. Par exemple, la notion de contexte ou voisinage. Aussi le plongement est davantage assimilée à une opération de création d'un sous-ensemble qu'à une opération de réduction de la dimension obtenue par approximation. À discuter... 
<hr/>
La modélisation par vecteur contextuel compact, bien que souvent appliquée aux mots, [[vecteur-mot]] (word embedding), ne se limite pas à des mots et peut être appliquée à des phrases, des documents, des paragraphes, etc. La représentation par vecteur contextuel compact peut également s'appliquer à d'autres représentations catégorielles comme les différentes marchandises dans un magasin. 
<hr/>
Un vecteur contextuel compact peut également être « utilisée » comme représentation latente. À discuter...
<hr/>
On distingue trois principaux usages des vecteurs contextuels compacts:


Note
*identifier les plus proches voisins d'un objet ou d'un concept;
*enrichir l'entrée de données d'un algorithme d'apprentissage;
*visualiser des objets ou des concepts et leurs relations.


La modélisation vectorielle, bien que souvent appliquée aux mots, ne se limite pas à ceux derniers et peut être appliquée à des phrases, des documents, des pragraphes, etc.
==Français==


'''vecteur contextuel compact'''


Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
'''vecteur sémantique compact'''


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
'''représentation contextuelle compacte'''


Source: Google, Glossaire du machine learning, https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, consulté le 20 mai 2019.
'''représentation sémantique compacte'''


'''plongement neuronal'''


'''plongement''' 


== Français ==
'''représentation vectorielle compacte'''
'''représentation vectorielle continue'''


'''plongement vectoriel'''  
'''vecteur contextuel'''


'''plongement'''
'''vecteur sémantique'''
   
   
==Anglais==
== Anglais ==
'''embedding'''
 
'''neural embedding'''
 
==Sources==
 
Source: Géron, Aurélien (2017) ''Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets'', Paris, Dunod, 256 pages.
 
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.


[https://developers.google.com/machine-learning/crash-course/glossary Source: ''Google, Glossaire du machine learning''.]


'''embedding'''


An embedding maps an input representation, such as a word or sentence, into a vector. A popular type of embedding are word embeddings such as word2vec or GloVe. We can also embed sentences, paragraphs or images. For example, by mapping images and their textual descriptions into a common embedding space and minimizing the distance between them, we can match labels with images. Embeddings can be learned explicitly, such as in word2vec, or as part of a supervised task, such as Sentiment Analysis. Often, the input layer of a network is initialized with pre-trained embeddings, which are then fine-tuned to the task at hand.
[[Category:Termino 2019]]
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 14 mars 2024 à 05:52

Définition

En apprentissage profond, un vecteur contextuel compact fait référence à une représentation vectorielle dense et de faible dimension d’un objet de dimension supérieure.

Cette représentation résulte de l'opération mathématique qui permet de passer d'une représentation en haute dimension et habituellement de son contexte à une représentation vectorielle contextuelle compacte (c.-à-d. de plus faible dimension) et continue (c.-à-d. des nombres réels).

Il en découle que des objets similaires possèdent des vecteurs correspondants qui sont proches selon une distance (ou métrique) dans l'espace vectoriel où sont définis ces objets.

Il s'agit d'une représentation distribuée qui décrit la « sémantique » d'un objet en considérant ses relations avec d'autres objets de son contexte.

Typiquement, on crée une représentation contextuelle compacte avec un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et d'éloigner les objets différents.

Voir aussi: vecteur contextuel

Compléments

L'algorithme de création d'un vecteur contextuel compact procède par approximation pour passer d'une représentation discrète qui prend en compte un objet et son contexte (statique ou dynamique, plus ou moins étendu) vers une représentation contextuelle compacte (c.-à-d. de plus faible dimension) et continue (c.-à-d. vecteur de nombres réels). D'où la proposition du terme « vecteur contextuel compact » ou encore « représentation contextuelle compacte ». À discuter...


Attention! En français, on retrouve souvent le terme « plongement neuronal ». La notion mathématique de plongement, bien que proche, car elle implique une réduction de la dimension de la représentation, ne couvre pas l'ensemble des concepts sous-jacents. Par exemple, la notion de contexte ou voisinage. Aussi le plongement est davantage assimilée à une opération de création d'un sous-ensemble qu'à une opération de réduction de la dimension obtenue par approximation. À discuter...


La modélisation par vecteur contextuel compact, bien que souvent appliquée aux mots, vecteur-mot (word embedding), ne se limite pas à des mots et peut être appliquée à des phrases, des documents, des paragraphes, etc. La représentation par vecteur contextuel compact peut également s'appliquer à d'autres représentations catégorielles comme les différentes marchandises dans un magasin.


Un vecteur contextuel compact peut également être « utilisée » comme représentation latente. À discuter...


On distingue trois principaux usages des vecteurs contextuels compacts:

  • identifier les plus proches voisins d'un objet ou d'un concept;
  • enrichir l'entrée de données d'un algorithme d'apprentissage;
  • visualiser des objets ou des concepts et leurs relations.

Français

vecteur contextuel compact

vecteur sémantique compact

représentation contextuelle compacte

représentation sémantique compacte

plongement neuronal

plongement

représentation vectorielle compacte

vecteur contextuel

vecteur sémantique

Anglais

embedding

neural embedding

Sources

Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Google, Glossaire du machine learning.