Représentation sémantique compacte


Révision datée du 3 juin 2019 à 19:00 par Patrickdrouin (discussion | contributions) (Patrickdrouin a déplacé la page Embedding vers Représentation vectorielle continue : Ajustement du terme en entrée)

Domaine

Intelligence artificielle
Apprentissage profond

Définition

Modèle résultant de l'opération mathématique qui permet de passer d'une représentation vectorielle à une nouvelle représentation où les objets similaires possèdent des vecteurs correspondants qui sont proches dans l'espace vectoriel où sont définis ces vecteurs (typiquement par un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et éloigne les objets différents).


Note

La modélisation vectorielle, bien que souvent appliquée aux mots, ne se limite pas à ceux derniers et peut être appliquée à des phrases, des documents, des pragraphes, etc.


Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source: Google, Glossaire du machine learning, https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, consulté le 20 mai 2019.


Français

représentation vectorielle continue

plongement vectoriel


Anglais

embedding

An embedding maps an input representation, such as a word or sentence, into a vector. A popular type of embedding are word embeddings such as word2vec or GloVe. We can also embed sentences, paragraphs or images. For example, by mapping images and their textual descriptions into a common embedding space and minimizing the distance between them, we can match labels with images. Embeddings can be learned explicitly, such as in word2vec, or as part of a supervised task, such as Sentiment Analysis. Often, the input layer of a network is initialized with pre-trained embeddings, which are then fine-tuned to the task at hand.