Représentation sémantique compacte
Domaine
Intelligence artificielle
Apprentissage profond
Définition
Modèle résultant de l'opération mathématique qui permet de passer d'une représentation vectorielle à une nouvelle représentation où les objets similaires possèdent des vecteurs correspondants qui sont proches dans l'espace vectoriel où sont définis ces vecteurs (typiquement par un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et éloigne les objets différents).
Note
La modélisation vectorielle, bien que souvent appliquée aux mots, ne se limite pas à ceux derniers et peut être appliquée à des phrases, des documents, des pragraphes, etc.
Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source: Google, Glossaire du machine learning, https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, consulté le 20 mai 2019.
Français
représentation vectorielle continue
plongement vectoriel
Anglais
embedding
An embedding maps an input representation, such as a word or sentence, into a vector. A popular type of embedding are word embeddings such as word2vec or GloVe. We can also embed sentences, paragraphs or images. For example, by mapping images and their textual descriptions into a common embedding space and minimizing the distance between them, we can match labels with images. Embeddings can be learned explicitly, such as in word2vec, or as part of a supervised task, such as Sentiment Analysis. Often, the input layer of a network is initialized with pre-trained embeddings, which are then fine-tuned to the task at hand.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki