« Représentation sémantique compacte » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 27 : Ligne 27 :
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages.


[ https://developers.google.com/machine-learning/crash-course/glossary  Source: ''Google, Glossaire du machine learning''.]
[https://developers.google.com/machine-learning/crash-course/glossary  Source: ''Google, Glossaire du machine learning''.]

Version du 6 juillet 2019 à 20:08


Définition

Modèle résultant de l'opération mathématique qui permet de passer d'une représentation vectorielle à une nouvelle représentation où les objets similaires possèdent des vecteurs correspondants qui sont proches dans l'espace vectoriel où sont définis ces vecteurs (typiquement par un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et éloigne les objets différents).

Note: la modélisation vectorielle, bien que souvent appliquée aux mots, ne se limite pas à ceux derniers et peut être appliquée à des phrases, des documents, des paragraphes, etc.

Français

représentation vectorielle continue n.f

plongement vectoriel n.m.

plongement n.m.

Anglais

embedding


Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Google, Glossaire du machine learning.