« Représentation sémantique compacte » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte — « Category:Scotty2 » par « <!-- Scotty2 --> »)
Ligne 2 : Ligne 2 :
[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Category:Scotty2]]
<!-- Scotty2 -->
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]



Version du 2 juillet 2019 à 12:32


Définition

Modèle résultant de l'opération mathématique qui permet de passer d'une représentation vectorielle à une nouvelle représentation où les objets similaires possèdent des vecteurs correspondants qui sont proches dans l'espace vectoriel où sont définis ces vecteurs (typiquement par un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et éloigne les objets différents).

Note: la modélisation vectorielle, bien que souvent appliquée aux mots, ne se limite pas à ceux derniers et peut être appliquée à des phrases, des documents, des paragraphes, etc.

Français

représentation vectorielle continue n.f

plongement vectoriel n.m.

plongement n.m.

Anglais

embedding


Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Google, Glossaire du machine learning, https://developers.google.com/machine-learning/crash-course/glossary?hl=fr#o, consulté le 20 mai 2019.