« Représentation sémantique compacte » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 27 : | Ligne 27 : | ||
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), ''Apprentissage profond'', Paris, Massot éditions, 800 pages. | ||
[ https://developers.google.com/machine-learning/crash-course/glossary | [ https://developers.google.com/machine-learning/crash-course/glossary Source: ''Google, Glossaire du machine learning''.] |
Version du 6 juillet 2019 à 20:07
Définition
Modèle résultant de l'opération mathématique qui permet de passer d'une représentation vectorielle à une nouvelle représentation où les objets similaires possèdent des vecteurs correspondants qui sont proches dans l'espace vectoriel où sont définis ces vecteurs (typiquement par un algorithme qui réduit la dimension de la représentation afin de rapprocher les objets similaires et éloigne les objets différents).
Note: la modélisation vectorielle, bien que souvent appliquée aux mots, ne se limite pas à ceux derniers et peut être appliquée à des phrases, des documents, des paragraphes, etc.
Français
représentation vectorielle continue n.f
plongement vectoriel n.m.
plongement n.m.
Anglais
embedding
Source: Géron, Aurélien (2017) Machine Learning avec Scikit-Learn - Mise en oeuvre et cas concrets, Paris, Dunod, 256 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
[ https://developers.google.com/machine-learning/crash-course/glossary Source: Google, Glossaire du machine learning.]
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki