« Word2vec » : différence entre les versions
m (Remplacement de texte — « Termes privilégiés » par « Français ») |
|||
Ligne 10 : | Ligne 10 : | ||
== Français == | == Français == | ||
word2vec | |||
vecteur mot | |||
== Anglais == | == Anglais == | ||
Version du 6 février 2019 à 16:57
Domaine
Vocabulary Apprentissage profond
Définition
Français
word2vec vecteur mot
Anglais
word2vec
word2vec is an algorithm and tool to learn word embeddings by trying to predict the context of words in a document. The resulting word vectors have some interesting properties, for example vector('queen') ~= vector('king') - vector('man') + vector('woman'). Two different objectives can be used to learn these embeddings: The Skip-Gram objective tries to predict a context from on a word, and the CBOW objective tries to predict a word from its context.
Contributeurs: Claude Coulombe, Imane Meziani, wiki