« Word2vec » : différence entre les versions
Ligne 2 : | Ligne 2 : | ||
[[Category:Vocabulary]] Vocabulary | [[Category:Vocabulary]] Vocabulary | ||
[[Catégorie:Apprentissage profond]] Apprentissage profond | [[Catégorie:Apprentissage profond]] Apprentissage profond | ||
[[Category:Coulombe]]Coulombe | |||
== Définition == | == Définition == | ||
Version du 6 février 2019 à 16:59
Domaine
Vocabulary Apprentissage profondCoulombe
Définition
Français
word2vec vecteur mot
Anglais
word2vec
word2vec is an algorithm and tool to learn word embeddings by trying to predict the context of words in a document. The resulting word vectors have some interesting properties, for example vector('queen') ~= vector('king') - vector('man') + vector('woman'). Two different objectives can be used to learn these embeddings: The Skip-Gram objective tries to predict a context from on a word, and the CBOW objective tries to predict a word from its context.
Contributeurs: Claude Coulombe, Imane Meziani, wiki