« Word2vec » : différence entre les versions


Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[Category:Vocabulary]]  Vocabulary
[[Category:Vocabulary]]  Vocabulary
[[Catégorie:Apprentissage profond]] Apprentissage profond
[[Catégorie:Apprentissage profond]] Apprentissage profond
[[Category:Coulombe]]Coulombe
[[Category:Coulombe]]Coulombe



Version du 6 février 2019 à 16:59

Domaine

Vocabulary Apprentissage profondCoulombe

Définition

Français

word2vec vecteur mot

Anglais

word2vec

word2vec is an algorithm and tool to learn word embeddings by trying to predict the context of words in a document. The resulting word vectors have some interesting properties, for example vector('queen') ~= vector('king') - vector('man') + vector('woman'). Two different objectives can be used to learn these embeddings: The Skip-Gram objective tries to predict a context from on a word, and the CBOW objective tries to predict a word from its context.