« Word2vec » : différence entre les versions
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:Vocabulary]] Vocabulary | [[Category:Vocabulary]] Vocabulary<br/> | ||
[[Catégorie:Apprentissage profond]] Apprentissage profond<br/> | |||
[[Catégorie:Apprentissage profond]] Apprentissage profond | [[Category:Coulombe]]Coulombe<br/> | ||
[[Category:Coulombe]]Coulombe | |||
== Définition == | == Définition == |
Version du 6 février 2019 à 17:00
Domaine
Vocabulary
Apprentissage profond
Coulombe
Définition
Français
word2vec vecteur mot
Anglais
word2vec
word2vec is an algorithm and tool to learn word embeddings by trying to predict the context of words in a document. The resulting word vectors have some interesting properties, for example vector('queen') ~= vector('king') - vector('man') + vector('woman'). Two different objectives can be used to learn these embeddings: The Skip-Gram objective tries to predict a context from on a word, and the CBOW objective tries to predict a word from its context.
Contributeurs: Claude Coulombe, Imane Meziani, wiki