« Word2vec » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 14 : Ligne 14 :


<small>
<small>
[https://www.kdnuggets.com/2021/11/guide-word-embedding-techniques-nlp.html  Source : kdnuggets]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:ENGLISH]]
[[Catégorie:ENGLISH]]

Version du 17 novembre 2021 à 11:41

Définition

Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word embeddings ou word vector).

Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.

Français

mot-à-vecteur

word2vec

Anglais

word2vec



Source : kdnuggets