« Word2vec » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 14 : | Ligne 14 : | ||
<small> | <small> | ||
[https://www.kdnuggets.com/2021/11/guide-word-embedding-techniques-nlp.html Source : kdnuggets] | |||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:ENGLISH]] | [[Catégorie:ENGLISH]] |
Version du 17 novembre 2021 à 11:41
Définition
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word embeddings ou word vector).
Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.
Français
mot-à-vecteur
word2vec
Anglais
word2vec
Contributeurs: Claude Coulombe, Imane Meziani, wiki