« Word2vec » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 13 : Ligne 13 :




<small>
==Sources==
 
 
[https://www.kdnuggets.com/2021/11/guide-word-embedding-techniques-nlp.html  Source : kdnuggets]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:ENGLISH]]
[[Catégorie:ENGLISH]]

Dernière version du 28 janvier 2024 à 14:03

Définition

Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word embeddings ou word vector).

Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.

Français

mot-à-vecteur

word2vec

Anglais

word2vec


Sources

Source : kdnuggets