« Word2vec » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(2 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Mot-à-vecteur (''word2vec'') est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word ''embeddings'' ou ''word vector'').  
Mot-à-vecteur (''word2vec'') est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word ''embeddings'' ou ''word vector'').  


Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais ''Skip-Gram'') un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais ''CBOW'') qui cherche à prédire un mot à partir de ses mots voisins.
Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais ''Skip-Gram'') un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais ''CBOW'') qui cherche à prédire un mot à partir de ses mots voisins.
Ligne 13 : Ligne 13 :




<small>
==Sources==
 
 
[https://www.kdnuggets.com/2021/11/guide-word-embedding-techniques-nlp.html  Source : kdnuggets]


[[Catégorie:Scotty2]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:ENGLISH]]
[[Catégorie:ENGLISH]]

Dernière version du 28 janvier 2024 à 15:03

Définition

Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word embeddings ou word vector).

Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.

Français

mot-à-vecteur

word2vec

Anglais

word2vec


Sources

Source : kdnuggets