« Word2vec » : différence entre les versions
m (Remplacement de texte — « Category:Coulombe » par « <!-- Coulombe --> ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== | == Définition == | ||
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word ''embeddings'' ou ''word vector''). | |||
Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais ''Skip-Gram'') un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais ''CBOW'') qui cherche à prédire un mot à partir de ses mots voisins. | |||
== Français == | == Français == | ||
Ligne 15 : | Ligne 11 : | ||
== Anglais == | == Anglais == | ||
'''word2vec''' | '''word2vec''' | ||
<small> | |||
[[Catégorie:Scotty]] | |||
[[Category:Vocabulary]] |
Version du 19 mai 2020 à 19:15
Définition
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word embeddings ou word vector).
Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.
Français
mot-à-vecteur
word2vec
Anglais
word2vec
Contributeurs: Claude Coulombe, Imane Meziani, wiki