« Word2vec » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(3 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots | Mot-à-vecteur (''word2vec'') est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word ''embeddings'' ou ''word vector''). | ||
Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais ''Skip-Gram'') un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais ''CBOW'') qui cherche à prédire un mot à partir de ses mots voisins. | Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais ''Skip-Gram'') un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais ''CBOW'') qui cherche à prédire un mot à partir de ses mots voisins. | ||
Ligne 13 : | Ligne 13 : | ||
==Sources== | |||
[[Catégorie: | |||
[[ | [https://www.kdnuggets.com/2021/11/guide-word-embedding-techniques-nlp.html Source : kdnuggets] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie:ENGLISH]] |
Dernière version du 28 janvier 2024 à 14:03
Définition
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word embeddings ou word vector).
Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.
Français
mot-à-vecteur
word2vec
Anglais
word2vec
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki