« Word2vec » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 5 : | Ligne 5 : | ||
== Définition == | == Définition == | ||
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word embeddings ou word vector). Typiquement, les vecteurs-mots sont utilisés pour enrichir les entrées textuelles dans un algorithme d'apprentissage profond. Les vecteurs-mots ont des propriétés intéressantes, par exemple, on peut les additionner ou les soustraire vecteur('reine') ~= vecteur('roi') - vecteur('homme') + vecteur('femme'). Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins. | |||
== Français == | |||
'''mot-à-vecteur''' | |||
'''word2vec''' | |||
== Anglais == | == Anglais == | ||
'''word2vec''' | '''word2vec''' | ||
Version du 11 juin 2019 à 09:05
Domaine
Vocabulary
Apprentissage profond
Coulombe
Définition
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word embeddings ou word vector). Typiquement, les vecteurs-mots sont utilisés pour enrichir les entrées textuelles dans un algorithme d'apprentissage profond. Les vecteurs-mots ont des propriétés intéressantes, par exemple, on peut les additionner ou les soustraire vecteur('reine') ~= vecteur('roi') - vecteur('homme') + vecteur('femme'). Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.
Français
mot-à-vecteur
word2vec
Anglais
word2vec
Contributeurs: Claude Coulombe, Imane Meziani, wiki