« Word2vec » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
== Domaine ==
[[Category:Vocabulary]]   
[[Category:Vocabulary]]   
[[Catégorie:Apprentissage profond]] Apprentissage profond<br/>
[[Catégorie:Apprentissage profond]]  
[[Category:Coulombe]]
[[Category:Coulombe]]


== Définition ==
== Définition ==
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word embeddings ou word vector). Typiquement, les vecteurs-mots sont utilisés pour enrichir les entrées textuelles dans un algorithme d'apprentissage profond. Les vecteurs-mots ont des propriétés intéressantes, par exemple, on peut les additionner ou les soustraire vecteur('reine') ~= vecteur('roi') - vecteur('homme') + vecteur('femme'). Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word embeddings ou word vector). Typiquement, les vecteurs-mots sont utilisés pour enrichir les entrées textuelles dans un algorithme d'apprentissage profond. Les vecteurs-mots ont des propriétés intéressantes, par exemple, on peut les additionner ou les soustraire vecteur('reine') ~= vecteur('roi') - vecteur('homme') + vecteur('femme'). Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.


== Français ==
== Français ==
'''mot-à-vecteur'''
'''mot-à-vecteur'''


'''word2vec'''
'''word2vec'''


== Anglais ==
== Anglais ==
'''word2vec'''
'''word2vec'''

Version du 21 juin 2019 à 11:53

Domaine

Définition

Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word embeddings ou word vector). Typiquement, les vecteurs-mots sont utilisés pour enrichir les entrées textuelles dans un algorithme d'apprentissage profond. Les vecteurs-mots ont des propriétés intéressantes, par exemple, on peut les additionner ou les soustraire vecteur('reine') ~= vecteur('roi') - vecteur('homme') + vecteur('femme'). Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.

Français

mot-à-vecteur

word2vec

Anglais

word2vec