« Word2vec » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(13 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
[[Category:Vocabulary]]  Vocabulary<br/>
[[Catégorie:Apprentissage profond]] Apprentissage profond<br/>
[[Category:Coulombe]]Coulombe<br/>
== Définition ==
== Définition ==
Mot-à-vecteur (''word2vec'') est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word ''embeddings'' ou ''word vector'').
 


Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais ''Skip-Gram'') un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais ''CBOW'') qui cherche à prédire un mot à partir de ses mots voisins.


== Français ==
== Français ==
word2vec
'''mot-à-vecteur'''
mot-à-vecteur
vecteur mot


Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word embeddings ou word vector). Ces vecteurs-mots sont utilisés pour enrichir les entrées textuelles dans un algorithme Les vecteurs-mots ont des propriétés intéressantes, par exemple, on peut les additionner ou les soustraire vecteur('reine') ~= vecteur('roi') - vecteur('homme') + vecteur('femme'). Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.
'''word2vec'''


== Anglais ==
== Anglais ==
'''word2vec'''




'''word2vec'''
==Sources==
 
 
[https://www.kdnuggets.com/2021/11/guide-word-embedding-techniques-nlp.html  Source : kdnuggets]


word2vec is an algorithm and tool to learn word embeddings by trying to predict the context of words in a document. The resulting word vectors have some interesting properties, for example vector('queen') ~= vector('king') - vector('man') + vector('woman'). Two different objectives can be used to learn these embeddings: The Skip-Gram objective tries to predict a context from on a word, and the CBOW objective tries to predict a word from its context.
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:ENGLISH]]

Dernière version du 28 janvier 2024 à 14:03

Définition

Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word embeddings ou word vector).

Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.

Français

mot-à-vecteur

word2vec

Anglais

word2vec


Sources

Source : kdnuggets