« Word2vec » : différence entre les versions


m (Remplacement de texte — « Category:Coulombe » par « <!-- Coulombe --> »)
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(4 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== en construction ==  
== Définition ==
 
Mot-à-vecteur (''word2vec'') est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word ''embeddings'' ou ''word vector'').
[[Category:Vocabulary]] 
[[Catégorie:Apprentissage profond]]
<!-- Coulombe -->


== Définition ==
Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais ''Skip-Gram'') un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais ''CBOW'') qui cherche à prédire un mot à partir de ses mots voisins.
Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelé vecteurs-mots (en anglais word embeddings ou word vector). Typiquement, les vecteurs-mots sont utilisés pour enrichir les entrées textuelles dans un algorithme d'apprentissage profond. Les vecteurs-mots ont des propriétés intéressantes, par exemple, on peut les additionner ou les soustraire vecteur('reine') ~= vecteur('roi') - vecteur('homme') + vecteur('femme'). Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.


== Français ==
== Français ==
Ligne 15 : Ligne 11 :
== Anglais ==
== Anglais ==
'''word2vec'''
'''word2vec'''
==Sources==
[https://www.kdnuggets.com/2021/11/guide-word-embedding-techniques-nlp.html  Source : kdnuggets]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:ENGLISH]]

Dernière version du 28 janvier 2024 à 15:03

Définition

Mot-à-vecteur (word2vec) est un algorithme pour produire des représentations vectorielles denses de mots appelés vecteurs-mots (en anglais word embeddings ou word vector).

Il existe deux variantes de l'algorithme : l'algorithme PVM (en anglais Skip-Gram) un algorithme qui cherche à prédire les mots voisins d’un mot donné, et l'algorithme PMV (en anglais CBOW) qui cherche à prédire un mot à partir de ses mots voisins.

Français

mot-à-vecteur

word2vec

Anglais

word2vec


Sources

Source : kdnuggets