« Vecteur-mot » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(15 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Un vecteur-mot est une représentation distribuée et dense sous la forme de nombres. La modélisation par vecteur-mot, bien que souvent appliquée aux mots, ne se limite pas à ces derniers et peut être appliquée à des phrases, des paragraphes, des documents, etc.
Un vecteur-mot est une représentation distribuée et dense d'un mot sous la forme de nombres réels ou [[vecteur sémantique compact]]. La modélisation par vecteur-mot, bien que souvent appliquée aux mots, ne se limite pas à ces derniers et peut être appliquée à des phrases, des paragraphes, des documents, etc. On parle aussi de [[plongement]] lexical.


La représentation par vecteur-mot a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches. Il en découle que la distance entre des vecteurs-mots de concepts similaires (ex. bouteille, gobelet) est plus faible que celle mesurée entre des concepts sémantiquement éloignés (ex. bouteille, moucheron).
La représentation par vecteur-mot a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches. Il en découle que la distance entre des vecteurs-mots de concepts similaires (ex. bouteille, gobelet) est plus faible que celle mesurée entre des concepts sémantiquement éloignés (ex. bouteille, moucheron).
Ligne 8 : Ligne 8 :
==Compléments==
==Compléments==
Détail technique, on part typiquement d’un corpus représenté par un lexique parcimonieux de plusieurs milliers d'attributs vers une représentation compacte de quelques centaines d’attributs. Voir '''[[Parcimonie des données]]'''
Détail technique, on part typiquement d’un corpus représenté par un lexique parcimonieux de plusieurs milliers d'attributs vers une représentation compacte de quelques centaines d’attributs. Voir '''[[Parcimonie des données]]'''
 
<hr />
Des représentations par vecteur-mot populaires sont [[word2vec]] et GloVe.
Des représentations par vecteur-mot populaires sont [[word2vec]], [[GloVe]], [[FastText]].
<hr />
Le problème le plus important avec l'emploi de vecteurs-mots est la polysémie. Les algorithmes d’extraction de vecteurs-mots comme Word2Vec produisent des vecteurs-mots polysémiques qui mélangent leurs multiples sens. En fait, les techniques de génération de vecteurs-mots opèrent sur un mot sans considérer qu’il peut être ambigu ou polysémique. Par exemple, toute l’information pour le mot «java» se retrouvera condensée dans un unique vecteur-mot associé à «java» que ce soit le lieu géographique, le café ou le langage de programmation.


==Français==
==Français==


'''vecteur-mot'''
'''vecteur-mot'''
'''vecteur-mot sémantique compact'''
'''vecteur-mot sémantique'''
'''vecteur-mot contextuel compact'''


'''plongement lexical'''
'''plongement lexical'''
Ligne 25 : Ligne 33 :
'''word vector'''
'''word vector'''


<small>
==Sources==


[https://fr.wiktionary.org/wiki/plongement_lexical Source: Wiktionnaire, ''Plongement lexical'']
[https://fr.wiktionary.org/wiki/plongement_lexical Source: Wiktionnaire, ''Plongement lexical'']
Ligne 39 : Ligne 47 :
[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Utilisateur:Patrickdrouin  | Source: Termino]]


</small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html>  
</small><br> {{Modèle:101}}<br>
<br></div><br><br>
 


[[Category:Termino 2019]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]
[[Catégorie:101]]

Dernière version du 11 octobre 2024 à 08:31

Définition

Un vecteur-mot est une représentation distribuée et dense d'un mot sous la forme de nombres réels ou vecteur sémantique compact. La modélisation par vecteur-mot, bien que souvent appliquée aux mots, ne se limite pas à ces derniers et peut être appliquée à des phrases, des paragraphes, des documents, etc. On parle aussi de plongement lexical.

La représentation par vecteur-mot a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches. Il en découle que la distance entre des vecteurs-mots de concepts similaires (ex. bouteille, gobelet) est plus faible que celle mesurée entre des concepts sémantiquement éloignés (ex. bouteille, moucheron).

Un vecteur-mot est obtenu par apprentissage automatique ou analyse de cooccurrence ou de voisinage de données.

Compléments

Détail technique, on part typiquement d’un corpus représenté par un lexique parcimonieux de plusieurs milliers d'attributs vers une représentation compacte de quelques centaines d’attributs. Voir Parcimonie des données


Des représentations par vecteur-mot populaires sont word2vec, GloVe, FastText.


Le problème le plus important avec l'emploi de vecteurs-mots est la polysémie. Les algorithmes d’extraction de vecteurs-mots comme Word2Vec produisent des vecteurs-mots polysémiques qui mélangent leurs multiples sens. En fait, les techniques de génération de vecteurs-mots opèrent sur un mot sans considérer qu’il peut être ambigu ou polysémique. Par exemple, toute l’information pour le mot «java» se retrouvera condensée dans un unique vecteur-mot associé à «java» que ce soit le lieu géographique, le café ou le langage de programmation.

Français

vecteur-mot

vecteur-mot sémantique compact

vecteur-mot sémantique

vecteur-mot contextuel compact

plongement lexical

plongement de mot

Anglais

word embedding

word vector

Sources

Source: Wiktionnaire, Plongement lexical

Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.

Source: Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages.

Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages.

Source : kdnuggets

Source: Termino



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »