« Vecteur contextuel » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 10 : | Ligne 10 : | ||
Note : La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches. | Note : La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches. | ||
Des représentations par vecteurs-mots populaires sont word2vec et GloVe. | Des représentations par vecteurs-mots populaires sont [[word2vec]] et [[GloVe]]. | ||
== Français == | == Français == |
Version du 24 juin 2019 à 07:49
Définition
Représentation répartie issue de l'apprentissage automatique visant à représenter les mots d'un corpus, leurs cooccurrents et leur contexte sous formes de vecteurs de nombres réels.
Note : La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches.
Des représentations par vecteurs-mots populaires sont word2vec et GloVe.
Français
vecteur-mot
plongement lexical
plongement de mot
représentation lexicale
Anglais
word embedding
word vector
Source : https://fr.wiktionary.org/wiki/plongement_lexical
Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.
Source : Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages.
Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki