« Vecteur contextuel » : différence entre les versions


Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 7 : Ligne 7 :
[[Category:Scotty]]
[[Category:Scotty]]


<br />


== Définition ==
== Définition ==
Ligne 17 : Ligne 14 :
La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches.  
La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches.  


<br />
Des représentations par vecteurs-mots populaires sont word2vec et GloVe.
Des représentations par vecteurs-mots populaires sont word2vec et GloVe.
<br />


== Français ==
== Français ==
Ligne 29 : Ligne 24 :


'''représentation lexicale'''
'''représentation lexicale'''
<br />
 
<br />
<br />


Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.
Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.
Ligne 48 : Ligne 41 :


'''word vector'''
'''word vector'''
<br/>
<br/>
<br/>

Version du 14 juin 2019 à 22:48

Domaine

Vocabulaire
Apprentissage profond


Définition

Représentation répartie issue de l'apprentissage automatique visant à représenter les mots d'un corpus, leurs cooccurrents et leur contexte sous formes de vecteurs de nombres réels.

Note
La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches.

Des représentations par vecteurs-mots populaires sont word2vec et GloVe.

Français

vecteur-mot

plongement lexical

plongement de mot

représentation lexicale


Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.

Source : https://fr.wiktionary.org/wiki/plongement_lexical

Source : Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages.

Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages.

Anglais

word embedding

word vector