« Vecteur contextuel » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
== Domaine ==
 
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Coulombe]]
[[Category:Coulombe]]
[[Category:Apprentissage profond]]Apprentissage profond<br />
[[Category:Apprentissage profond]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]
[[Category:Scotty]]
[[Category:Scotty]]
Ligne 9 : Ligne 8 :
Représentation répartie issue de l'apprentissage automatique visant à représenter les mots d'un corpus, leurs cooccurrents et leur contexte sous formes de vecteurs de nombres réels.  
Représentation répartie issue de l'apprentissage automatique visant à représenter les mots d'un corpus, leurs cooccurrents et leur contexte sous formes de vecteurs de nombres réels.  


Note<br />
Note : La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches.  
La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches.  


Des représentations par vecteurs-mots populaires sont word2vec et GloVe.
Des représentations par vecteurs-mots populaires sont word2vec et GloVe.
Ligne 24 : Ligne 22 :




Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.
== Anglais ==
'''word embedding'''
 
'''word vector'''
 
 
 


<small>


Source : https://fr.wiktionary.org/wiki/plongement_lexical
Source : https://fr.wiktionary.org/wiki/plongement_lexical


Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.


Source : Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages.
Source : Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages.
Ligne 34 : Ligne 40 :


Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages.
Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages.
== Anglais ==
'''word embedding'''
'''word vector'''


[[Utilisateur:Patrickdrouin  | Source : Termino  ]]
[[Utilisateur:Patrickdrouin  | Source : Termino  ]]

Version du 18 juin 2019 à 11:57


Définition

Représentation répartie issue de l'apprentissage automatique visant à représenter les mots d'un corpus, leurs cooccurrents et leur contexte sous formes de vecteurs de nombres réels.

Note : La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches.

Des représentations par vecteurs-mots populaires sont word2vec et GloVe.

Français

vecteur-mot

plongement lexical

plongement de mot

représentation lexicale


Anglais

word embedding

word vector



Source : https://fr.wiktionary.org/wiki/plongement_lexical

Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.

Source : Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages.

Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages.

Source : Termino