« Vecteur contextuel » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:Vocabulaire]]Vocabulaire<br /> | [[Category:Vocabulaire]]Vocabulaire<br /> | ||
Ligne 6 : | Ligne 5 : | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
[[Category:Scotty]] | [[Category:Scotty]] | ||
== Définition == | == Définition == | ||
Ligne 27 : | Ligne 25 : | ||
Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages. | Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages. | ||
Source : https://fr.wiktionary.org/wiki/plongement_lexical | Source : https://fr.wiktionary.org/wiki/plongement_lexical | ||
Source : Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages. | Source : Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages. | ||
Ligne 36 : | Ligne 34 : | ||
Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages. | Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages. | ||
== Anglais == | == Anglais == | ||
Ligne 41 : | Ligne 40 : | ||
'''word vector''' | '''word vector''' | ||
[[Utilisateur:Patrickdrouin | Source : Termino ]] |
Version du 16 juin 2019 à 20:51
Domaine
Vocabulaire
Apprentissage profond
Définition
Représentation répartie issue de l'apprentissage automatique visant à représenter les mots d'un corpus, leurs cooccurrents et leur contexte sous formes de vecteurs de nombres réels.
Note
La représentation répartie obtenue a comme propriété que les mots apparaissant dans des contextes similaires possèdent des vecteurs qui sont relativement proches.
Des représentations par vecteurs-mots populaires sont word2vec et GloVe.
Français
vecteur-mot
plongement lexical
plongement de mot
représentation lexicale
Source: Turenne, Nicolas (2016). Analyse de données textuelles sous R, Londres, Éditions ISTE, 318 pages.
Source : https://fr.wiktionary.org/wiki/plongement_lexical
Source : Nagoudi, El Moatez Billah; Jérémy Ferrero et Didier SchwabDidier Schwab (2017). Amélioration de la similarité sémantique vectorielle par méthodes non-supervisées, Actes de la24e conférence sur le Traitement Automatique des Langues Naturelles (TALN 2017), Orléans, France, 9 pages.
Source: Bernier Colborne, Gabriel (2016). Aide à l'identification de relations lexicales au moyen de la sémantique distributionnelle et son application à un corpus bilingue du domaine de l'environnement, thèse de doctorat, Université de Montréal, 265 pages.
Anglais
word embedding
word vector
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki