« ELMo » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
[[Représentation vectorielle dense et continue|Représentation vectorielle dense de mots]] (en anglais, embedding) basée sur des caractères et résultant de l'entraînement d'un [[modèle de langage|Modèle de langage]] au moyen d'un [[Réseau récurrent bidirectionnel à longue mémoire court terme|réseau de neurones récurrent bidirectionnel à longue mémoire court terme]] (biLMCT).
[[Représentation vectorielle dense et continue|Représentation vectorielle dense de mots]] (en anglais, embedding) basée sur des caractères et résultant de l'entraînement d'un [Modèle de langage|modèle de langage] au moyen d'un [[Réseau récurrent bidirectionnel à longue mémoire court terme|réseau de neurones récurrent bidirectionnel à longue mémoire court terme]] (biLMCT).
   
   
==Compléments==
==Compléments==

Version du 27 novembre 2022 à 04:02

Définition

Représentation vectorielle dense de mots (en anglais, embedding) basée sur des caractères et résultant de l'entraînement d'un [Modèle de langage|modèle de langage] au moyen d'un réseau de neurones récurrent bidirectionnel à longue mémoire court terme (biLMCT).

Compléments

Français

ELMo

Anglais

ELMo

Embedding from Language Model

Source : arxiv - Deep contextualized word representations



Contributeurs: Claude Coulombe, wiki