« ULMFiT » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
ULMFiT (Universal Language Model Fine- | ULMFiT (Universal Language Model Fine-Tuning) est une [[Représentation vectorielle dense et continue|Représentation vectorielle dense de mots]] basée sur des caractères et résultant de l'entraînement d'un [[Modèle de langage|modèle de langage]] au moyen d'un [[Réseau récurrent bidirectionnel à longue mémoire court terme|réseau de neurones récurrent bidirectionnel à longue mémoire court terme]] (biLMCT). | ||
==Compléments== | ==Compléments== |
Version du 27 novembre 2022 à 03:30
Définition
ULMFiT (Universal Language Model Fine-Tuning) est une Représentation vectorielle dense de mots basée sur des caractères et résultant de l'entraînement d'un modèle de langage au moyen d'un réseau de neurones récurrent bidirectionnel à longue mémoire court terme (biLMCT).
Compléments
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer) de OpenAI.
Français
ULMFiT
Anglais
ULMFiT
Universal Language Model Fine-tuning
Source : arxiv - Universal Language Model Fine-tuning for Text Classification
Contributeurs: Claude Coulombe, wiki