« ULMFiT » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
==Compléments== | ==Compléments== | ||
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné | ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer). | ||
==Français== | ==Français== |
Version du 27 novembre 2022 à 03:27
Définition
ULMFiT (Universal Language Model Fine-tuning) est une Représentation vectorielle dense de mots (en anglais, embedding) basée sur des caractères et résultant de l'entraînement d'un modèle de langage au moyen d'un réseau de neurones récurrent bidirectionnel à longue mémoire court terme (biLMCT).
Compléments
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer).
Français
ULMFiT
Anglais
ULMFiT
Universal Language Model Fine-tuning
Source : arxiv - Universal Language Model Fine-tuning for Text Classification
Contributeurs: Claude Coulombe, wiki