« ULMFiT » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 3 : Ligne 3 :
   
   
==Compléments==
==Compléments==
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer) de OpenAI.   
ULMFiT (Universal Language Model Fine-Tuning) fut le première [[Représentation vectorielle dense et continue|représentation vectorielle dense de mots]] viable basée sur un modèle de langue. ULMFiT fut détrôné par [[BERT]] (Bidirectional Encoder Representations for Transformers) de Google et [[GPT]] (Generative Pretraining Transformer) de OpenAI.   


==Français==
==Français==

Version du 27 novembre 2022 à 04:34

Définition

ULMFiT (Universal Language Model Fine-Tuning) est une Représentation vectorielle dense de mots basée sur des caractères et résultant de l'entraînement d'un modèle de langage au moyen d'un réseau de neurones récurrent bidirectionnel à longue mémoire court terme (biLMCT).

Compléments

ULMFiT (Universal Language Model Fine-Tuning) fut le première représentation vectorielle dense de mots viable basée sur un modèle de langue. ULMFiT fut détrôné par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer) de OpenAI.

Français

ULMFiT

Anglais

ULMFiT

Universal Language Model Fine-tuning

Source : arxiv - Universal Language Model Fine-tuning for Text Classification



Contributeurs: Claude Coulombe, wiki