« ULMFiT » : différence entre les versions


(Page créée avec « ==Définition== ULMFiT (Universal Language Model Fine-tuning) est une Représentation vectorielle dense de mots (en angla... »)
 
Aucun résumé des modifications
Ligne 3 : Ligne 3 :
   
   
==Compléments==
==Compléments==
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné à son tour par l'excellent .   
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné à son tour par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer).   


==Français==
==Français==
'''ELMo'''   
'''ULMFiT'''   
   
   
==Anglais==
==Anglais==
'''ELMo'''
'''ULMFiT'''


'''Embedding from Language Model'''
'''Universal Language Model Fine-tuning'''


<small>
<small>


[https://arxiv.org/pdf/1801.06146.pdf  Source : arxiv - Universal Language Model Fine-tuning for Text Classification]
[https://arxiv.org/pdf/1801.06146.pdf  Source : arxiv - Universal Language Model Fine-tuning for Text Classification]

Version du 27 novembre 2022 à 03:25

Définition

ULMFiT (Universal Language Model Fine-tuning) est une Représentation vectorielle dense de mots (en anglais, embedding) basée sur des caractères et résultant de l'entraînement d'un modèle de langage au moyen d'un réseau de neurones récurrent bidirectionnel à longue mémoire court terme (biLMCT).

Compléments

ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné à son tour par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer).

Français

ULMFiT

Anglais

ULMFiT

Universal Language Model Fine-tuning

Source : arxiv - Universal Language Model Fine-tuning for Text Classification

Contributeurs: Claude Coulombe, wiki