« ULMFiT » : différence entre les versions
(Page créée avec « ==Définition== ULMFiT (Universal Language Model Fine-tuning) est une Représentation vectorielle dense de mots (en angla... ») |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
==Compléments== | ==Compléments== | ||
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné à son tour par | ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné à son tour par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer). | ||
==Français== | ==Français== | ||
''' | '''ULMFiT''' | ||
==Anglais== | ==Anglais== | ||
''' | '''ULMFiT''' | ||
''' | '''Universal Language Model Fine-tuning''' | ||
<small> | <small> | ||
[https://arxiv.org/pdf/1801.06146.pdf Source : arxiv - Universal Language Model Fine-tuning for Text Classification] | [https://arxiv.org/pdf/1801.06146.pdf Source : arxiv - Universal Language Model Fine-tuning for Text Classification] |
Version du 27 novembre 2022 à 03:25
Définition
ULMFiT (Universal Language Model Fine-tuning) est une Représentation vectorielle dense de mots (en anglais, embedding) basée sur des caractères et résultant de l'entraînement d'un modèle de langage au moyen d'un réseau de neurones récurrent bidirectionnel à longue mémoire court terme (biLMCT).
Compléments
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné à son tour par BERT (Bidirectional Encoder Representations for Transformers) de Google et GPT (Generative Pretraining Transformer).
Français
ULMFiT
Anglais
ULMFiT
Universal Language Model Fine-tuning
Source : arxiv - Universal Language Model Fine-tuning for Text Classification
Contributeurs: Claude Coulombe, wiki