« ULMFiT » : différence entre les versions


(Page créée avec « ==Définition== ULMFiT (Universal Language Model Fine-tuning) est une Représentation vectorielle dense de mots (en angla... »)
 
Aucun résumé des modifications
 
(8 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
ULMFiT (Universal Language Model Fine-tuning) est une [[Représentation vectorielle dense et continue|Représentation vectorielle dense de mots]] (en anglais, embedding) basée sur des caractères et résultant de l'entraînement d'un [[Modèle de langage|modèle de langage]] au moyen d'un [[Réseau récurrent bidirectionnel à longue mémoire court terme|réseau de neurones récurrent bidirectionnel à longue mémoire court terme]] (biLMCT).
ULMFiT (Universal Language Model Fine-Tuning) est une [[Représentation vectorielle dense et continue|Représentation vectorielle dense de mots]] basée sur des caractères et résultant de l'entraînement d'un [[Modèle de langage|modèle de langage]] au moyen d'un [[Réseau récurrent bidirectionnel à longue mémoire court terme|réseau de neurones récurrent bidirectionnel à longue mémoire court terme]] (biLMCT).
   
   
==Compléments==
==Compléments==
ULMFiT (Universal Language Model Fine-Tuning) fut le premier modèle viable qui fut détrôné à son tour par l'excellent .   
De nos jours, ULMFiT a surtout un intérêt historique car fut le précurseur des [[Représentation vectorielle dense et continue|représentations vectorielles de mots]] basées sur des modèles de langage. Il fut détrôné par [[BERT]] (Bidirectional Encoder Representations for Transformers) de Google puis la série [[GPT]] acronyme de ''Generative Pre-Training'' d'OpenAI, puis [[GPT-2]], et [[GPT-3]] devenus acronymes de ''Generative Pre-Trained Transformer''.   
 
==Français==
==Français==
'''ELMo'''   
'''ULMFiT'''   
   
   
==Anglais==
==Anglais==
'''ELMo'''
'''ULMFiT'''


'''Embedding from Language Model'''
'''Universal Language Model Fine-tuning'''


<small>
==Sources==


[https://arxiv.org/pdf/1801.06146.pdf  Source : arxiv - Universal Language Model Fine-tuning for Text Classification]
[https://arxiv.org/pdf/1801.06146.pdf  Source : arxiv - Universal Language Model Fine-tuning for Text Classification]
[[Catégorie:ENGLISH]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 24 février 2024 à 18:12

Définition

ULMFiT (Universal Language Model Fine-Tuning) est une Représentation vectorielle dense de mots basée sur des caractères et résultant de l'entraînement d'un modèle de langage au moyen d'un réseau de neurones récurrent bidirectionnel à longue mémoire court terme (biLMCT).

Compléments

De nos jours, ULMFiT a surtout un intérêt historique car fut le précurseur des représentations vectorielles de mots basées sur des modèles de langage. Il fut détrôné par BERT (Bidirectional Encoder Representations for Transformers) de Google puis la série GPT acronyme de Generative Pre-Training d'OpenAI, puis GPT-2, et GPT-3 devenus acronymes de Generative Pre-Trained Transformer.

Français

ULMFiT

Anglais

ULMFiT

Universal Language Model Fine-tuning

Sources

Source : arxiv - Universal Language Model Fine-tuning for Text Classification

Contributeurs: Claude Coulombe, wiki