GPT
Définition
Acronyme anglais de Generative Pre-Training, un grand modèle de langues résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). C'est-à-dire en français, grand modèle de langues génératif pré-entaîné.
Compléments
GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit GPT-2 en février 2019 et GPT-3 en mai 2020. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues génératif autoattentif préentraîné.
Français
GPT
Anglais
GPT
Generative Pre-training
Source : OpenAI - Improving Language Understanding by Generative Pre-Training
Source : OpenAI - Improving Language Understanding with Unsupervised Learning
Contributeurs: Claude Coulombe, Patrick Drouin, wiki