« GPT » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Generative Pre-Training'', un [[grand modèle de langues]] résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). C'est-à-dire en français, [[grand modèle de langues]] génératif | Acronyme anglais de ''Generative Pre-Training'', un [[grand modèle de langues]] résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). C'est-à-dire en français, [[grand modèle de langues]] génératif préentraîné. | ||
== Compléments == | == Compléments == |
Version du 19 mai 2023 à 12:06
Définition
Acronyme anglais de Generative Pre-Training, un grand modèle de langues résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). C'est-à-dire en français, grand modèle de langues génératif préentraîné.
Compléments
GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit GPT-2 en février 2019 et GPT-3 en mai 2020. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues génératif autoattentif préentraîné.
Français
GPT
grand modèle de langues génératif préentraîné
GMLGP
grand modèle de langues génératif autoattentif préentraîné
GMLGAP
Anglais
GPT
Generative Pre-training
Source : OpenAI - Improving Language Understanding by Generative Pre-Training
Source : OpenAI - Improving Language Understanding with Unsupervised Learning
Contributeurs: Claude Coulombe, Patrick Drouin, wiki