« GPT » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Generative Pre-Training'', un [[grand modèle de langues]] résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). C'est-à-dire en français, [[modèle de | Acronyme anglais de ''Generative Pre-Training'', un [[grand modèle de langues]] résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). C'est-à-dire en français, [[grand modèle de langues]] génératif pré-entaîné. | ||
== Compléments == | == Compléments == |
Version du 19 mai 2023 à 11:56
Définition
Acronyme anglais de Generative Pre-Training, un grand modèle de langues résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). C'est-à-dire en français, grand modèle de langues génératif pré-entaîné.
Compléments
GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit GPT-2 en février 2019 et GPT-3 en mai 2020. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues génératif autoattentif préentraîné.
Français
GPT
Anglais
GPT
Generative Pre-training
Source : OpenAI - Improving Language Understanding by Generative Pre-Training
Source : OpenAI - Improving Language Understanding with Unsupervised Learning
Contributeurs: Claude Coulombe, Patrick Drouin, wiki