« GPT » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Generative Pre-Training'', | Acronyme anglais de ''Generative Pre-Training'', un grand modèle de langues résultant de l'entraînement d'un [[Modèle de langage|modèle de langage]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). C'est-à-dire en français, grand modèle de langues génératif pré-entaîné. | ||
== Compléments == | == Compléments == | ||
GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit [[GPT-2]] en février 2019 et [[GPT-3]] en mai 2020. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. | GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit [[GPT-2]] en février 2019 et [[GPT-3]] en mai 2020. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. C'est-à-dire en français, grand modèle de langues génératif autoattentif préentraîné. | ||
== Français == | == Français == |
Version du 18 mai 2023 à 16:28
Définition
Acronyme anglais de Generative Pre-Training, un grand modèle de langues résultant de l'entraînement d'un modèle de langage au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). C'est-à-dire en français, grand modèle de langues génératif pré-entaîné.
Compléments
GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit GPT-2 en février 2019 et GPT-3 en mai 2020. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues génératif autoattentif préentraîné.
Français
GPT
Anglais
GPT
Generative Pre-training
Source : OpenAI - Improving Language Understanding by Generative Pre-Training
Source : OpenAI - Improving Language Understanding with Unsupervised Learning
Contributeurs: Claude Coulombe, Patrick Drouin, wiki