« GPT » : différence entre les versions
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
== Compléments == | == Compléments == | ||
GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit [[GPT-2]] en février 2019, [[GPT-3]] en mai 2020 et [[GPT-4]] en 2022. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. C'est-à-dire en français, [[grand modèle de langues]] génératif autoattentif préentraîné. | GPT (Generative Pre-Training) fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit [[GPT-2]] en février 2019, [[GPT-3]] en mai 2020 et [[GPT-4]] en 2022. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. C'est-à-dire en français, [[grand modèle de langues]] modèle génératif autoattentif préentraîné. | ||
== Français == | == Français == | ||
'''GPT''' | '''GPT''' | ||
''' | '''génératif autoattentif préentraîné''' | ||
''' | '''GAP''' | ||
'''modèle génératif autoattentif préentraîné''' | |||
'''MGAP''' | |||
'''grand modèle de langues génératif autoattentif préentraîné''' | '''grand modèle de langues génératif autoattentif préentraîné''' | ||
Ligne 18 : | Ligne 22 : | ||
== Anglais == | == Anglais == | ||
'''GPT''' | '''GPT''' | ||
'''Generative Pre-trained Transformers''' | |||
'''Generative Pre-training''' | '''Generative Pre-training''' | ||
==Sources== | ==Sources== | ||
Ligne 31 : | Ligne 36 : | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:Publication]] |
Version du 11 avril 2024 à 13:14
Définition
Acronyme anglais de Generative Pre-Training, GPT est un grand modèle de langues (GML) résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). Autrement dit, en français, GPT est une grand modèle de langues génératif préentraîné.
Compléments
GPT (Generative Pre-Training) fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit GPT-2 en février 2019, GPT-3 en mai 2020 et GPT-4 en 2022. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues modèle génératif autoattentif préentraîné.
Français
GPT
génératif autoattentif préentraîné
GAP
modèle génératif autoattentif préentraîné
MGAP
grand modèle de langues génératif autoattentif préentraîné
GMLGAP
Anglais
GPT
Generative Pre-trained Transformers
Generative Pre-training
Sources
Source : OpenAI - Improving Language Understanding by Generative Pre-Training
Source : OpenAI - Improving Language Understanding with Unsupervised Learning
Contributeurs: Claude Coulombe, Patrick Drouin, wiki