« GPT » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Generative Pre-Training'', GPT est un [[grand modèle de langues]] (GML) résultant | Acronyme anglais de ''Generative Pre-Training'', GPT est un [[grand modèle de langues]] (GML) résultant du pré-entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer) sur un large corpus générique. Autrement dit, en français, GPT est un [[grand modèle de langues]] préentraîné génératif. | ||
== Compléments == | == Compléments == | ||
GPT (Generative Pre-Training) fut créé par une équipe d'OpenAI en juin 2018. À l'origine le modèle s'appelait ''Snuffleupagus''. Il s'ensuivit [[GPT-2]] en février 2019, [[GPT-3]] en mai 2020 et [[GPT-4]] en 2022. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. C'est-à-dire en français, [[grand modèle de langues]] modèle | GPT (Generative Pre-Training) fut créé par une équipe d'OpenAI en juin 2018. À l'origine le modèle s'appelait ''Snuffleupagus''. Il s'ensuivit [[GPT-2]] en février 2019, [[GPT-3]] en mai 2020 et [[GPT-4]] en 2022. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. C'est-à-dire en français, [[grand modèle de langues]] autoattentif préentraîné génératif. | ||
<hr/> | |||
Nous suggérons l'ordre: 1) modèle, 2) autoattentif, 3) préentraîné, 4) génératif et la division de l'acronyme en deux parties 1) M, 2) APG. Évidemment, cette suggestion demeure à discuter. | |||
== Français == | == Français == | ||
Ligne 12 : | Ligne 14 : | ||
'''GAP''' | '''GAP''' | ||
'''modèle | '''modèle autoattentif préentraîné génératif''' | ||
''' | '''M-APG''' | ||
'''grand modèle de langues | '''grand modèle de langues autoattentif préentraîné génératif''' | ||
''' | '''GML-APG''' | ||
== Anglais == | == Anglais == | ||
Ligne 36 : | Ligne 38 : | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:publication]] |
Version du 12 juillet 2024 à 00:20
Définition
Acronyme anglais de Generative Pre-Training, GPT est un grand modèle de langues (GML) résultant du pré-entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer) sur un large corpus générique. Autrement dit, en français, GPT est un grand modèle de langues préentraîné génératif.
Compléments
GPT (Generative Pre-Training) fut créé par une équipe d'OpenAI en juin 2018. À l'origine le modèle s'appelait Snuffleupagus. Il s'ensuivit GPT-2 en février 2019, GPT-3 en mai 2020 et GPT-4 en 2022. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues autoattentif préentraîné génératif.
Nous suggérons l'ordre: 1) modèle, 2) autoattentif, 3) préentraîné, 4) génératif et la division de l'acronyme en deux parties 1) M, 2) APG. Évidemment, cette suggestion demeure à discuter.
Français
GPT
générateur autoattentif préentraîné
GAP
modèle autoattentif préentraîné génératif
M-APG
grand modèle de langues autoattentif préentraîné génératif
GML-APG
Anglais
GPT
Generative Pre-trained Transformers
Generative Pre-training
Sources
Source : OpenAI - Improving Language Understanding by Generative Pre-Training
Source : OpenAI - Improving Language Understanding with Unsupervised Learning
Contributeurs: Claude Coulombe, Patrick Drouin, wiki