« GPT » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
(2 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Acronyme anglais de ''Generative Pre-Training'', GPT est un [[grand modèle de langues]] (GML) résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). Autrement dit, en français, GPT est une [[grand modèle de langues]] génératif préentraîné.  
Acronyme anglais de ''Generative Pre-training Tranformer'', GPT est un [[grand modèle de langues]] (GML) résultant du pré-entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer) sur un large corpus générique. Autrement dit, en français, GPT est un [[grand modèle de langues]] autoattentif préentraîné génératif.  


== Compléments ==
== Compléments ==
GPT (Generative Pre-Training) fut créé par une équipe d'OpenAI en juin 2018. À l'origine le modèle s'appelait ''Snuffleupagus''. Il s'ensuivit [[GPT-2]] en février 2019, [[GPT-3]] en mai 2020 et [[GPT-4]] en 2022. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. C'est-à-dire en français, [[grand modèle de langues]] modèle génératif autoattentif préentraîné.    
À l'origine le modèle s'appelait ''Snuffleupagus''. Puis GPT pour « Generative Pre-Training » fut créé par une équipe d'OpenAI en juin 2018. En février 2019, avec [[GPT-2]], GPT devint l'acronyme de ''Generative Pre-trained Transformer'', puis [[GPT-3]] en mai 2020 et [[GPT-4]] en 2022.  
<hr/>
En français, nous proposons: [[grand modèle de langues]] autoattentif préentraîné génératif. Bien entendu, l'ordre: 1) modèle, 2) autoattentif, 3) préentraîné, 4) génératif et la division de l'acronyme en deux parties 1) M, 2) APG, demeurent des sujets à discuter.  


== Français ==
== Français ==
Ligne 12 : Ligne 14 :
'''GAP'''
'''GAP'''


'''modèle génératif autoattentif préentraîné'''
'''modèle autoattentif préentraîné génératif'''


'''MGAP'''
'''M-APG'''


'''grand modèle de langues génératif autoattentif préentraîné'''
'''grand modèle de langues autoattentif préentraîné génératif'''


'''GMLGAP'''
'''GML-APG'''


== Anglais ==
== Anglais ==
Ligne 36 : Ligne 38 :


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:publication]]

Version du 12 juillet 2024 à 00:27

Définition

Acronyme anglais de Generative Pre-training Tranformer, GPT est un grand modèle de langues (GML) résultant du pré-entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer) sur un large corpus générique. Autrement dit, en français, GPT est un grand modèle de langues autoattentif préentraîné génératif.

Compléments

À l'origine le modèle s'appelait Snuffleupagus. Puis GPT pour « Generative Pre-Training » fut créé par une équipe d'OpenAI en juin 2018. En février 2019, avec GPT-2, GPT devint l'acronyme de Generative Pre-trained Transformer, puis GPT-3 en mai 2020 et GPT-4 en 2022.


En français, nous proposons: grand modèle de langues autoattentif préentraîné génératif. Bien entendu, l'ordre: 1) modèle, 2) autoattentif, 3) préentraîné, 4) génératif et la division de l'acronyme en deux parties 1) M, 2) APG, demeurent des sujets à discuter.

Français

GPT

générateur autoattentif préentraîné

GAP

modèle autoattentif préentraîné génératif

M-APG

grand modèle de langues autoattentif préentraîné génératif

GML-APG

Anglais

GPT

Generative Pre-trained Transformers

Generative Pre-training

Sources

Source : OpenAI - Improving Language Understanding by Generative Pre-Training

Source : OpenAI - Improving Language Understanding with Unsupervised Learning