« GPT » : différence entre les versions
Aucun résumé des modifications |
mAucun résumé des modifications |
||
(11 versions intermédiaires par 3 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Generative Pre- | Acronyme anglais de ''Generative Pre-training Tranformer'', GPT est un [[grand modèle de langues]] (GML) résultant du pré-entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer) sur un large corpus générique. Autrement dit, en français, GPT est un [[grand modèle de langues]] autoattentif préentraîné génératif. | ||
== Compléments == | == Compléments == | ||
GPT fut créé par une équipe d'OpenAI en juin 2018. | À l'origine le modèle s'appelait ''Snuffleupagus''. Puis GPT pour « Generative Pre-Training » fut créé par une équipe d'OpenAI en juin 2018. En février 2019, avec [[GPT-2]], GPT devint l'acronyme de ''Generative Pre-trained Transformer'', puis [[GPT-3]] en mai 2020, [[GPT-4]] en mars 2023, [[GPT-4o]] (''o'' pour ''omni'') en mai 2024 et [[OpenAI o1]] en septembre 2024. | ||
<hr/> | |||
En français, nous proposons: [[grand modèle de langues]] autoattentif préentraîné génératif. Bien entendu, l'ordre: 1) modèle, 2) autoattentif, 3) préentraîné, 4) génératif et la division de l'acronyme en deux parties 1) M, 2) APG, demeurent des sujets à discuter. | |||
== Français == | == Français == | ||
'''GPT''' | '''GPT''' | ||
''' | '''générateur autoattentif préentraîné''' | ||
''' | '''GAP''' | ||
''' | '''modèle autoattentif préentraîné génératif''' | ||
''' | '''M-APG''' | ||
'''grand modèle de langues autoattentif préentraîné génératif''' | |||
'''GML-APG''' | |||
== Anglais == | == Anglais == | ||
'''GPT''' | '''GPT''' | ||
'''Generative Pre-trained Transformers''' | |||
'''Generative Pre-training''' | '''Generative Pre-training''' | ||
==Sources== | |||
[https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf Source : OpenAI - Improving Language Understanding by Generative Pre-Training] | [https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf Source : OpenAI - Improving Language Understanding by Generative Pre-Training] |
Dernière version du 17 septembre 2024 à 13:54
Définition
Acronyme anglais de Generative Pre-training Tranformer, GPT est un grand modèle de langues (GML) résultant du pré-entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer) sur un large corpus générique. Autrement dit, en français, GPT est un grand modèle de langues autoattentif préentraîné génératif.
Compléments
À l'origine le modèle s'appelait Snuffleupagus. Puis GPT pour « Generative Pre-Training » fut créé par une équipe d'OpenAI en juin 2018. En février 2019, avec GPT-2, GPT devint l'acronyme de Generative Pre-trained Transformer, puis GPT-3 en mai 2020, GPT-4 en mars 2023, GPT-4o (o pour omni) en mai 2024 et OpenAI o1 en septembre 2024.
En français, nous proposons: grand modèle de langues autoattentif préentraîné génératif. Bien entendu, l'ordre: 1) modèle, 2) autoattentif, 3) préentraîné, 4) génératif et la division de l'acronyme en deux parties 1) M, 2) APG, demeurent des sujets à discuter.
Français
GPT
générateur autoattentif préentraîné
GAP
modèle autoattentif préentraîné génératif
M-APG
grand modèle de langues autoattentif préentraîné génératif
GML-APG
Anglais
GPT
Generative Pre-trained Transformers
Generative Pre-training
Sources
Source : OpenAI - Improving Language Understanding by Generative Pre-Training
Source : OpenAI - Improving Language Understanding with Unsupervised Learning
Contributeurs: Claude Coulombe, Patrick Drouin, wiki