« GPT » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(7 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Acronyme anglais de ''Generative Pre-Training'', un [[grand modèle de langues]] résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). C'est-à-dire en français, [[grand modèle de langues]] génératif préentraîné.  
Acronyme anglais de ''Generative Pre-Training'', GPT est un [[grand modèle de langues]] (GML) résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). Autrement dit, en français, GPT est une [[grand modèle de langues]] génératif préentraîné.  


== Compléments ==
== Compléments ==
GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit [[GPT-2]] en février 2019 et [[GPT-3]] en mai 2020. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. C'est-à-dire en français, [[grand modèle de langues]] génératif autoattentif préentraîné.       
GPT (Generative Pre-Training) fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit [[GPT-2]] en février 2019, [[GPT-3]] en mai 2020 et [[GPT-4]] en 2022. À noter, GPT devint l'acronyme de ''Generative Pre-trained Transformer''. C'est-à-dire en français, [[grand modèle de langues]] modèle génératif autoattentif préentraîné.       


== Français ==
== Français ==
'''GPT'''
'''GPT'''


'''grand modèle de langues génératif préentraîné'''
'''génératif autoattentif préentraîné'''


'''GMLGP'''
'''GAP'''
 
'''modèle génératif autoattentif préentraîné'''
 
'''MGAP'''


'''grand modèle de langues génératif autoattentif préentraîné'''
'''grand modèle de langues génératif autoattentif préentraîné'''
Ligne 18 : Ligne 22 :
== Anglais ==
== Anglais ==
'''GPT'''
'''GPT'''
'''Generative Pre-trained Transformers'''


'''Generative Pre-training'''
'''Generative Pre-training'''


<small>
==Sources==


[https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf  Source : OpenAI - Improving Language Understanding by Generative Pre-Training]
[https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf  Source : OpenAI - Improving Language Understanding by Generative Pre-Training]


[https://openai.com/blog/language-unsupervised/ Source : OpenAI - Improving Language Understanding with Unsupervised Learning]
[https://openai.com/blog/language-unsupervised/ Source : OpenAI - Improving Language Understanding with Unsupervised Learning]
[[Catégorie:ENGLISH]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 12 avril 2024 à 08:35

Définition

Acronyme anglais de Generative Pre-Training, GPT est un grand modèle de langues (GML) résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). Autrement dit, en français, GPT est une grand modèle de langues génératif préentraîné.

Compléments

GPT (Generative Pre-Training) fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit GPT-2 en février 2019, GPT-3 en mai 2020 et GPT-4 en 2022. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues modèle génératif autoattentif préentraîné.

Français

GPT

génératif autoattentif préentraîné

GAP

modèle génératif autoattentif préentraîné

MGAP

grand modèle de langues génératif autoattentif préentraîné

GMLGAP

Anglais

GPT

Generative Pre-trained Transformers

Generative Pre-training

Sources

Source : OpenAI - Improving Language Understanding by Generative Pre-Training

Source : OpenAI - Improving Language Understanding with Unsupervised Learning