« GPT » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 7 : Ligne 7 :
== Français ==
== Français ==
'''GPT'''
'''GPT'''
'''grand modèle de langues génératif préentraîné'''
'''GMLGP'''
'''grand modèle de langues génératif autoattentif préentraîné'''
'''GMLGAP'''


== Anglais ==
== Anglais ==

Version du 19 mai 2023 à 13:06

Définition

Acronyme anglais de Generative Pre-Training, un grand modèle de langues résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). C'est-à-dire en français, grand modèle de langues génératif pré-entaîné.

Compléments

GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit GPT-2 en février 2019 et GPT-3 en mai 2020. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues génératif autoattentif préentraîné.

Français

GPT

grand modèle de langues génératif préentraîné

GMLGP

grand modèle de langues génératif autoattentif préentraîné

GMLGAP

Anglais

GPT

Generative Pre-training

Source : OpenAI - Improving Language Understanding by Generative Pre-Training

Source : OpenAI - Improving Language Understanding with Unsupervised Learning