« GPT » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Acronyme anglais de ''Generative Pre-Training'', un [[grand modèle de langues]] résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). C'est-à-dire en français, [[modèle de langue]] génératif pré-entaîné.  
Acronyme anglais de ''Generative Pre-Training'', un [[grand modèle de langues]] résultant de l'entraînement d'un [[Modèle de langue|modèle de langue]] au moyen d'un [[Réseau autoattentif|réseau de neurones autoattentif]] (en anglais, Transformer). C'est-à-dire en français, [[grand modèle de langues]] génératif pré-entaîné.  


== Compléments ==
== Compléments ==

Version du 19 mai 2023 à 12:56

Définition

Acronyme anglais de Generative Pre-Training, un grand modèle de langues résultant de l'entraînement d'un modèle de langue au moyen d'un réseau de neurones autoattentif (en anglais, Transformer). C'est-à-dire en français, grand modèle de langues génératif pré-entaîné.

Compléments

GPT fut créé par une équipe d'OpenAI en juin 2018. Il s'ensuivit GPT-2 en février 2019 et GPT-3 en mai 2020. À noter, GPT devint l'acronyme de Generative Pre-trained Transformer. C'est-à-dire en français, grand modèle de langues génératif autoattentif préentraîné.

Français

GPT

Anglais

GPT

Generative Pre-training

Source : OpenAI - Improving Language Understanding by Generative Pre-Training

Source : OpenAI - Improving Language Understanding with Unsupervised Learning