GPT-3


Révision datée du 15 janvier 2022 à 16:33 par Imeziani (discussion | contributions) (Page créée avec « == Définition == Abréviation de ''Generative Pre-trained Transformer'' (transformateur génératif pré-entraîné). Modèle de langage développé par la société Ope... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Abréviation de Generative Pre-trained Transformer (transformateur génératif pré-entraîné). Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.

Français

GPT-3

Anglais

GPT-3


Source : Wikipedia