GPT-3


Définition

Abréviation de Generative Pre-trained Transformer (transformateur génératif pré-entraîné). Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.

Français

GPT-3

Anglais

GPT-3


Source : Wikipedia