GPT-3
Définition
Abréviation de Generative Pre-trained Transformer (transformateur génératif pré-entraîné). Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.
Français
GPT-3
Anglais
GPT-3
Contributeurs: Claude Coulombe, Imane Meziani, wiki