GPT-3


Définition

Abréviation de Generative Pre-trained Transformer (réseau autoattentif pré-entraîné). Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.

Français

GPT-3

Anglais

GPT-3


Source : Wikipedia