« GPT-3 » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Abréviation de ''Generative Pre-trained Transformer'' (transformateur génératif pré-entraîné).  
Abréviation de ''Generative Pre-trained Transformer'' (réseau autoattentif pré-entraîné).  
Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.
Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.



Version du 30 août 2022 à 13:01

Définition

Abréviation de Generative Pre-trained Transformer (réseau autoattentif pré-entraîné). Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.

Français

GPT-3

Anglais

GPT-3


Source : Wikipedia