« GPT-3 » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de ''Generative Pre-trained Transformer'', c'est-à-dire un modèle de | GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de ''Generative Pre-trained Transformer'', c'est-à-dire un [[grand modèle de langues]] génératif autoattentif. | ||
Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres. | Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres. |
Version du 24 mai 2023 à 17:59
Définition
GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de Generative Pre-trained Transformer, c'est-à-dire un grand modèle de langues génératif autoattentif.
Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres.
Français
GPT-3
Anglais
GPT-3
Contributeurs: Claude Coulombe, Imane Meziani, wiki