« GPT-3 » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(2 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de ''Generative Pre-trained Transformer'', c'est-à-dire un modèle de | GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de ''Generative Pre-trained Transformer'', c'est-à-dire un [[grand modèle de langues]] génératif autoattentif. | ||
Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure | Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres. | ||
== Français == | == Français == | ||
Ligne 10 : | Ligne 10 : | ||
''' GPT-3''' | ''' GPT-3''' | ||
==Sources== | |||
[https://fr.wikipedia.org/wiki/GPT-3 Source : Wikipedia ] | [https://fr.wikipedia.org/wiki/GPT-3 Source : Wikipedia ] |
Dernière version du 27 janvier 2024 à 21:37
Définition
GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de Generative Pre-trained Transformer, c'est-à-dire un grand modèle de langues génératif autoattentif.
Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres.
Français
GPT-3
Anglais
GPT-3
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki