« GPT-3 » : différence entre les versions
(Page créée avec « == Définition == Abréviation de ''Generative Pre-trained Transformer'' (transformateur génératif pré-entraîné). Modèle de langage développé par la société Ope... ») |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(5 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de ''Generative Pre-trained Transformer'', c'est-à-dire un [[grand modèle de langues]] génératif autoattentif. | |||
Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres. | |||
== Français == | == Français == | ||
Ligne 10 : | Ligne 11 : | ||
==Sources== | |||
[https://fr.wikipedia.org/wiki/GPT-3 Source : Wikipedia ] | [https://fr.wikipedia.org/wiki/GPT-3 Source : Wikipedia ] | ||
[[Catégorie:ENGLISH]] | |||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 27 janvier 2024 à 21:37
Définition
GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de Generative Pre-trained Transformer, c'est-à-dire un grand modèle de langues génératif autoattentif.
Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres.
Français
GPT-3
Anglais
GPT-3
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki