« GPT-3 » : différence entre les versions


(Page créée avec « == Définition == Abréviation de ''Generative Pre-trained Transformer'' (transformateur génératif pré-entraîné). Modèle de langage développé par la société Ope... »)
 
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(5 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Abréviation de ''Generative Pre-trained Transformer'' (transformateur génératif pré-entraîné).
GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de ''Generative Pre-trained Transformer'', c'est-à-dire un [[grand modèle de langues]] génératif autoattentif.
Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.
 
Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres.


== Français ==
== Français ==
Ligne 10 : Ligne 11 :




 
==Sources==
<small>


[https://fr.wikipedia.org/wiki/GPT-3  Source : Wikipedia  ]
[https://fr.wikipedia.org/wiki/GPT-3  Source : Wikipedia  ]


[[Catégorie:ENGLISH]]


[[Catégorie:publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 27 janvier 2024 à 22:37

Définition

GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de Generative Pre-trained Transformer, c'est-à-dire un grand modèle de langues génératif autoattentif.

Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure linguistique digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres.

Français

GPT-3

Anglais

GPT-3


Sources

Source : Wikipedia