« GPT-3 » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Abréviation de ''Generative Pre-trained Transformer'' (réseau autoattentif pré-entraîné).
GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de ''Generative Pre-trained Transformer'', c'est-à-dire un modèle de langue génératif autoattentif.
Modèle de langage développé par la société OpenAI en 2020. Il est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres.
 
Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres.


== Français ==
== Français ==
Ligne 8 : Ligne 9 :
== Anglais ==
== Anglais ==
''' GPT-3'''
''' GPT-3'''


<small>
<small>


[https://fr.wikipedia.org/wiki/GPT-3  Source : Wikipedia  ]
[https://fr.wikipedia.org/wiki/GPT-3  Source : Wikipedia  ]


[[Catégorie:ENGLISH]]
[[Catégorie:ENGLISH]]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Version du 1 septembre 2022 à 18:56

Définition

GPT-3 est la troisième version d'un modèle de langue génératif développé par la société OpenAI en 2020. GPT est l'acronyme de Generative Pre-trained Transformer, c'est-à-dire un modèle de langue génératif autoattentif.

Pré-entraîné sur un énorme corpus, GPT-3 est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Au moment de son annonce en mai 2020, GPT-3 était le plus gros modèle de langue jamais entraîné avec 175 milliards de paramètres.

Français

GPT-3

Anglais

GPT-3

Source : Wikipedia