« Grand modèle de langues (GML) » : différence entre les versions
m (Claude COULOMBE a déplacé la page Grand modèle de langue vers Grand modèle de langues) |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
[[Modèle de langue]] entraîné sur un très vaste corpus. | [[Modèle de langue]] entraîné sur un très vaste corpus, le plus souvent multilingue et comportant un très grand nombre de paramètres. | ||
voir : [[modèle fondateur]] | voir : [[modèle fondateur]] | ||
Ligne 6 : | Ligne 6 : | ||
==Compléments== | ==Compléments== | ||
On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues. | On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues. | ||
<hr/> | |||
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres. | |||
<hr/> | <hr/> | ||
Des chercheurs de l'Université Stanford ont proposé le terme [[modèle fondateur]] (« foundation model ») pour définir un ensemble de grands [[Modèle de langue|modèles de langue]] basés sur des [[Réseau_autoattentif|architectures autoattentives]] pré-entraînées. | Des chercheurs de l'Université Stanford ont proposé le terme [[modèle fondateur]] (« foundation model ») pour définir un ensemble de grands [[Modèle de langue|modèles de langue]] basés sur des [[Réseau_autoattentif|architectures autoattentives]] pré-entraînées. |
Version du 22 avril 2023 à 11:24
Définition
Modèle de langue entraîné sur un très vaste corpus, le plus souvent multilingue et comportant un très grand nombre de paramètres.
voir : modèle fondateur
Compléments
On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues.
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres.
Des chercheurs de l'Université Stanford ont proposé le terme modèle fondateur (« foundation model ») pour définir un ensemble de grands modèles de langue basés sur des architectures autoattentives pré-entraînées.
Français
grand modèle de langues
grand modèle de langage
modèle fondateur
Anglais
large language model
LLM
foundation model
Contributeurs: Claude Coulombe, Patrick Drouin, wiki