« Grand modèle de langues (GML) » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
Ligne 11 : Ligne 11 :
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres.  
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres.  
<hr/>
<hr/>
Des chercheurs de l'Université Stanford ont proposé le terme [[modèle fondateur]] (« foundation model ») pour définir un ensemble de grands [[Modèle de langue|modèles de langue]] basés sur des [[Réseau_autoattentif|architectures autoattentives]] pré-entraînées.
Des chercheurs de l'Université Stanford ont proposé le terme [[modèle de fondation]] (« foundation model ») pour définir un ensemble de grands [[Modèle de langue|modèles de langue]] basés sur des [[Réseau_autoattentif|architectures autoattentives]] pré-entraînées.


==Français==
==Français==

Version du 15 février 2024 à 01:39

Définition

Modèle de langue entraîné sur un très vaste corpus, le plus souvent multilingue et comportant un très grand nombre de paramètres. Un grand modèle de langue est capable de prédire le prochain mot d'une séquence.

voir : modèle fondateur

Compléments

On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues.


Un grand modèle de langue sert de base pour l'élaboration des grands modèles de langues génératifs (GMLG) qui peuvent générer un texte entier.


Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres.


Des chercheurs de l'Université Stanford ont proposé le terme modèle de fondation (« foundation model ») pour définir un ensemble de grands modèles de langue basés sur des architectures autoattentives pré-entraînées.

Français

grand modèle de langues

GML

grand modèle de langage

modèle fondateur

Anglais

large language model

LLM

foundation model


Sources

Source: CNRS