« Grand modèle de langues (GML) » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
(16 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
[[Modèle de langue]] entraîné sur un très vaste corpus.
Les grands modèles de langues (en anglais, Large Language Models, LLM) sont des [[Modèle de langue|modèles de langue]] statistiques , pré-entraînés sur un très vaste corpus multilingue. Basés sur des [[réseau autoattentif|réseaux de neurones autoattentifs]], les grands modèles de langues (GML) comportent un très grand nombre de paramètres.


vois : [[modèle fondateur]]
Typiquement un GML est capable de prédire le prochain mot d'une séquence à partir d'une requête et de son contexte.
 
voir : [[modèle fondateur]]


==Compléments==
==Compléments==
On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues.
<hr/>
Un grand modèle de langue sert de base pour l'élaboration des [[robot conversationnel génératif|robots conversationnels génératifs]] (RCG) capables de générer des textes entiers.
<hr/>
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres.
<hr/>
Des chercheurs de l'Université Stanford ont proposé le terme [[modèle fondateur]] ou [[modèle de fondation]] (« foundation model ») pour définir un ensemble de grands [[Modèle de langue|modèles de langue]] basés sur des [[Réseau_autoattentif|architectures autoattentives]] pré-entraînées.


Des chercheurs de l'Université Stanford ont proposé le terme [[modèle fondateur]] (« foundation model ») pour définir un ensemble de grands [[Modèle de langue|modèles de langue]] basés sur des [[Réseau_autoattentif|architectures autoattentives]] pré-entraînées.
==Français==
'''grand modèle de langues'''


==Français==
'''GML'''
'''grand modèle de langue'''


'''grand modèle de langage'''
'''grand modèle de langage'''
'''grand modèle linguistique'''


'''modèle fondateur'''
'''modèle fondateur'''
'''modèle de fondation'''


==Anglais==
==Anglais==
Ligne 20 : Ligne 33 :


'''LLM'''
'''LLM'''
'''generative large language model'''


'''foundation model'''
'''foundation model'''


<small>
==Sources==


[https://www.cnrs.fr/fr/livraison-du-plus-grand-modele-de-langue-multilingue-open-science-jamais-entraine Source: CNRS]
[https://www.cnrs.fr/fr/livraison-du-plus-grand-modele-de-langue-multilingue-open-science-jamais-entraine Source: CNRS]

Version du 2 août 2024 à 22:10

Définition

Les grands modèles de langues (en anglais, Large Language Models, LLM) sont des modèles de langue statistiques , pré-entraînés sur un très vaste corpus multilingue. Basés sur des réseaux de neurones autoattentifs, les grands modèles de langues (GML) comportent un très grand nombre de paramètres.

Typiquement un GML est capable de prédire le prochain mot d'une séquence à partir d'une requête et de son contexte.

voir : modèle fondateur

Compléments

On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues.


Un grand modèle de langue sert de base pour l'élaboration des robots conversationnels génératifs (RCG) capables de générer des textes entiers.


Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres.


Des chercheurs de l'Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation (« foundation model ») pour définir un ensemble de grands modèles de langue basés sur des architectures autoattentives pré-entraînées.

Français

grand modèle de langues

GML

grand modèle de langage

grand modèle linguistique

modèle fondateur

modèle de fondation

Anglais

large language model

LLM

generative large language model

foundation model

Sources

Source: CNRS