« Grand modèle de langues (GML) » : différence entre les versions
Aucun résumé des modifications |
m (Claude COULOMBE a déplacé la page Grand modèle de langues vers Grand modèle de langues (GML)) |
||
(5 versions intermédiaires par 3 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Les grands modèles de langues (en anglais, Large Language Models, LLM) sont des [[Modèle de langue|modèles de langue]] statistiques , pré-entraînés sur un très vaste corpus multilingue. Basés sur des réseaux de neurones, les grands modèles de langues (GML) comportent un très grand nombre de paramètres. | Les grands modèles de langues (en anglais, Large Language Models, LLM) sont des [[Modèle de langue|modèles de langue]] statistiques , pré-entraînés sur un très vaste corpus multilingue. Basés sur des [[réseau autoattentif|réseaux de neurones autoattentifs]], les grands modèles de langues (GML) comportent un très grand nombre de paramètres. | ||
Typiquement un GML est capable de prédire le prochain mot d'une séquence à partir d'une requête et de son contexte. | Typiquement un GML est capable de prédire le prochain mot d'une séquence à partir d'une requête et de son contexte. | ||
Ligne 9 : | Ligne 9 : | ||
On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues. | On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues. | ||
<hr/> | <hr/> | ||
Un grand modèle de langue sert de base pour l'élaboration des | Un grand modèle de langue sert de base pour l'élaboration des [[robot conversationnel génératif|robots conversationnels génératifs]] (RCG) capables de générer des textes entiers. | ||
<hr/> | <hr/> | ||
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres. | Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres. | ||
Ligne 41 : | Ligne 41 : | ||
[https://www.cnrs.fr/fr/livraison-du-plus-grand-modele-de-langue-multilingue-open-science-jamais-entraine Source: CNRS] | [https://www.cnrs.fr/fr/livraison-du-plus-grand-modele-de-langue-multilingue-open-science-jamais-entraine Source: CNRS] | ||
[https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000050185686 Source: Légifrance] | |||
[[Catégorie:Apprentissage profond]] | [[Catégorie:Apprentissage profond]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 31 octobre 2024 à 03:18
Définition
Les grands modèles de langues (en anglais, Large Language Models, LLM) sont des modèles de langue statistiques , pré-entraînés sur un très vaste corpus multilingue. Basés sur des réseaux de neurones autoattentifs, les grands modèles de langues (GML) comportent un très grand nombre de paramètres.
Typiquement un GML est capable de prédire le prochain mot d'une séquence à partir d'une requête et de son contexte.
voir : modèle fondateur
Compléments
On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues.
Un grand modèle de langue sert de base pour l'élaboration des robots conversationnels génératifs (RCG) capables de générer des textes entiers.
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres.
Des chercheurs de l'Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation (« foundation model ») pour définir un ensemble de grands modèles de langue basés sur des architectures autoattentives pré-entraînées.
Français
grand modèle de langues
GML
grand modèle de langage
grand modèle linguistique
modèle fondateur
modèle de fondation
Anglais
large language model
LLM
generative large language model
foundation model
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki