« Grand modèle de langues (GML) » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(34 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
[[ | Un grand modèle de langues ou GML (en anglais, ''Large Language Model'', ''LLM'') est un [[modèle de langue]] qui a été [[Modèle préentraîné|préentraîné]] sur un très vaste [[corpus]] multilingue à usage général et multilingue comme Wikipédia ou le contenu de la Toile en entier. | ||
Basé sur un [[réseau autoattentif|réseau de neurones autoattentif]], un grand modèle de langues (GML) comporte un très grand nombre de [[Paramètre|paramètres]]. | |||
Typiquement un GML est un [[modèle génératif]] capable de prédire le prochain mot d'une séquence à partir d'une [[Requête_générative|requête]] et de son contexte. | |||
Voir aussi [[modèle fondateur]] | |||
==Compléments== | ==Compléments== | ||
On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues. Pour être précis, on ajoute parfois l'adjectif [[modèle génératif|génératif]]. | |||
Des chercheurs de l'Université Stanford ont proposé le terme [[modèle fondateur]] (« foundation model ») pour définir un ensemble de grands [[Modèle de langue|modèles de langue]] basés sur des [[Réseau_autoattentif|architectures autoattentives]] pré-entraînées. | <hr/> | ||
Un grand modèle de langues sert de base pour l'élaboration des [[robot conversationnel génératif|robots conversationnels génératifs]] (RCG) capables de générer des textes entiers. | |||
<hr/> | |||
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres, souvent plusieurs centaines de milliards. | |||
<hr/> | |||
Des chercheurs de l'Université Stanford ont proposé le terme [[modèle fondateur]] ou [[modèle de fondation]] (« foundation model ») pour définir un ensemble de grands [[Modèle de langue|modèles de langue]] basés sur des [[Réseau_autoattentif|architectures autoattentives]] pré-entraînées. | |||
==Français== | ==Français== | ||
'''grand modèle de | '''grand modèle de langues''' | ||
'''grand modèle de langage''' | '''grand modèle de langage''' | ||
'''GML''' | |||
'''grand modèle linguistique''' | |||
'''modèle fondateur''' | '''modèle fondateur''' | ||
'''modèle de fondation''' | |||
==Anglais== | ==Anglais== | ||
Ligne 20 : | Ligne 35 : | ||
'''LLM''' | '''LLM''' | ||
'''generative large language model''' | |||
'''foundation model''' | '''foundation model''' | ||
==Sources== | |||
[https://www.cnrs.fr/fr/livraison-du-plus-grand-modele-de-langue-multilingue-open-science-jamais-entraine Source: CNRS] | [https://www.cnrs.fr/fr/livraison-du-plus-grand-modele-de-langue-multilingue-open-science-jamais-entraine Source: CNRS] | ||
[https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000050185686 Source: Légifrance] | |||
[[Catégorie:Apprentissage profond]] | [[Catégorie:Apprentissage profond]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:101]] |
Dernière version du 4 février 2025 à 15:07
Définition
Un grand modèle de langues ou GML (en anglais, Large Language Model, LLM) est un modèle de langue qui a été préentraîné sur un très vaste corpus multilingue à usage général et multilingue comme Wikipédia ou le contenu de la Toile en entier.
Basé sur un réseau de neurones autoattentif, un grand modèle de langues (GML) comporte un très grand nombre de paramètres.
Typiquement un GML est un modèle génératif capable de prédire le prochain mot d'une séquence à partir d'une requête et de son contexte.
Voir aussi modèle fondateur
Compléments
On dit « grand modèle de langues » et non « grand modèle de langage », parce que le langage désigne la faculté d'utiliser une langue alors que la langue est l'objet modélisé. Aussi, tous ces grands modèles sont multilingues. Pour être précis, on ajoute parfois l'adjectif génératif.
Un grand modèle de langues sert de base pour l'élaboration des robots conversationnels génératifs (RCG) capables de générer des textes entiers.
Typiquement un grand modèle de langues comporte plus de 10 milliards de paramètres, souvent plusieurs centaines de milliards.
Des chercheurs de l'Université Stanford ont proposé le terme modèle fondateur ou modèle de fondation (« foundation model ») pour définir un ensemble de grands modèles de langue basés sur des architectures autoattentives pré-entraînées.
Français
grand modèle de langues
grand modèle de langage
GML
grand modèle linguistique
modèle fondateur
modèle de fondation
Anglais
large language model
LLM
generative large language model
foundation model
Sources
Contributeurs: Arianne , Claude Coulombe, Patrick Drouin, wiki
![](/wiki/annonces/impfrancais4.jpg)