« Peaufinage d'un grand modèle de langues » : différence entre les versions
Aucun résumé des modifications |
m (Claude COULOMBE a déplacé la page Peaufinage de grand modèle de langues vers Peaufinage d'un grand modèle de langues) |
||
(5 versions intermédiaires par le même utilisateur non affichées) | |||
Ligne 3 : | Ligne 3 : | ||
== Compléments == | == Compléments == | ||
Pour le peaufinage de grands modèles de langues, il existe deux techniques principales : l'[[adaptation par modèle auxiliaire]] ([[adaptation par modèle auxiliaire| | Pour le peaufinage de grands modèles de langues, il existe deux techniques principales : l'[[adaptation par modèle auxiliaire]] ([[adaptation par modèle auxiliaire|APMA]]) en anglais LoRA (Low Rank Adaptation) et la [[Génération augmentée d'information applicative]] (GAIA), en anglais ''Retrieval Augmented Generation'' (RAG). | ||
Voir l'entrée [[modèle de langue]] pour des explications sur la nuance entre modèle de langues et modèles de langage. | Voir l'entrée [[modèle de langue]] pour des explications sur la nuance entre modèle de langues et modèles de langage. |
Dernière version du 18 juin 2024 à 13:20
Définition
Application de la technique de peaufinage à l'amélioration des performances d'un grand modèle de langues.
Compléments
Pour le peaufinage de grands modèles de langues, il existe deux techniques principales : l'adaptation par modèle auxiliaire (APMA) en anglais LoRA (Low Rank Adaptation) et la Génération augmentée d'information applicative (GAIA), en anglais Retrieval Augmented Generation (RAG).
Voir l'entrée modèle de langue pour des explications sur la nuance entre modèle de langues et modèles de langage.
Français
peaufinage de grand modèle de langues
réglage fin de grand modèle de langues
ajustement fin de grand modèle de langues
Anglais
large language model fine-tuning
large language model fine tuning
large language model finetuning
LLM fine-tuning
LLM fine tuning
LLM finetunning
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki