« Peaufinage d'un grand modèle de langues » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 3 : Ligne 3 :


== Compléments ==
== Compléments ==
Pour le peaufinage de grands modèles de langues, il existe deux techniques principales : l'[[adaptation par modèle auxiliaire]] ([[adaptation par modèle auxiliaire|APPMA ou LoRA]]) et l'adaptation par [[Génération augmentée d'information contextuelle]], en anglais ''Retrieval Augmented Generation''.
Pour le peaufinage de grands modèles de langues, il existe deux techniques principales : l'[[adaptation par modèle auxiliaire]] ([[adaptation par modèle auxiliaire|APPMA ou LoRA]]) et l'adaptation par [[Génération augmentée d'information contextuelle]], en anglais ''Retrieval Augmented Generation'' (RAG).


Voir l'entrée [[modèle de langue]] pour des explications sur la nuance entre modèle de langues et modèles de langage.  
Voir l'entrée [[modèle de langue]] pour des explications sur la nuance entre modèle de langues et modèles de langage.  

Version du 18 octobre 2023 à 02:59

Définition

Application de la technique de peaufinage à l'amélioration des performances d'un grand modèle de langues.

Compléments

Pour le peaufinage de grands modèles de langues, il existe deux techniques principales : l'adaptation par modèle auxiliaire (APPMA ou LoRA) et l'adaptation par Génération augmentée d'information contextuelle, en anglais Retrieval Augmented Generation (RAG).

Voir l'entrée modèle de langue pour des explications sur la nuance entre modèle de langues et modèles de langage.


Français

peaufinage de grand modèle de langues

réglage fin de grand modèle de langues

ajustement fin de grand modèle de langues

Anglais

large language model fine-tuning

large language model fine tuning

large language model finetuning

LLM fine-tuning

LLM fine tuning

LLM finetunning


Source : Hugging Face

Source : Medium

Source : Wikipedia