Adaptation par modèle auxiliaire


Révision datée du 27 janvier 2024 à 15:57 par Pitpitt (discussion | contributions) (Remplacement de texte : « ↵↵<small> » par « ==Sources== »)

Définition

Technique d'adaptation ou peaufinage des résultats d'un grand modèle préentraîné en utilisant un modèle auxiliaire de petite taille. Le plus souvent, ce modèle auxiliaire est une matrice de rang inférieur.

Cette technique peut s'appliquer à la fois aux grands modèles de langues et aux grands modèles en vision artificielle.

Compléments

L'idée est celle de l'apprentissage par transfert, c.-à-d. qu'une fois que vous avez appris la tâche générale avec la pré-entraînement, on peut faire le peaufinage avec beaucoup moins de données.

Dans de processus de peaufinage, un modèle de petite taille (matrice de rang inférieur) est entraîné avec des données spécifiques à l’application alors que le grand modèle associé demeure inchangé. Ce petit modèle auxiliaire aura une influence sur les performances du grand modèle.

Note: Comme dans le cas de « blockchain » maladroitement traduit par « chaîne de blocs », on a créé en anglais un terme « low-rank adaptation » à partir d'un détail d'implémentation informatique. Nous pensons que le concept de modèle auxiliaire est plus compréhensible et d'emploi plus général.

Voir aussi: Génération augmentée d'information contextuelle

Français

adaptation par modèle auxiliaire

APMA

peaufinage par modèle auxiliaire

adaptation par matrice de rang inférieur

AMARI

adaptation de rangs faibles

LoRA


Anglais

low-rank adaptation

LoRA==Sources==

Source : ML6

Source : TechTalks