« Adaptation par modèle auxiliaire » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵↵==Sources== » par « ==Sources== ») |
||
Ligne 39 : | Ligne 39 : | ||
'''LoRA''' | '''LoRA''' | ||
==Sources== | ==Sources== | ||
Dernière version du 30 août 2024 à 13:54
Définition
Technique d'adaptation ou peaufinage des résultats d'un grand modèle préentraîné en utilisant un modèle auxiliaire de petite taille.
Techniquement, ce modèle auxiliaire prend la forme une matrice de rang inférieur.
Cette technique peut s'appliquer à la fois aux grands modèles de langues et aux grands modèles en vision artificielle.
Compléments
L'idée est celle de l'apprentissage par transfert, c.-à-d. qu'une fois que vous avez appris la tâche générale avec la pré-entraînement, on peut faire le peaufinage avec beaucoup moins de données.
Dans de processus de peaufinage, un modèle de petite taille (matrice de rang inférieur) est entraîné avec des données spécifiques à l’application alors que le grand modèle associé demeure inchangé. Ce petit modèle auxiliaire aura une influence sur les performances du grand modèle.
Note: Comme dans le cas de « blockchain » maladroitement traduit par « chaîne de blocs », on a créé en anglais un terme « low-rank adaptation » à partir d'un détail d'implémentation informatique. Nous pensons que le concept de modèle auxiliaire est plus compréhensible et d'emploi plus général.
Voir aussi: Génération augmentée d'information contextuelle
Français
adaptation par modèle auxiliaire
APMA
affinage par modèle auxiliaire
APMA
adaptation par matrice de rang inférieur
APMRI
peaufinage par modèle auxiliaire
PPMA
adaptation de rangs faibles
LoRA
Anglais
low-rank adaptation
LoRA
Sources
Contributeurs: Claude Coulombe, Patrick Drouin, wiki