« Adaptation par modèle auxiliaire » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
[[ | Technique d'adaptation ou [[peaufinage]] des résultats d'un grand [[modèle préentraîné]] en utilisant un modèle auxiliaire de petite taille. Le plus souvent, ce modèle auxiliaire est une matrice de rang inférieur. | ||
Cette technique peut s'appliquer à la fois aux [[grand modèle de langues|grands modèles de langues]] et aux grands modèles en [[vision artificielle]]. | |||
== Compléments == | == Compléments == |
Version du 10 octobre 2023 à 13:31
Définition
Technique d'adaptation ou peaufinage des résultats d'un grand modèle préentraîné en utilisant un modèle auxiliaire de petite taille. Le plus souvent, ce modèle auxiliaire est une matrice de rang inférieur.
Cette technique peut s'appliquer à la fois aux grands modèles de langues et aux grands modèles en vision artificielle.
Compléments
Dans de processus de peaufinage, un modèle de petite taille (matrice de rang inférieur) est entraîné avec des données spécifiques à l’application alors que le grand modèle associé demeure inchangé. Ce petit modèle auxiliaire aura une influence sur les performances du grand modèle.
Note: Comme dans le cas de « blockchain » maladroitement traduit par « chaîne de blocs », on a créé en anglais un terme « low-rank adaptation » à partir d'un détail d'implémentation informatique. Nous pensons que le concept de petit modèle auxiliaire est plus compréhensible.
Français
adaptation par modèle auxiliaire
APMA
adaptation par matrice de rang inférieur
AMARI
adaptation de rangs faibles
LoRA
Anglais
low-rank adaptation
LoRA
Contributeurs: Claude Coulombe, Patrick Drouin, wiki