« Peaufinage de l'espace latent » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 2 : Ligne 2 :


== Définition ==
== Définition ==
Technique de [[Peaufinage d'un grand modèle de langues|peaufinage d'un grand modèle de langues]] qui consiste à intervenir « chirurgicalement » sur une petite partie de l'[[espace latent]] ou représentation finale du [[grand modèle de langues]] à la manière de l'APMA ([[Adaptation par modèle auxiliaire]]).


== Français ==
== Français ==
''' peaufinage de l'espace latent '''
''' peaufinage de représentations '''
''' peaufinage de représentations '''
''' peaufinage d'espace latent '''


== Anglais ==
== Anglais ==
''' representation fine-tuning '''
''' representation fine-tuning '''


<!-- PYREFT, a representation fine-tuning (ReFT) library that supports adapting internal language model representations via trainable interventions. With fewer fine-tuning parameters and more robust performance, pyreft can boost fine-tuning efficiency, decrease fine-tuning cost, while opening the doors to study the interpretability of adapting parameters. -->
<!-- PYREFT, a representation fine-tuning (ReFT) library that supports adapting internal language model representations via trainable interventions. With fewer fine-tuning parameters and more robust performance, pyreft can boost fine-tuning efficiency, decrease fine-tuning cost, while opening the doors to study the interpretability of adapting parameters. -->

Version du 18 juin 2024 à 13:25

En chantier

Définition

Technique de peaufinage d'un grand modèle de langues qui consiste à intervenir « chirurgicalement » sur une petite partie de l'espace latent ou représentation finale du grand modèle de langues à la manière de l'APMA (Adaptation par modèle auxiliaire).

Français

peaufinage de l'espace latent

peaufinage de représentations

Anglais

representation fine-tuning

Source

ReFT: Representation Finetuning for Language Models, Wu et al. (2024)

ReFT: Representation Finetuning for Language Models, Shaoni Mukherjee (2024)

Representation fine-tuning (ReFT): A Powerful Parameter-Efficient Way to Fine-tune Language Models, Sachin Mukar

Github - PYREFT