« Peaufinage de l'espace latent » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 8 : Ligne 8 :


L'intervention « ciblée » vise typiquement une amélioration sémantique du comportement du [[grand modèle de langues]].
L'intervention « ciblée » vise typiquement une amélioration sémantique du comportement du [[grand modèle de langues]].
Par exemple, on peut ainsi [https://github.com/stanfordnlp/pyreft/blob/main/README.md remplacer des mots par des émojis].


== Français ==
== Français ==
Ligne 30 : Ligne 32 :
[https://medium.com/@techsachin/representation-fine-tuning-reft-a-powerful-parameter-efficient-way-to-fine-tune-language-models-3bc6dd14e8b5  ''Representation fine-tuning (ReFT): A Powerful Parameter-Efficient Way to Fine-tune Language Models'', Sachin Mukar]
[https://medium.com/@techsachin/representation-fine-tuning-reft-a-powerful-parameter-efficient-way-to-fine-tune-language-models-3bc6dd14e8b5  ''Representation fine-tuning (ReFT): A Powerful Parameter-Efficient Way to Fine-tune Language Models'', Sachin Mukar]


[https://github.com/stanfordnlp/pyreft   Github - PYREFT]
[https://github.com/stanfordnlp/pyreft Github - PYREFT]


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Version du 18 juin 2024 à 13:38

En chantier

Définition

Technique de peaufinage d'un grand modèle de langues qui consiste à faire une intervention « ciblée » sur une petite partie de l'espace latent ou de la représentation cachée du grand modèle de langues à la manière de l'APMA (adaptation par modèle auxiliaire).

Compléments

L'intervention « ciblée » vise typiquement une amélioration sémantique du comportement du grand modèle de langues.

Par exemple, on peut ainsi remplacer des mots par des émojis.

Français

peaufinage de l'espace latent

peaufinage de représentations

Anglais

representation fine-tuning

representation finetuning

ReFT

Source

ReFT: Representation Finetuning for Language Models, Wu et al. (2024)

ReFT: Representation Finetuning for Language Models, Shaoni Mukherjee (2024)

Representation fine-tuning (ReFT): A Powerful Parameter-Efficient Way to Fine-tune Language Models, Sachin Mukar

Github - PYREFT