« Peaufinage de l'espace latent » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(15 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== En chantier ==
== Définition ==
== Définition ==
XXXXXXXXX
 
Technique de [[Peaufinage d'un grand modèle de langues|peaufinage d'un grand modèle de langues]] qui consiste à faire une intervention « ciblée » sur une petite partie de l'[[espace latent]] ou de la représentation cachée du [[grand modèle de langues]] à la manière de l'APMA ([[adaptation par modèle auxiliaire]]).
 
== Compléments ==
 
L'intervention « ciblée » vise typiquement une amélioration sémantique du comportement du [[grand modèle de langues]].
 
Par exemple, on peut ainsi [https://github.com/stanfordnlp/pyreft/blob/main/README.md remplacer des mots par des émojis].


== Français ==
== Français ==
''' peaufinage de représentations '''
'''peaufinage de l'espace latent'''
 
''' peaufinage d'espace latent '''


'''peaufinage de représentations'''


== Anglais ==
== Anglais ==
''' representation fine-tuning '''
'''representation fine-tuning'''
 
<!-- PYREFT, a representation fine-tuning (ReFT) library that supports adapting internal language model representations via trainable interventions. With fewer fine-tuning parameters and more robust performance, pyreft can boost fine-tuning efficiency, decrease fine-tuning cost, while opening the doors to study the interpretability of adapting parameters. -->


'''representation finetuning'''


== Source ==
'''ReFT'''


[https://arxiv.org/pdf/2404.03592  Source : ''ReFT: Representation Finetuning for Language Models'', Wu et al. (2024)]
<!-- PYREFT, a representation fine-tuning (ReFT) library that supports adapting internal language model representations via trainable interventions. With fewer fine-tuning parameters and more robust performance, pyreft can boost fine-tuning efficiency, decrease fine-tuning cost, while opening the doors to study the interpretability of adapting parameters. -->
== Sources ==


[https://blog.paperspace.com/reft-representation-finetuning-for-language-models/ Source : ''ReFT: Representation Finetuning for Language Models'', Shaoni Mukherjee (2024)]
[https://arxiv.org/pdf/2404.03592  ''ReFT: Representation Finetuning for Language Models'', Wu et al. (2024)]


[https://medium.com/@techsachin/representation-fine-tuning-reft-a-powerful-parameter-efficient-way-to-fine-tune-language-models-3bc6dd14e8b5 Source: ''Representation fine-tuning (ReFT): A Powerful Parameter-Efficient Way to Fine-tune Language Models'', Sachin Mukar]
[https://blog.paperspace.com/reft-representation-finetuning-for-language-models/ ''ReFT: Representation Finetuning for Language Models'', Shaoni Mukherjee (2024)]


[https://github.com/stanfordnlp/pyreft  Source : github - PYREFT]
[https://medium.com/@techsachin/representation-fine-tuning-reft-a-powerful-parameter-efficient-way-to-fine-tune-language-models-3bc6dd14e8b5  ''Representation fine-tuning (ReFT): A Powerful Parameter-Efficient Way to Fine-tune Language Models'', Sachin Mukar]


[https://github.com/stanfordnlp/pyreft  Github - PYREFT]


[[Catégorie:Publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 19 juin 2024 à 20:36

Définition

Technique de peaufinage d'un grand modèle de langues qui consiste à faire une intervention « ciblée » sur une petite partie de l'espace latent ou de la représentation cachée du grand modèle de langues à la manière de l'APMA (adaptation par modèle auxiliaire).

Compléments

L'intervention « ciblée » vise typiquement une amélioration sémantique du comportement du grand modèle de langues.

Par exemple, on peut ainsi remplacer des mots par des émojis.

Français

peaufinage de l'espace latent

peaufinage de représentations

Anglais

representation fine-tuning

representation finetuning

ReFT

Sources

ReFT: Representation Finetuning for Language Models, Wu et al. (2024)

ReFT: Representation Finetuning for Language Models, Shaoni Mukherjee (2024)

Representation fine-tuning (ReFT): A Powerful Parameter-Efficient Way to Fine-tune Language Models, Sachin Mukar

Github - PYREFT