« Requête explicite d'échantillonnage » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
| Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
Technique d''''[[ingénierie de requêtes]]''' qui améliore la diversité des '''[[Grand modèles de langues (GML)| | Technique d''''[[ingénierie de requêtes]]''' qui améliore la diversité des réponses d'un '''[[Grand modèles de langues (GML)|grand modèle de langues (GML)]]''' en demandant explicitement de générer plusieurs réponses avec leurs probabilités, puis d'effectuer un échantillonnage dans cette [[distribution|distribution statistique]]. | ||
Voir aussi '''[[GML comme juge]]''' | Voir aussi '''[[GML comme juge]]''' | ||
== Compléments == | |||
Cette technique ne nécessite aucun apprentissage, elle est indépendante du GML et elle est efficace pour tous les types de tâches. De plus, elle améliore les performances sans compromettre la précision '''[[Factualité|factuelle]]''' ni la sécurité des modèles. | |||
== Compléments == | == Compléments == | ||
| Ligne 28 : | Ligne 31 : | ||
[https://www.verbalized-sampling.com/ Source : Verbalized Sampling] | [https://www.verbalized-sampling.com/ Source : Verbalized Sampling] | ||
[[Catégorie:vocabulary]] | |||
[[Catégorie: | [[Catégorie:publication]] | ||
Version du 28 avril 2026 à 15:12
EN CONSTRUCTION
Définition
Technique d'ingénierie de requêtes qui améliore la diversité des réponses d'un grand modèle de langues (GML) en demandant explicitement de générer plusieurs réponses avec leurs probabilités, puis d'effectuer un échantillonnage dans cette distribution statistique.
Voir aussi GML comme juge
Compléments
Cette technique ne nécessite aucun apprentissage, elle est indépendante du GML et elle est efficace pour tous les types de tâches. De plus, elle améliore les performances sans compromettre la précision factuelle ni la sécurité des modèles.
Compléments
Cette méthode est orthogonale à la température du modèle.
Français
Échantillonnage verbalisé
Anglais
Verbalized Sampling
VS
A prompting strategy that improves LLM diversity by asking the model to generate multiple responses with their probabilities, then sampling from this distribution. It is training free, model agnostic and effective across tasks and it improves performance without sacrificing the models’ factual accuracy or safety.
This method is orthogonal to temperature.
Sources
Contributeurs: Arianne Arel, Claude Coulombe, wiki





