Échantillonnage à troncature de masse p
Définition
Stratégie d'échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d'un ensemble. On ne conserve que les éléments ayant les probabilités les plus élevées., Pour être plus précis, on choisit parmi les éléments dont la somme des probabilités atteint p.
Voir aussi échantillonnage à troncature k fixe
Compléments
Alors que l'échantillonnage à troncature k fixe limite l'échantillon aux k mots les plus probables, l'échantillonnage meilleur-p ajoute une variante. Au lieu de spécifier un nombre défini de candidats principaux (k), on spécifie un probabilité (p) et on échantillonne que le groupe de segments textuels dont la probabilité est supérieure à p.
En pratique, l'échantillonnage p-meilleurs est souvent préféré au k-meilleurs car il est plus adaptatif. Il est généralement recommandé de spécifier soit la température, soit le paramètre p, mais pas les deux.
Les probabilités de ces $k$ mots sont ensuite normalisées pour que leur somme soit égale à 1, puis un mot est choisi aléatoirement parmi ceux-ci. Cette stratégie est utile lorsque l'on souhaite obtenir une génération de texte plus adaptée et plus sensible au contexte.
Dans cette méthode, le modèle génère une distribution de probabilité pour tous les mots possibles du vocabulaire. On ne conserve que les k mots ayant les probabilités les plus élevées. Les probabilités de ces $k$ mots sont ensuite normalisées pour que leur somme soit égale à 1, puis un mot est choisi aléatoirement parmi ceux-ci. Cette stratégie est utile lorsque l'on souhaite obtenir une génération de texte plus adaptée et plus sensible au contexte.
afin de générer des séquences à partir de modèles probabilistes autorégressifs qui introduisent un caractère aléatoire tout en conservant la qualité. Plus simplement, son principe fondamental consiste à échantillonner à chaque étape un ensemble plus petit et plus probable (d'où le p dans le terme) de segments textuels (appelé noyau). Le choix du paramètre p peut influencer considérablement le texte généré.
Français
Échantillonnage à troncature de masse p
Échantillonnage des p-meilleurs
Échantillonnage du noyau
Échantillonnage par troncature dynamique
Échantillonnage par seuil de probabilité cumulée
Échantillonnage top-p
Anglais
Top-p sampling
Nucleus sampling
Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation.
In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.
Sources
Source : The Large Language Model PLaybook
Contributeurs: Arianne Arel, Claude Coulombe, Patrick Drouin, wiki





