« Échantillonnage à troncature de masse p » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Stratégie d'échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d'un ensemble. On ne conserve que les éléments ayant les probabilités les plus élevées., Pour être plus précis, on choisit parmi les éléments dont la somme des probabilités atteint p.
Stratégie d'échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d'un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil ''p'' défini (la ''masse de probabilité'') également appelée ''noyau''.
 
Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.


Voir aussi '''[[échantillonnage à troncature k fixe]]'''
Voir aussi '''[[échantillonnage à troncature k fixe]]'''


== Compléments ==
== Compléments ==
Alors que l'[[échantillonnage à troncature k fixe]] limite l'échantillon aux k mots les plus probables, l'échantillonnage meilleur-p ajoute une variante. Au lieu de spécifier un nombre défini de candidats principaux (k), on spécifie un probabilité (p) et on échantillonne que le groupe de [[segment textuel|segments textuels]] dont la probabilité est supérieure à p.
Cette stratégie d'échantillonnage est utilisée par les [[grand modèle de langues|grands modèles de langues]] pour choisir aléatoirement un [[segment textuel]] parmi un ensemble de [[segment textuel|segments textuels]].  
 
En pratique, l'échantillonnage p-meilleurs est souvent préféré au k-meilleurs car il est plus adaptatif. Il est généralement recommandé de spécifier soit la '''[[température]]''', soit le paramètre ''p'', mais pas les deux.


Les probabilités de ces $k$ mots sont ensuite normalisées pour que leur somme soit égale à 1, puis un mot est choisi aléatoirement parmi ceux-ci. Cette stratégie est utile lorsque l'on souhaite obtenir une génération de texte plus adaptée et plus sensible au contexte.  
Alors que l'[[échantillonnage à troncature k fixe]] limite l'échantillon à un nombre ''k'' fixe de mots, l'échantillonnage à troncature de masse p spécifie une probabilité cumulée ''p'' entre 0 et 1 et on échantillonne parmi un nombre variable de [[segment textuel|segments textuels]] dont la somme des probabilités atteint ou dépasse p.  


Dans cette méthode, le modèle génère une distribution de probabilité pour tous les mots possibles du vocabulaire. On ne conserve que les k mots ayant les probabilités les plus élevées. Les probabilités de ces $k$ mots sont ensuite normalisées pour que leur somme soit égale à 1, puis un mot est choisi aléatoirement parmi ceux-ci. Cette stratégie est utile lorsque l'on souhaite obtenir une génération de texte plus adaptée et plus sensible au contexte.  
En pratique, l'échantillonnage à troncature de masse p est préféré à l'[[échantillonnage à troncature k fixe]] car il est plus adaptatif.  


afin de générer des séquences à partir de modèles probabilistes '''[[Modèle autorégressif|autorégressifs]]''' qui introduisent un caractère aléatoire tout en conservant la qualité. Plus simplement, son principe fondamental consiste à échantillonner à chaque étape un ensemble plus petit et plus probable (d'où le ''p'' dans le terme) de '''[[Segment textuel|segments textuels]]''' (appelé noyau). Le choix du '''[[paramètre]]''' ''p'' peut influencer considérablement le texte généré.  
Notez qu'il est généralement recommandé de spécifier soit la '''[[température]]''', soit le paramètre ''p'', mais pas les deux.


== Français ==
== Français ==

Dernière version du 10 mars 2026 à 18:21

Définition

Stratégie d'échantillonnage où un modèle génère une distribution de probabilité pour tous les éléments possibles d'un ensemble. On ne conserve que les éléments les plus probables dont la somme des probabilités atteint un seuil p défini (la masse de probabilité) également appelée noyau.

Les probabilités de ces éléments sont alors normalisées pour que leur somme soit égale à 1 avant le tirage aléatoire.

Voir aussi échantillonnage à troncature k fixe

Compléments

Cette stratégie d'échantillonnage est utilisée par les grands modèles de langues pour choisir aléatoirement un segment textuel parmi un ensemble de segments textuels.

Alors que l'échantillonnage à troncature k fixe limite l'échantillon à un nombre k fixe de mots, l'échantillonnage à troncature de masse p spécifie une probabilité cumulée p entre 0 et 1 et on échantillonne parmi un nombre variable de segments textuels dont la somme des probabilités atteint ou dépasse p.

En pratique, l'échantillonnage à troncature de masse p est préféré à l'échantillonnage à troncature k fixe car il est plus adaptatif.

Notez qu'il est généralement recommandé de spécifier soit la température, soit le paramètre p, mais pas les deux.

Français

Échantillonnage à troncature de masse p

Échantillonnage des p-meilleurs

Échantillonnage du noyau

Échantillonnage par troncature dynamique

Échantillonnage par seuil de probabilité cumulée

Échantillonnage top-p

Anglais

Top-p sampling

Nucleus sampling

Stochastic decoding strategy for generating sequences form autoregressive probabilistic models that introduces randomness while maintaining quality. The choice of p can significantly influence the generated text. Its core idea is to sample from a smaller, more credible set of tokens at each step (called the nucleus). It is useful when you want more adaptative and context-sensitive text generation.

In practice, top-p sampling is often preferred over top-k because it’s adaptive. It is generally recommended to specify either the temperature or the top_p parameter, but not both.

Sources

Source : Medium

Source : The Large Language Model PLaybook

Source : Wikipedia