Tokenisation


Définition

En sécurité informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système.

En traitement automatique de la langue naturelle, on parle plutôt de segmentation.

Français

tokenisation

Anglais

tokenization


Source : Wikipedia