Tokenisation
Définition
En sécurité informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système.
Français
tokenisation
Anglais
tokenization
Contributeurs: Claude Coulombe, Imane Meziani, wiki