« Tokenisation » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
En sécurité informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système. | En sécurité informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système. | ||
En [[traitement de la langue naturelle]], on parle plutôt de [[segmentation]]. | En [[traitement automatique de la langue naturelle]], on parle plutôt de [[segmentation]]. | ||
== Français == | == Français == |
Version du 14 juillet 2023 à 01:04
Définition
En sécurité informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système.
En traitement automatique de la langue naturelle, on parle plutôt de segmentation.
Français
tokenisation
Anglais
tokenization
Contributeurs: Claude Coulombe, Imane Meziani, wiki