« Tokenisation » : différence entre les versions


Aucun résumé des modifications
(Page redirigée vers Segmentation)
Balise : Nouvelle redirection
 
(2 versions intermédiaires par un autre utilisateur non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
#REDIRECTION[[Segmentation]]
En sécurité informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système.
 
== Français ==
''' tokenisation'''
 
== Anglais ==
''' tokenization'''
 
 
<small>
[https://fr.wikipedia.org/wiki/Tokenisation_(s%C3%A9curit%C3%A9_informatique)  Source : Wikipedia ]
 


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 23 décembre 2023 à 10:15

Rediriger vers :