« Tokenisation » : différence entre les versions


Aucun résumé des modifications
(Page redirigée vers Segmentation)
Balise : Nouvelle redirection
 
(3 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
#REDIRECTION[[Segmentation]]
En sécurité informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système.


== Français ==
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
''' tokenisation'''
 
== Anglais ==
''' tokenization'''
 
 
<small>
 
[https://fr.wikipedia.org/wiki/Tokenisation_(s%C3%A9curit%C3%A9_informatique)  Source : Wikipedia ]
 
 
[[Catégorie:publication]]

Dernière version du 23 décembre 2023 à 09:15

Rediriger vers :