« Tokenisation » : différence entre les versions


Aucun résumé des modifications
(Page redirigée vers Segmentation)
Balise : Nouvelle redirection
 
(Une version intermédiaire par un autre utilisateur non affichée)
Ligne 1 : Ligne 1 :
== Définition ==
#REDIRECTION[[Segmentation]]
En sécurité informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système.
 
En [[traitement de la langue naturelle]], on parle plutôt de [[segmentation]].
 
== Français ==
''' tokenisation'''
 
== Anglais ==
''' tokenization'''
 
 
<small>
[https://fr.wikipedia.org/wiki/Tokenisation_(s%C3%A9curit%C3%A9_informatique)  Source : Wikipedia ]
 


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 23 décembre 2023 à 10:15

Rediriger vers :