« Analyse lexicale » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 5 : | Ligne 5 : | ||
[[Catégorie:Wikipedia-données]] | [[Catégorie:Wikipedia-données]] | ||
[[Catégorie:Scotty]] | [[Catégorie:Scotty]] | ||
[[Catégorie:9]] | |||
== Définition == | == Définition == |
Version du 23 décembre 2019 à 13:10
en construction
Définition
Analyse lexicale (« tokenization ») :
En informatique, l’analyse lexicale, lexing, segmentation ou tokenization est la conversion d’une chaîne de caractères (un texte) en une liste de symboles (tokens en anglais). Elle fait partie de la première phase de la chaîne de compilation. Ces symboles sont ensuite consommés lors de l'analyse syntaxique. Un programme réalisant une analyse lexicale est appelé un analyseur lexical, tokenizer1 ou lexer. Un analyseur lexical est généralement combiné à un analyseur syntaxique pour analyser la syntaxe d'un texte.
En fouille de texte (entre autres domaines) , l'analyse lexicale est a conversion d’une chaîne de caractères (un texte) en une liste de symboles (tokens en anglais).
la décomposition de textes en mots appelés tokens, et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots5.
En fouille de texte (entre autres domaines) , l'analyse lexicale est la décomposition de textes en mots appelés tokens, et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots.
Français
Analyse lexicale
Anglais
tokenization
Contributeurs: Claude Coulombe, Jacques Barolet, wiki