« Analyse lexicale » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 7 : | Ligne 7 : | ||
==Définition== | ==Définition== | ||
En informatique, l’[[analyse lexicale]], ou segmentation, est la conversion d’une chaîne de caractères (un texte) en une liste de symboles (''tokens'' en anglais) | En informatique, l’[[analyse lexicale]], ou segmentation, est la conversion d’une chaîne de caractères (un texte) en une liste de symboles (''tokens'' en anglais) et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots. Elle fait partie de la première phase de la chaîne de compilation. Ces symboles sont ensuite consommés lors de l'analyse syntaxique. Un programme réalisant une analyse lexicale est appelé un analyseur lexical. tokenizer1 ou lexer. Un analyseur lexical est généralement combiné à un analyseur syntaxique pour analyser la syntaxe d'un texte. | ||
Version du 23 décembre 2019 à 13:16
Définition
En informatique, l’analyse lexicale, ou segmentation, est la conversion d’une chaîne de caractères (un texte) en une liste de symboles (tokens en anglais) et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots. Elle fait partie de la première phase de la chaîne de compilation. Ces symboles sont ensuite consommés lors de l'analyse syntaxique. Un programme réalisant une analyse lexicale est appelé un analyseur lexical. tokenizer1 ou lexer. Un analyseur lexical est généralement combiné à un analyseur syntaxique pour analyser la syntaxe d'un texte.
la décomposition de textes en mots appelés tokens, et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots5.
En fouille de texte (entre autres domaines) , l'analyse lexicale est la décomposition de textes en mots appelés tokens,
Français
Analyse lexicale
Anglais
tokenization
Contributeurs: Claude Coulombe, Jacques Barolet, wiki