« Analyse lexicale » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :


== en construction ==
 
[[Catégorie:Vocabulaire]]
[[Catégorie:Vocabulaire]]
[[Catégorie:Exploration de données‏‎]]
[[Catégorie:Exploration de données‏‎]]
Ligne 8 : Ligne 8 :


== Définition ==
== Définition ==
Analyse lexicale (« tokenization ») :
En informatique, l’[[analyse lexicale]], ou segmentation, la conversion d’une chaîne de caractères (un texte) en une liste de symboles (''tokens'' en anglais). et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots. Elle fait partie de la première phase de la chaîne de compilation. Ces symboles sont ensuite consommés lors de l'analyse syntaxique. Un programme réalisant une analyse lexicale est appelé un analyseur lexical. tokenizer1 ou lexer. Un analyseur lexical est généralement combiné à un analyseur syntaxique pour analyser la syntaxe d'un texte.
 
En informatique, l’[[analyse lexicale]], lexing, segmentation ou tokenization est la conversion d’une chaîne de caractères (un texte) en une liste de symboles (tokens en anglais). Elle fait partie de la première phase de la chaîne de compilation. Ces symboles sont ensuite consommés lors de l'analyse syntaxique. Un programme réalisant une analyse lexicale est appelé un analyseur lexical, tokenizer1 ou lexer. Un analyseur lexical est généralement combiné à un analyseur syntaxique pour analyser la syntaxe d'un texte.
 
En fouille de texte (entre autres domaines) , l'analyse lexicale est a conversion d’une chaîne de caractères (un texte) en une liste de symboles (tokens en anglais).




Ligne 18 : Ligne 14 :




En fouille de texte (entre autres domaines) , l'analyse lexicale est la décomposition de textes en mots appelés tokens, et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots.
En fouille de texte (entre autres domaines) , l'analyse lexicale est la décomposition de textes en mots appelés tokens,  


== Français ==
== Français ==

Version du 23 décembre 2019 à 14:14


Définition

En informatique, l’analyse lexicale, ou segmentation, la conversion d’une chaîne de caractères (un texte) en une liste de symboles (tokens en anglais). et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots. Elle fait partie de la première phase de la chaîne de compilation. Ces symboles sont ensuite consommés lors de l'analyse syntaxique. Un programme réalisant une analyse lexicale est appelé un analyseur lexical. tokenizer1 ou lexer. Un analyseur lexical est généralement combiné à un analyseur syntaxique pour analyser la syntaxe d'un texte.


la décomposition de textes en mots appelés tokens, et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots5.


En fouille de texte (entre autres domaines) , l'analyse lexicale est la décomposition de textes en mots appelés tokens,

Français

Analyse lexicale

Anglais

tokenization



Source : Wikipedia - glossaire de l'exploration des données