Analyse lexicale


Révision datée du 11 février 2024 à 21:29 par Pitpitt (discussion | contributions) (Remplacement de texte : « * [https:// » par « [https:// »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

En traitement automatique de la langue naturelle, l’analyse lexicale débute par la segmentation qui convertit un texte en une liste de mots, de parties de mots ou symboles (tokens en anglais) et se poursuit par l'étude des phénomènes (statistiques, morphologiques) relatifs à ces mots.

Compléments

En théorie des langages de programmation, l'analyse lexicale fait partie de la première phase de la chaîne de compilation. Ces symboles sont ensuite consommés lors de l'analyse syntaxique. Un programme réalisant une analyse lexicale est appelé un analyseur lexical (en anglais, tokenizer, lexical analyser ou lexer).


La pratique récente, avec la généralisation de l'emploi de réseaux de neurones profonds, favorise la segmentation en parties de mots ou symboles (en anglais, subword).

Français

analyse lexicale

Anglais

lexical analysis

Sources

Source: Wikipedia - Glossaire de l'exploration des données

Source: Wikipedia, Analyse lexicale.