« METEOR » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
== Définition ==
METEOR est l'acronyme de « Metric for Evaluation of Translation with Explicit Ordering » : cette métrique est utilisée pour l'évaluation automatique de la '''[[traduction automatique]]''' en tenant compte à la fois de la précision et du rappel lors de l'évaluation d'une correspondance entre les traductions.  
METEOR est l'acronyme de « Metric for Evaluation of Translation with Explicit Ordering » : cette métrique est utilisée pour l'évaluation automatique de la '''[[traduction automatique]]''' en tenant compte à la fois de la précision et du rappel lors de l'évaluation d'une correspondance entre les traductions.  
Ligne 30 : Ligne 28 :
[https://en.wikipedia.org/wiki/METEOR  Source : Wikipedia]
[https://en.wikipedia.org/wiki/METEOR  Source : Wikipedia]


[[Catégorie:publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 20 mars 2026 à 10:47

Définition

METEOR est l'acronyme de « Metric for Evaluation of Translation with Explicit Ordering » : cette métrique est utilisée pour l'évaluation automatique de la traduction automatique en tenant compte à la fois de la précision et du rappel lors de l'évaluation d'une correspondance entre les traductions.

Elle a spécifiquement été conçue pour pallier aux faiblesses de BLEU : non seulement METEOR met en correspondance les mots identiques dans lors de la comparaison de deux chaînes de caractères, mais elle peut également mettre en correspondance des mots qui ne sont que de simples variantes morphologiques les uns des autres, ainsi que des mots qui sont synonymes.

Voir aussi NIST

Compléments

  • METEOR diffère aussi de BLEU par le fait que cette dernière cherche à établir une corrélation au niveau du corpus.

Français

METEOR

Anglais

METEOR

Metric for Evaluation of Translation with Explicit Ordering

METEOR stands for Metric for Evaluation of Translation with Explicit Ordering and it is used for automatic evaluation of machine translation by taking into account both the precision and recall while evaluating a match. It was designed to explicitly address weaknesses in BLEU metric: not only it matches words that are identical in the two strings being compared, but can also match words that are simple morphological variants of each other and words that are synonyms of each other.

Differs from the BLEU metric in that BLEU seeks correlation at the corpus level.

Sources

Source : ACL Anthology

Source : Machine Translate

Source : Wikipedia

Contributeurs: Arianne Arel, wiki