« BERTScore » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
| Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Métrique d'évaluation sémantique de '''[[traduction automatique]]''' qui calcule la similarité des mots entre une traduction automatique et une traduction de référence à l'aide de '''[[Vecteur sémantique compact|vecteurs sémantiques compacts]]'''. Elle a été inventée pour améliorer les mesures basées sur les '''[[N-gramme|n-grammes]]''' (voir '''[[BLEU]]''') et remédie à deux défauts courants de ces dernières : | Métrique d'évaluation sémantique de '''[[traduction automatique]]''' qui calcule la similarité des mots entre une traduction automatique et une traduction de référence à l'aide de '''[[Vecteur sémantique compact|vecteurs sémantiques compacts]]'''. Elle a été inventée pour améliorer les mesures basées sur les '''[[N-gramme|n-grammes]]''' (voir '''[[BLEU]]''') et remédie à deux défauts courants de ces dernières : | ||
| Ligne 27 : | Ligne 25 : | ||
[https://spotintelligence.com/2024/08/20/bertscore/ Source : Spot Intelligence] | [https://spotintelligence.com/2024/08/20/bertscore/ Source : Spot Intelligence] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 20 mars 2026 à 10:45
Définition
Métrique d'évaluation sémantique de traduction automatique qui calcule la similarité des mots entre une traduction automatique et une traduction de référence à l'aide de vecteurs sémantiques compacts. Elle a été inventée pour améliorer les mesures basées sur les n-grammes (voir BLEU) et remédie à deux défauts courants de ces dernières :
- souvent, ces méthodes ne parviennent pas à faire correspondre les paraphrases et les synonymes de manière fiable ;
- les modèles n-grammes ne parviennent pas à saisir les dépendances distantes et pénalisent les changements d'ordre sémantiquement critiques.
Français
BERTScore
Anglais
BERTScore
A metric for automatic evaluation of machine translation that calculates the similarity between a machine translation output and a reference translation using embeddings. It was invented as an improvement on n-gram-based metrics (see BLEU), and addresses two common pitfalls in these: 1) Such methods often fail to robustly match paraphrases. 2) N-gram models fail to capture distant dependencies and penalize semantically-critical ordering changes.
Sources
Contributeurs: Arianne Arel, wiki





