accord inter-évaluateurs

Mesure de la fréquence à laquelle différents évaluateurs humains sont daccord lors de lexécution dune tâche. Si les évaluateurs sont en désaccord, une amélioration des instructions peut être nécessaire. Parfois également appelé accord inter-annotateurs ou fiabilité inter-évaluateurs. Voir aussi le kappa de Cohen, lune des mesures de laccord inter-évaluateurs les plus populaires.

 

Français

accord inter-évaluateurs

Anglais

inter-rater agreement

 

Source: Google machine learning glossary