Kappa de Cohen

De wiki.datafranca.org
Aller à : navigation, rechercher

Domaine

Vocabulaire



Définition

En statistique, le test du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories.

Le calcul du κ se fait de la manière suivante :
Kappa de cohen.jpg

Où Pr(a) est l'accord relatif entre codeurs et Pr(e) la probabilité d'un accord aléatoire. Si les codeurs sont totalement en accord, κ = 1. S'ils sont totalement en désaccord (ou en accord dû uniquement au hasard), κ ≤ 0.

Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981).

Français

Kappa de Cohen



Publié : datafranca.org

Anglais

Cohen's kappa


Source: Wikipédia IA

Publié : datafranca.org