« Kappa de Cohen » : différence entre les versions


(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GRAND LEXIQUE FRANÇAIS <br /> <br /> == Définition == En statistique, le test du κ (kapp... »)
 
Aucun résumé des modifications
Ligne 10 : Ligne 10 :


Le calcul du κ se fait de la manière suivante :
Le calcul du κ se fait de la manière suivante :
 
[[fichier:Kappa_de_cohen.jpg]]


Où Pr(a) est l'accord relatif entre codeurs et Pr(e) la probabilité d'un accord aléatoire. Si les codeurs sont totalement en accord, κ = 1. S'ils sont totalement en désaccord (ou en accord dû uniquement au hasard), κ ≤ 0.
Où Pr(a) est l'accord relatif entre codeurs et Pr(e) la probabilité d'un accord aléatoire. Si les codeurs sont totalement en accord, κ = 1. S'ils sont totalement en désaccord (ou en accord dû uniquement au hasard), κ ≤ 0.

Version du 5 janvier 2019 à 20:43

Domaine

Vocabulaire



Définition

En statistique, le test du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories.

Le calcul du κ se fait de la manière suivante : Kappa de cohen.jpg

Où Pr(a) est l'accord relatif entre codeurs et Pr(e) la probabilité d'un accord aléatoire. Si les codeurs sont totalement en accord, κ = 1. S'ils sont totalement en désaccord (ou en accord dû uniquement au hasard), κ ≤ 0.

Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981).

Français

Kappa de Cohen



Anglais

Cohen's kappa


Source: Wikipédia IA

Publié : datafranca.org





Contributeurs: wiki, Robert Meloche