« Matrice de confusion » : différence entre les versions


(Page créée avec « __NOTOC__ == Domaine == Category:VocabulaireVocabulaire<br /> Category:GoogleGoogle<br /> Category:Apprentissage profondApprentissage profond<br /> <br /> ==... »)
 
Aucun résumé des modifications
 
(21 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
__NOTOC__
==Définition==
== Domaine ==
Tableau décrivant les performances (la réussite des prédictions) d'un [[modèle de classification]] en regroupant les prévisions en 4 catégories.
[[Category:Vocabulaire]]Vocabulaire<br />
[[Category:Google]]Google<br />
[[Category:Apprentissage profond]]Apprentissage profond<br />


<br />
* [[vrai positif|Vrais positifs]] : nous avons correctement prédit qu'ils ont du diabète


== Définition ==
* [[vrai négatif|Vrai négatifs]] : nous avons correctement prédit qu'ils ne sont pas diabétiques
Table NxN qui résume la réussite des prédictions d'un modèle de classification, c'est-à-dire la corrélation entre les étiquettes et les classifications du modèle. L'un des axes d'une matrice de confusion est l'étiquette prédite par le modèle, et l'autre l'étiquette réelle. N correspond au nombre de classes. Dans un problème de classification binaire, N=2. Voici un exemple de matrice de confusion pour un problème de classification binaire :
Tumeur (prédiction) Pas de tumeur (prédiction)
Tumeur (réel) 18 1
Pas de tumeur (réel) 6 452


La matrice de confusion ci-dessus montre que pour les 19 échantillons qui étaient réellement des tumeurs, le modèle a correctement classé 18 d'entre eux comme tumeurs (18 vrais positifs) et incorrectement classé 1 comme n'ayant pas de tumeur (1 faux négatif). De même, parmi les 458 échantillons sans tumeur, 452 ont été correctement classés (452 vrais négatifs) et 6 ont été incorrectement classés (6 faux positifs).
* [[faux positif|Faux positifs]] : nous avons prédit à tort qu'ils ont du diabète (erreur de type I)  


La matrice de confusion d'une matrice de confusion à classes multiples peut vous aider à déterminer les schémas d'erreur. Par exemple, une matrice de confusion peut révéler qu'un modèle entraîné à reconnaître les chiffres écrits à la main tend à prédire de façon erronée 9 à la place de 4, ou 1 au lieu de 7. La matrice de confusion contient suffisamment d'informations pour calculer diverses statistiques de performance, notamment la précision et le rappel.
* [[faux négatif|Faux négatifs]] : nous avons prédit à tort qu'ils ne sont pas diabétiques (erreur de type II)


==Français==
'''matrice de confusion'''


<br />
==Anglais==
== Termes privilégiés ==
'''confusion matrix'''
=== matrice de confusion ===




<br />
==Sources==
== Anglais ==
[https://developers.google.com/machine-learning/glossary/ Source : Google, ''Machine learning glossary.'']


===  confusion matrix ===
[https://ml-cheatsheet.readthedocs.io/en/latest/glossary.html Source : Ml-cheatsheet, ''Confusion Matrix'']


<br/>
[[Category:GRAND LEXIQUE FRANÇAIS]]
<br/>
[[Category:Apprentissage profond]]
<br/>
[https://developers.google.com/machine-learning/glossary/  Source: Google machine learning glossary ]
<br/>
<br/>
<br/>

Dernière version du 1 avril 2024 à 13:13

Définition

Tableau décrivant les performances (la réussite des prédictions) d'un modèle de classification en regroupant les prévisions en 4 catégories.

  • Vrais positifs : nous avons correctement prédit qu'ils ont du diabète
  • Vrai négatifs : nous avons correctement prédit qu'ils ne sont pas diabétiques
  • Faux positifs : nous avons prédit à tort qu'ils ont du diabète (erreur de type I)
  • Faux négatifs : nous avons prédit à tort qu'ils ne sont pas diabétiques (erreur de type II)

Français

matrice de confusion

Anglais

confusion matrix


Sources

Source : Google, Machine learning glossary.

Source : Ml-cheatsheet, Confusion Matrix