Analyse SHAP


Révision datée du 24 février 2024 à 18:13 par Pitpitt (discussion | contributions)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Méthode qui permet de fournir une explication pour la prédiction d'un modèle d'apprentissage automatique en calculant la contribution de chaque attribut à la prédiction.

Compléments

L'explication technique du concept de SHAP repose sur le calcul des valeurs de Shapley à partir de la théorie des jeux. Les valeurs de Shapley ont été nommées en l'honneur de Lloyd Shapley, qui a inventé le concept en 1951 et a ensuite remporté le Prix Nobel d’économie en 2012.

Français

analyse SHAP

Anglais

SHAP analysis

[Source : Statistique Canada]

Contributeurs: Patrick Drouin, wiki