« Analyse SHAP » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Méthode qui permet de fournir une explication pour la prédiction d'un modèle d'apprentissage automatique en calculant la contribution de chaque attribut à la prédiction.
Méthode qui permet de fournir une explication pour la prédiction d'un modèle d'apprentissage automatique en calculant la contribution de chaque attribut à la prédiction.
== Compléments ==
L'explication technique du concept de SHAP repose sur le calcul des valeurs de Shapley à partir de la théorie des jeux. Les valeurs de Shapley ont été nommées en l'honneur de Lloyd Shapley, qui a inventé le concept en 1951 et a ensuite remporté le Prix Nobel d’économie en 2012.


==Français==
==Français==
Ligne 6 : Ligne 9 :
'''analyse SHAP'''
'''analyse SHAP'''


== Compléments ==
L'explication technique du concept de SHAP repose sur le calcul des valeurs de Shapley à partir de la théorie des jeux. Les valeurs de Shapley ont été nommées en l'honneur de Lloyd Shapley, qui a inventé le concept en 1951 et a ensuite remporté le Prix Nobel d’économie en 2012.


==Anglais==
==Anglais==

Version du 10 janvier 2023 à 14:43

Définition

Méthode qui permet de fournir une explication pour la prédiction d'un modèle d'apprentissage automatique en calculant la contribution de chaque attribut à la prédiction.

Compléments

L'explication technique du concept de SHAP repose sur le calcul des valeurs de Shapley à partir de la théorie des jeux. Les valeurs de Shapley ont été nommées en l'honneur de Lloyd Shapley, qui a inventé le concept en 1951 et a ensuite remporté le Prix Nobel d’économie en 2012.

Français

analyse SHAP


Anglais

SHAP analysis


[Source : Statistique Canada]

Contributeurs: Patrick Drouin, wiki