« Analyse SHAP » : différence entre les versions
(Page créée avec « ==Définition== Méthode qui permet de fournir une explication pour la prédiction d'un modèle d'apprentissage automatique en calculant la contribution de chaque attribut... ») |
Aucun résumé des modifications |
||
(3 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Méthode qui permet de fournir une explication pour la prédiction d'un modèle d'apprentissage automatique en calculant la contribution de chaque attribut à la prédiction. | Méthode qui permet de fournir une explication pour la prédiction d'un modèle d'apprentissage automatique en calculant la contribution de chaque attribut à la prédiction. | ||
== Compléments == | |||
L'explication technique du concept de SHAP repose sur le calcul des valeurs de Shapley à partir de la théorie des jeux. Les valeurs de Shapley ont été nommées en l'honneur de Lloyd Shapley, qui a inventé le concept en 1951 et a ensuite remporté le Prix Nobel d’économie en 2012. | |||
==Français== | ==Français== | ||
Ligne 6 : | Ligne 9 : | ||
'''analyse SHAP''' | '''analyse SHAP''' | ||
== | ==Anglais== | ||
''' SHAP analysis ''' | |||
[[https://www.statcan.gc.ca/fr/science-donnees/reseau/apprentissage-explicable Source : Statistique Canada]] | |||
[[ | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 24 février 2024 à 18:13
Définition
Méthode qui permet de fournir une explication pour la prédiction d'un modèle d'apprentissage automatique en calculant la contribution de chaque attribut à la prédiction.
Compléments
L'explication technique du concept de SHAP repose sur le calcul des valeurs de Shapley à partir de la théorie des jeux. Les valeurs de Shapley ont été nommées en l'honneur de Lloyd Shapley, qui a inventé le concept en 1951 et a ensuite remporté le Prix Nobel d’économie en 2012.
Français
analyse SHAP
Anglais
SHAP analysis
Contributeurs: Patrick Drouin, wiki