« LIME » : différence entre les versions
(Page créée avec « == Définition == Algorithme et modèle local qui cherche à expliquer la prédiction d’un individu par analyse de son voisinage. == Français == ''' LIME ''' '''expli... ») |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(4 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Algorithme et modèle local qui cherche à expliquer la prédiction | Algorithme et modèle d'apprentissage local qui cherche à expliquer la prédiction d’une donnée par analyse de son voisinage. | ||
== Compléments == | |||
LIME est particulièrement utile pour interpréter les résultats d'algorithmes de type « boîte-noire », car il est: | |||
* Interprétable: LIME fournit une compréhension qualitative entre les variables d’entrée et le résultat. | |||
* Localement simple: Le modèle initial est complexe, LIME donne des réponses localement plus simples. | |||
* Agnostique: LIME est capable d’expliquer n’importe quel modèle d'apprentissage automatique. | |||
== Français == | == Français == | ||
Ligne 12 : | Ligne 22 : | ||
'''Local Interpretable Model-agnostic Explanations''' | '''Local Interpretable Model-agnostic Explanations''' | ||
==Sources== | |||
[https://france.devoteam.com/paroles-dexperts/algorithme-n7-lime-ou-shap/ Source : Devoteam ] | [https://france.devoteam.com/paroles-dexperts/algorithme-n7-lime-ou-shap/ Source : Devoteam ] | ||
[https://www. | [https://www.scor.com/en/download/file?token=def50200e123717b3019f6bb61348780697bc2dd3277aa10d4a6eb919b70c122ff98627d86a406e3916caad9a2b7f2bb9aa64d54703ce0b83407c6eec4b22ee906f21f90c4479c14b6493c4838390114f90d6a7002e84bfb3567ed6e0aee7177745e38790a80e4446c267b40bf0ba151371edad554bc9a4fb0bc0da6de145d741306431a6c Source: Mémoire de l'Institut des actuaires ] | ||
[[Catégorie:ENGLISH]] | |||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 28 janvier 2024 à 10:05
Définition
Algorithme et modèle d'apprentissage local qui cherche à expliquer la prédiction d’une donnée par analyse de son voisinage.
Compléments
LIME est particulièrement utile pour interpréter les résultats d'algorithmes de type « boîte-noire », car il est:
- Interprétable: LIME fournit une compréhension qualitative entre les variables d’entrée et le résultat.
- Localement simple: Le modèle initial est complexe, LIME donne des réponses localement plus simples.
- Agnostique: LIME est capable d’expliquer n’importe quel modèle d'apprentissage automatique.
Français
LIME
explications locales interprétables et agnostiques au modèle
Anglais
LIME
Local Interpretable Model-agnostic Explanations
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki