« LIME » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
(Une version intermédiaire par un autre utilisateur non affichée) | |||
Ligne 4 : | Ligne 4 : | ||
== Compléments == | == Compléments == | ||
LIME est particulièrement | LIME est particulièrement utile pour interpréter les résultats d'algorithmes de type « boîte-noire », car il est: | ||
* Interprétable: LIME fournit une compréhension qualitative entre les variables d’entrée et le résultat. | |||
* Localement simple: Le modèle initial est complexe, LIME donne des réponses localement plus simples. | |||
* Agnostique: LIME est capable d’expliquer n’importe quel modèle d'apprentissage automatique. | |||
== Français == | == Français == | ||
Ligne 16 : | Ligne 22 : | ||
'''Local Interpretable Model-agnostic Explanations''' | '''Local Interpretable Model-agnostic Explanations''' | ||
==Sources== | |||
Dernière version du 28 janvier 2024 à 10:05
Définition
Algorithme et modèle d'apprentissage local qui cherche à expliquer la prédiction d’une donnée par analyse de son voisinage.
Compléments
LIME est particulièrement utile pour interpréter les résultats d'algorithmes de type « boîte-noire », car il est:
- Interprétable: LIME fournit une compréhension qualitative entre les variables d’entrée et le résultat.
- Localement simple: Le modèle initial est complexe, LIME donne des réponses localement plus simples.
- Agnostique: LIME est capable d’expliquer n’importe quel modèle d'apprentissage automatique.
Français
LIME
explications locales interprétables et agnostiques au modèle
Anglais
LIME
Local Interpretable Model-agnostic Explanations
Sources
Contributeurs: Claude Coulombe, Imane Meziani, wiki