« LIME » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(2 versions intermédiaires par un autre utilisateur non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Algorithme et modèle d'apprentissage local qui cherche à expliquer la prédiction d’une donnée par analyse de son voisinage.
Algorithme et modèle d'apprentissage local qui cherche à expliquer la prédiction d’une donnée par analyse de son voisinage.
== Compléments ==
LIME est particulièrement utile pour interpréter les résultats d'algorithmes de type « boîte-noire », car il est:
* Interprétable: LIME fournit une compréhension qualitative entre les variables d’entrée et le résultat.
* Localement simple: Le modèle initial est complexe, LIME donne des réponses localement plus simples.
* Agnostique: LIME est capable d’expliquer n’importe quel modèle d'apprentissage automatique.


== Français ==
== Français ==
Ligne 12 : Ligne 22 :
'''Local Interpretable Model-agnostic Explanations'''
'''Local Interpretable Model-agnostic Explanations'''


<small>
 
==Sources==





Dernière version du 28 janvier 2024 à 11:05

Définition

Algorithme et modèle d'apprentissage local qui cherche à expliquer la prédiction d’une donnée par analyse de son voisinage.

Compléments

LIME est particulièrement utile pour interpréter les résultats d'algorithmes de type « boîte-noire », car il est:

  • Interprétable: LIME fournit une compréhension qualitative entre les variables d’entrée et le résultat.
  • Localement simple: Le modèle initial est complexe, LIME donne des réponses localement plus simples.
  • Agnostique: LIME est capable d’expliquer n’importe quel modèle d'apprentissage automatique.

Français

LIME

explications locales interprétables et agnostiques au modèle

Anglais

LIME

Local Interpretable Model-agnostic Explanations


Sources

Source : Devoteam

Source: Mémoire de l'Institut des actuaires