Intelligence artificielle explicable


Définition

Se dit d'un modèle d’intelligence artificielle qui n'est pas une « boîte noire », c.-à-d. que l'utilisateur peut s'expliquer pourquoi le système d'IA est arrivé à une décision spécifique.

L'IA explicable ou XAI (eXplainable Artificial Intelligence) est une forme d'intelligence artificielle prévue pour décrire son objet, sa logique et sa prise de décision de manière intelligible. Souvent évoquée de pair avec l'apprentissage profond, elle joue un rôle primordial dans le modèle d'apprentissage automatique non discriminatoire, redevable et transparent dit FATML (Fairness, Accountability and Transparency in Machine Learning).

Voir : Transparence et explicabilité.

Français

intelligence artificielle explicable

intelligence artificielle interprétable

intelligence artificielle transparente

Anglais

explainable artificial intelligence

interpretable artificial intelligence

transparent artificial intelligence

explainable AI

XAI

transparent AI


Sources

Source : Wikipedia

Source : TERMIUM Plus

Source: Le MagIt

Source : ciep.fr