Intelligence artificielle explicable
Définition
Se dit d'un modèle d’intelligence artificielle qui n'est pas une « boîte noire », c.-à-d. que l'utilisateur peut s'expliquer pourquoi le système d'IA est arrivé à une décision spécifique.
Compléments
L'IA explicable ou XAI (eXplainable Artificial Intelligence) est une forme d'intelligence artificielle prévue pour décrire son objet, sa logique et sa prise de décision de manière intelligible. Souvent évoquée de pair avec l'apprentissage profond, elle joue un rôle primordial dans le modèle d'apprentissage automatique non discriminatoire, redevable et transparent dit FATML (Fairness, Accountability and Transparency in Machine Learning).
Français
intelligence artificielle explicable
intelligence artificielle interprétable
intelligence artificielle transparente
Anglais
explainable artificial intelligence
interpretable artificial intelligence
transparent artificial intelligence
explainable AI
XAI
transparent AI
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki