Explicabilité
Définition
D'un point de vue d'ingénierie, caractère de ce qui est explicable. Un algorithme est explicable s’il est possible de rendre compte de ses résultats explicitement à partir des données et attributs d'une situation. Autrement dit, s’il est possible de mettre en relation les données d’une situation et leurs conséquences sur les résultats de l'algorithme (causalité).
D'un point de vue d'IA responsable, l'explicabilité est associée à la notion d'explication en tant qu'interface entre les humains et un décideur qui est, en même temps, une représentation exacte du décideur et compréhensible pour les humains.
Compléments
Attention! En cherchant à expliquer selon une approche causale, c'est à dire des causes vers les effets, l'explicabilité va beaucoup plus loin que l'interprétabilité.
Français
explicabilité
Anglais
explicability
Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.
Source: Le Devoir, Thales : L'importance d'instaurer la confiance en l'IA.
Source : Université de Toulouse
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki