Explicabilité
Définition
D'un point de vue d'ingénierie, caractère de ce qui est explicable. Un algorithme est explicable s’il est possible de rendre compte de ses résultats explicitement à partir des données et attributs d'une situation. Autrement dit, s’il est possible de mettre en relation les données d’une situation et leurs conséquences sur les résultats de l'algorithme (causalité).
D'un point de vue d'IA responsable, l'explicabilité est associée à la notion d'explication en tant qu'interface entre les humains et un décideur qui est, en même temps, une représentation exacte du décideur et compréhensible pour des êtres humains.
Compléments
En cherchant à expliquer selon une approche causale, c'est à dire des causes vers les effets, l'explicabilité va plus loin que l'interprétabilité.
Les notions d'interprétabilité et d'explicabilité sont particulièrement importantes dans les cas où les algorithmes prennent des décisions qui impliquent des êtres humains dans des domaines comme la médecine, le droit et la finance.
Français
explicabilité
Anglais
explicability
Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.
Source: Le Devoir, Thales : L'importance d'instaurer la confiance en l'IA.
Source : Université de Toulouse
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki