Explicabilité


Définition

D'un point de vue d'ingénierie, caractère de ce qui est explicable. Un algorithme est explicable s’il est possible de rendre compte de ses résultats explicitement à partir des données et attributs d'une situation. Autrement dit, s’il est possible de mettre en relation les données d’une situation et leurs conséquences sur les résultats de l'algorithme (causalité).

D'un point de vue d'IA responsable, l'explicabilité est associée à la notion d'explication en tant qu'interface entre les humains et un décideur qui est, en même temps, une représentation exacte du décideur et compréhensible pour les humains.


Compléments

Attention! En cherchant à expliquer selon une approche causale, c'est à dire des causes vers les effets, l'explicabilité va beaucoup plus loin que l'interprétabilité.

Français

explicabilité

Anglais

explicability

Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.

Source: Le Devoir, Thales : L'importance d'instaurer la confiance en l'IA.

Source: TERMIUM Plus

Source : Université de Toulouse

Source : arviX

Source: Termino