Explicabilité


Définition

D'un point de vue d'ingénierie, caractère de ce qui est explicable. Un algorithme est explicable s’il est possible de rendre compte de ses résultats explicitement à partir des données et attributs d'une situation. Autrement dit, s’il est possible de mettre en relation les données d’une situation et leurs conséquences sur les résultats de l'algorithme (causalité).

D'un point de vue d'IA responsable, l'explicabilité est associée à la notion d'explication en tant qu'interface entre les humains et un décideur qui est, en même temps, une représentation exacte du décideur et compréhensible pour des êtres humains.

Compléments

En cherchant à expliquer selon une approche causale, c'est à dire des causes vers les effets, l'explicabilité va plus loin que l'interprétabilité.


Les notions d'interprétabilité et d'explicabilité sont particulièrement importantes dans les cas où les algorithmes prennent des décisions qui impliquent des êtres humains dans des domaines comme la médecine, le droit et la finance.

Français

explicabilité

Anglais

explicability

Sources

Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.

Source: Le Devoir, Thales : L'importance d'instaurer la confiance en l'IA.

Source: TERMIUM Plus

Source : Université de Toulouse

Source : arviX

Source: Termino



101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »