Explicabilité



Définition

Propriété d'un algorithme dont les règles opératoires peuvent être comprises par les humains. En intelligence artificielle, on l'oppose au concept de boîte noire qui qualifie souvent les algorithmes dont le comportement ne peut être compris par les humains.

Français

explicabilité n.f.


Anglais

explicability



Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.

Thales : L'importance d'instaurer la confiance en l'IA. Le Devoir. 23 février 2019. Consulté : 2019-04-30. https://www.ledevoir.com/contenu-commandite/548472/thales-l-importance-d-instaurer-la-confiance-en-l-ia

Source : TERMIUM Plus