Explicabilité



Définition

Propriété d'un algorithme dont les règles opératoires peuvent être comprises par les humains. En intelligence artificielle, on l'oppose au concept de « boîte noire » qui qualifie souvent les algorithmes dont le comportement ne peut être compris par les humains.

Français

explicabilité n.f.


Anglais

explicability



Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.

Thales : L'importance d'instaurer la confiance en l'IA. Le Devoir. 23 février 2019. Consulté : 2019-04-30. https://www.ledevoir.com/contenu-commandite/548472/thales-l-importance-d-instaurer-la-confiance-en-l-ia

Source : TERMIUM Plus