Explicabilité
Définition
Propriété d'un algorithme dont les règles opératoires peuvent être comprises par les humains. En intelligence artificielle, on l'oppose au concept de « boîte noire » qui qualifie souvent les algorithmes dont le comportement ne peut être compris par les humains.
Français
explicabilité n.f.
Anglais
explicability
Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.
ource: Thales : L'importance d'instaurer la confiance en l'IA. Le Devoir. 23 février 2019. Consulté : 2019-04-30. https://www.ledevoir.com/contenu-commandite/548472/thales-l-importance-d-instaurer-la-confiance-en-l-ia
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki