Explicabilité
Définition
Propriété d'un algorithme dont les règles opératoires peuvent être comprises par les humains. En intelligence artificielle, on l'oppose au concept de « boîte noire » qui qualifie souvent les algorithmes dont le comportement ne peut être compris par les humains.
Français
explicabilité n.f.
Anglais
explicability
Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.
Source: Le Devoir, Thales : L'importance d'instaurer la confiance en l'IA.
Contributeurs: Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki