Explicabilité



Définition

Propriété d'un algorithme dont les règles opératoires peuvent être comprises par les humains. En intelligence artificielle, on l'oppose au concept de « boîte noire » qui qualifie souvent les algorithmes dont le comportement ne peut être compris par les humains.

Français

explicabilité n.f.

Anglais

explicability



Source: Villani, Cédric (2018). Donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne, Paris, Collège de France, 235 pages.

Source: Le Devoir, Thales : L'importance d'instaurer la confiance en l'IA.

Source: TERMIUM Plus

Source: Termino