Interprétabilité
Définition
L’interprétabilité désigne un algorithme dont les résultats peuvent être explicitement interprétés à la lumière des données d'entrée et des opérations à accomplir. Un algorithme est interprétable s’il est possible d'identifier, ou mieux de mesurer, les données ou les attributs qui participent le plus aux résultats de l'algorithme.
Compléments
Attention! L’interprétabilité va beaucoup moins loin que l'explicabilité qui cherche à expliquer les causes. Voir explicabilité
Français
interprétabilité
Anglais
interpretability
Source: Claude Coulombe, Datafranca.org
Source: Google machine learning glossary
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche