Interprétabilité
Définition
D'un point de vue d'ingénierie, l'interprétabilité caractérise un algorithme dont les résultats peuvent être explicitement interprétés à la lumière des données d'entrée et des opérations à accomplir. Un algorithme est interprétable s'il est possible d'identifier, ou mieux de mesurer, les données ou les attributs qui participent le plus aux résultats de l'algorithme, voire même d'en quantifier l'importance.
D'un point de vue d'IA responsable, l'interprétabilité se définie comme la capacité d'expliquer ou de fournir le sens en termes compréhensibles pour un humain. compréhensible pour un être humain.
Compléments
L’interprétabilité va moins loin que l'explicabilité qui cherche à expliquer les causes. Voir explicabilité
Les questions d'interprétabilité et d'explicabilité sont particulièrement importantes dans les cas où les algorithmes prennent des décisions qui impliquent des humains dans des domaines comme la médecine, le droit et la finance.
Français
interprétabilité
Anglais
interpretability
Source: Claude Coulombe, Datafranca.org
Source: Google machine learning glossary
Source : Université de Toulouse
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche