« Interprétabilité » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
L'interprétabilité caractérise un algorithme dont les résultats peuvent être explicitement interprétés à la lumière des données d'entrée et des opérations à accomplir. Un algorithme est interprétable s'il est possible d'identifier, ou mieux de mesurer, les données ou les attributs qui participent le plus aux résultats de l'algorithme.   
D'un point de vue d'ingénierie, l'interprétabilité caractérise un algorithme dont les résultats peuvent être explicitement interprétés à la lumière des données d'entrée et des opérations à accomplir. Un algorithme est interprétable s'il est possible d'identifier, ou mieux de mesurer, les données ou les attributs qui participent le plus aux résultats de l'algorithme, voire même d'en quantifier l'importance.
 
D'un point de vue d'IA responsable, l'interprétabilité se définie comme la capacité d'expliquer ou de fournir le sens en termes compréhensibles pour un humain. compréhensible pour un être humain.   


==Compléments==
==Compléments==
Ligne 19 : Ligne 21 :


[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']
[https://developers.google.com/machine-learning/glossary/ Source: ''Google machine learning glossary'']
[https://perso.math.univ-toulouse.fr/mllaw/home/statisticien/explicabilite-des-decisions-algorithmiques/ Source : Université de Toulouse]
[https://arxiv.org/pdf/1910.10045.pdf Source : arviX]


</small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html>  
</small><br> <div style="border:2px solid #336699; background: #f6f6f6; padding: 1em; margin-bottom:1em; width: 90%;"><html><a href="https://datafranca.org/wiki/Cat%C3%A9gorie:101"><img src="https://datafranca.org/images/icone-101-mots.png" width="250"></a></html>  

Version du 14 février 2023 à 16:02

Définition

D'un point de vue d'ingénierie, l'interprétabilité caractérise un algorithme dont les résultats peuvent être explicitement interprétés à la lumière des données d'entrée et des opérations à accomplir. Un algorithme est interprétable s'il est possible d'identifier, ou mieux de mesurer, les données ou les attributs qui participent le plus aux résultats de l'algorithme, voire même d'en quantifier l'importance.

D'un point de vue d'IA responsable, l'interprétabilité se définie comme la capacité d'expliquer ou de fournir le sens en termes compréhensibles pour un humain. compréhensible pour un être humain.

Compléments

Attention! L’interprétabilité va beaucoup moins loin que l'explicabilité qui cherche à expliquer les causes. Voir explicabilité

Français

interprétabilité

Anglais

interpretability

Source: Claude Coulombe, Datafranca.org

Source: Termino

Source: Google machine learning glossary

Source : Université de Toulouse

Source : arviX