« Interprétabilité » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(43 versions intermédiaires par 5 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | |||
== | D'un point de vue d'ingénierie, l'interprétabilité caractérise un [[algorithme]] dont les résultats peuvent être explicitement interprétés à la lumière des données d'entrée et des opérations à accomplir. Un algorithme est interprétable s'il est possible d'identifier, ou mieux de mesurer, les données ou les attributs qui participent le plus aux résultats de l'algorithme, voire même d'en quantifier l'importance. | ||
[[ | |||
D'un point de vue d'IA responsable, l'interprétabilité se définit comme la capacité d'expliquer ou de fournir le sens en termes compréhensibles pour un être humain. | |||
==Compléments== | |||
L’interprétabilité va moins loin que l'[[explicabilité]] qui souvent cherche les [[causalité|causes]]. | |||
[[ | |||
[[ | |||
<hr/> | |||
Les notions d'interprétabilité et d'explicabilité sont particulièrement importantes dans les cas où les algorithmes prennent des décisions qui impliquent des êtres humains dans des domaines comme la médecine, le droit et la finance. | |||
==Français== | |||
'''interprétabilité''' | |||
== | ==Anglais== | ||
'''interpretability''' | |||
==Sources== | |||
[[Utilisateur:Claude COULOMBE | Source : Claude Coulombe, Datafranca.org]] | |||
[[Utilisateur:Patrickdrouin | Source : Termino]] | |||
[https://developers.google.com/machine-learning/glossary/ Source : ''Google machine learning glossary''] | |||
'' | |||
[https://perso.math.univ-toulouse.fr/mllaw/home/statisticien/explicabilite-des-decisions-algorithmiques/ Source : Université de Toulouse] | |||
[https://arxiv.org/pdf/1910.10045.pdf Source : arviX] | |||
</small><br> {{Modèle:101}}<br> | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Apprentissage profond]] | |||
[[Category:Intelligence artificielle]] | |||
[[Catégorie:101]] | |||
[ | |||
Dernière version du 11 octobre 2024 à 08:32
Définition
D'un point de vue d'ingénierie, l'interprétabilité caractérise un algorithme dont les résultats peuvent être explicitement interprétés à la lumière des données d'entrée et des opérations à accomplir. Un algorithme est interprétable s'il est possible d'identifier, ou mieux de mesurer, les données ou les attributs qui participent le plus aux résultats de l'algorithme, voire même d'en quantifier l'importance.
D'un point de vue d'IA responsable, l'interprétabilité se définit comme la capacité d'expliquer ou de fournir le sens en termes compréhensibles pour un être humain.
Compléments
L’interprétabilité va moins loin que l'explicabilité qui souvent cherche les causes.
Les notions d'interprétabilité et d'explicabilité sont particulièrement importantes dans les cas où les algorithmes prennent des décisions qui impliquent des êtres humains dans des domaines comme la médecine, le droit et la finance.
Français
interprétabilité
Anglais
interpretability
Sources
Source : Claude Coulombe, Datafranca.org
Source : Google machine learning glossary
Source : Université de Toulouse
101 MOTS DE L' IA
Ce terme est sélectionné pour le livre « Les 101 mots de l'intelligence artificielle »
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche