« Biais algorithmique » : différence entre les versions


m (Remplacement de texte — « Catégorie:scotty2  » par « <!-- Scotty2 --> »)
m (Remplacement de texte — « Catégorie:Wikipedia-IA » par « <!-- Wikipedia --> »)
Ligne 1 : Ligne 1 :
<!-- Vocabulaire2 -->
<!-- Vocabulaire2 -->
[[Catégorie:Wikipedia-IA]]
<!-- Wikipedia -->
[[Catégorie:Intelligence artificielle]]
[[Catégorie:Intelligence artificielle]]
[[Catégorie:Apprentissage automatique]]
[[Catégorie:Apprentissage automatique]]

Version du 5 juillet 2019 à 12:13


Définition

Un biais algorithmique se produit lorsque les données utilisées pour entraîner un système d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche, les services de réseautage social, le respect de la vie privée, et le profilage racial. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux, malgré la neutralité présumée des données.

Le biais algorithmique n'est pas une volonté réelle du concepteur de l'algorithme de tromper son public. Il est d'autant plus important d'en avoir conscience que l'utilisation d'un algorithme biaisé que l'on suppose objectif peut fortement influencer l'opinion. Cette problématique pose la question du manque de rétrocontrôle des concepteurs d'algorithmes sur leur création déjà soulevée par les ingénieurs des grandes plateformes sur Internet.

Français

biais algorithmique

Anglais

Algorithmic bias


Source : Wikipedia IA

Contributeurs: Evan Brach, Jacques Barolet, wiki