Biais algorithmique


Révision datée du 30 avril 2019 à 19:44 par Pitpitt (discussion | contributions) (Page créée avec « == Domaine == category:Vocabulaire Catégorie:Wikipedia-IA Catégorie:Intelligence artificielle Catégorie:Apprentissage automatique [[Catégorie:scotty]... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Domaine


Définition

Un biais algorithmique se produit lorsque les données utilisées pour entraîner un système d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche, les services de réseautage social, le respect de la vie privée, et le profilage racial. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux, malgré la neutralité présumée des données. Un exemple concret est celui des traducteurs en ligne qui traduisent systématiquement le terme anglais "nurse" (neutre) en "infirmière" (féminin) et le terme "doctor" (neutre) en "docteur" (masculin). L'étude des biais algorithmiques s'intéresse particulièrement aux algorithmes qui reflètent une discrimination « systématique et injuste ».

Le biais algorithmique n'est pas une volonté réelle du concepteur de l'algorithme de tromper son public. Il est d'autant plus important d'en avoir conscience que l'utilisation d'un algorithme biaisé que l'on suppose objectif peut fortement influencer l'opinion. Cette problématique pose la question du manque de rétrocontrôle des concepteurs d'algorithmes sur leur création déjà soulevée par les ingénieurs des grandes plateformes sur Internet8


Français

Biais algorithmique



Anglais

Algorithmic bias



Source : Wikipedia IA

Contributeurs: Evan Brach, Jacques Barolet, wiki