Apprentissage antagoniste


Révision datée du 11 octobre 2024 à 08:31 par Pitpitt (discussion | contributions)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Technique qui consiste à apprendre à tromper les algorithmes d’apprentissage automatique afin qu’ils fassent de mauvaises prédictions. Elle peut être appliquée pour diverses raisons, la plus courante étant d’attaquer ou de provoquer un dysfonctionnement dans les modèles d’apprentissage automatique standard.

Compléments

Selon Légifrance, l'apprentissage antagoniste consiste à entraîner un modèle à partir d'un jeu de données comprenant des données trompeuses ou ambiguës, de manière qu'il apprenne à discerner de telles données.

1. Les données trompeuses ou ambiguës sont souvent produites par un autre modèle.

2. L'apprentissage antagoniste sert par exemple à améliorer la reconnaissance d'infox vidéo, ou d'images et de textes falsifiés.

Nous ne sommes pas d'accord avec cette définition qui nous semble plutôt un modèle d'identification de données trompeuses, falsifiées ou ambiguës.

Français

apprentissage antagoniste

apprentissage automatique antagoniste

apprentissage automatique contradictoire

Anglais

Adversarial Machine Learning

AML

Sources

Source : Intelligences connectées

Source : Légifrance

Contributeurs: Imane Meziani, Patrick Drouin, wiki