Empoisonnement de modèle


Révision datée du 20 février 2024 à 19:07 par Pitpitt (discussion | contributions)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

L'empoisonnement de modèle est le résultat de l'entraînement d'un modèle sur des données empoisonnées.

Compléments

Voir empoisonnement de données.

Français

empoisonnement de modèle

Anglais

model poisoning

Sources

Petite taxonomie des attaques des systèmes d’IA, Fabien Valet (2022)

Législation sur l'intelligence artificielle, Parlement européen (2023)

MPAF: Model Poisoning Attacks to Federated Learning based on Fake Clients, Cao et Gong (2022)

What is model poisoning?, Devron

Contributeurs: Patrick Drouin, wiki