« Empoisonnement de modèle » : différence entre les versions


(Page créée avec « ==Définition== L'empoisonnement de modèle est le résultat de l'entraînement d'un modèle sur des données empoisonnées. == Compléments == Voir empoisonnement de données. ==Français== '''empoisonnement de modèle''' ==Anglais== '''model poisoning''' ==Sources== Catégorie:Publication »)
 
Aucun résumé des modifications
 
(5 versions intermédiaires par un autre utilisateur non affichées)
Ligne 11 : Ligne 11 :
'''model poisoning'''
'''model poisoning'''


==Sources==
[https://linc.cnil.fr/petite-taxonomie-des-attaques-des-systemes-dia  ''Petite taxonomie des attaques des systèmes d’IA'', Fabien Valet (2022)]


==Sources==
[https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_FR.html  ''Législation sur l'intelligence artificielle'', Parlement européen (2023)]
 
[https://arxiv.org/abs/2203.08669  ''MPAF: Model Poisoning Attacks to Federated Learning based on Fake Clients'', Cao et Gong (2022)]


[https://www.devron.ai/kbase/model-poisoning  ''What is model poisoning?'', Devron]


[[Catégorie:Publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 20 février 2024 à 19:07

Définition

L'empoisonnement de modèle est le résultat de l'entraînement d'un modèle sur des données empoisonnées.

Compléments

Voir empoisonnement de données.

Français

empoisonnement de modèle

Anglais

model poisoning

Sources

Petite taxonomie des attaques des systèmes d’IA, Fabien Valet (2022)

Législation sur l'intelligence artificielle, Parlement européen (2023)

MPAF: Model Poisoning Attacks to Federated Learning based on Fake Clients, Cao et Gong (2022)

What is model poisoning?, Devron

Contributeurs: Patrick Drouin, wiki