« Empoisonnement de données » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(7 versions intermédiaires par un autre utilisateur non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
L'empoisonnement de données consiste à contaminer un ensemble de données d'apprentissage avec des données conçues pour augmenter les erreurs dans les résultats. | L'empoisonnement de données consiste à contaminer un ensemble de données d'apprentissage avec des données conçues pour augmenter les erreurs dans les résultats des algorithmes d'apprentissage. | ||
== Compléments == | == Compléments == | ||
Étant donné que les algorithmes d'apprentissage sont façonnés par les données d'apprentissage, on peut ainsi insérer des pixels dans une image afin que le modèle apprenne une image déformée ou même une image qui cachée dans l'image d'origine. | Étant donné que les algorithmes d'apprentissage sont façonnés par les données d'apprentissage, on peut ainsi insérer des pixels dans une image afin que le modèle apprenne une image déformée ou même une image qui cachée dans l'image d'origine. | ||
En clair, un logiciel (par exemple Nightshade) peut ajouter aux images une couche de données, invisible pour l’œil humain, mais qui va transformer la perception qu’en ont les modèles d’entraînement. | En clair, un logiciel (par exemple ''Nightshade'') peut ajouter aux images une couche de données, invisible pour l’œil humain, mais qui va transformer la perception qu’en ont les modèles d’entraînement. | ||
Il existe deux approches à l'empoisonnement de données, la première est défensive (par exemple celle utilisée par le logiciel Glaze) et consiste à éviter qu'une image soit intégrée à un modèle. Pour ce faire, l'image sera brouillée ou masquée partiellement. La seconde, l'approche offensive, consiste à intégrer une image problématique cachée dans le jeu de données et, par le fait même, dans le modèle qui en résulte (voir [[empoisonnement de modèle]]). | |||
==Français== | ==Français== | ||
Ligne 16 : | Ligne 18 : | ||
==Sources== | ==Sources== | ||
[https://linc.cnil.fr/petite-taxonomie-des-attaques-des-systemes-dia ''Petite taxonomie des attaques des systèmes d’IA'', Fabien Valet (2022)] | |||
[https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_FR.html ''Législation sur l'intelligence artificielle'', Parlement européen (2023)] | |||
[https://www.lemonde.fr/sciences/article/2024/02/13/intelligences-artificielles-les-mille-et-une-facons-de-les-faire-derailler_6216264_1650684.html ''Intelligences artificielles, les mille et une façons de les faire dérailler'', Le Monde] | [https://www.lemonde.fr/sciences/article/2024/02/13/intelligences-artificielles-les-mille-et-une-facons-de-les-faire-derailler_6216264_1650684.html ''Intelligences artificielles, les mille et une façons de les faire dérailler'', Le Monde] | ||
Ligne 22 : | Ligne 27 : | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Dernière version du 20 février 2024 à 19:06
Définition
L'empoisonnement de données consiste à contaminer un ensemble de données d'apprentissage avec des données conçues pour augmenter les erreurs dans les résultats des algorithmes d'apprentissage.
Compléments
Étant donné que les algorithmes d'apprentissage sont façonnés par les données d'apprentissage, on peut ainsi insérer des pixels dans une image afin que le modèle apprenne une image déformée ou même une image qui cachée dans l'image d'origine.
En clair, un logiciel (par exemple Nightshade) peut ajouter aux images une couche de données, invisible pour l’œil humain, mais qui va transformer la perception qu’en ont les modèles d’entraînement.
Il existe deux approches à l'empoisonnement de données, la première est défensive (par exemple celle utilisée par le logiciel Glaze) et consiste à éviter qu'une image soit intégrée à un modèle. Pour ce faire, l'image sera brouillée ou masquée partiellement. La seconde, l'approche offensive, consiste à intégrer une image problématique cachée dans le jeu de données et, par le fait même, dans le modèle qui en résulte (voir empoisonnement de modèle).
Français
empoisonnement de données
Anglais
data poisoning
Sources
Petite taxonomie des attaques des systèmes d’IA, Fabien Valet (2022)
Législation sur l'intelligence artificielle, Parlement européen (2023)
Intelligences artificielles, les mille et une façons de les faire dérailler, Le Monde
Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models, Shan et al. 2024
Contributeurs: Patrick Drouin, wiki