« Attaque adverse » : différence entre les versions
(Page créée avec « ==Définition== Les attaques par entrées malicieuses visent à soumettre des données sournoises ou corrompues à système d'IA en phase de production. == Compléments == Les attaques par entées malicieuses concernent autant les images, les textes ou la voix. Par exemple, on peut vouloir déjouer un système de reconnaissance faciale, On pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par un système de vision d'une voiture auto... ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Les attaques | Les attaques adverses visent à soumettre des données (requêtes) sournoises ou corrompues à système d'IA en phase de production. | ||
== Compléments == | == Compléments == | ||
Les attaques | Les attaques adverses concernent autant les images, les textes ou la voix. | ||
On pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par un système de vision d'une voiture autonome. | |||
Astucieusement manipulé, un robot conversationnel peut déraper, écrire des faussetés et donner accès à des informations autrement interdites. | |||
En échantillonnant et en utilisant un système de [[synthèse vocale]], il est possible de gagner l'accès à un système protégé par une système de [[reconnaissance vocale]]. | |||
Une variante d'attaque adverse consiste en une modification imperceptible de l'entrée d’un algorithme, spécifiquement conçue pour provoquer un dysfonctionnement de celui-ci. | |||
==Français== | ==Français== | ||
'''attaque adverse''' | |||
'''attaque par entrées malicieuses''' | '''attaque par entrées malicieuses''' | ||
Ligne 29 : | Ligne 32 : | ||
[http://dspace.univ-tebessa.dz:8080/xmlui/bitstream/handle/123456789/6960/Attaques%20Adverses%20de%20l%E2%80%99Apprentissage%20Profond%20%20Fonctionnement%20et%20Menace.pdf?sequence=1&isAllowed=y, ''Attaques Adverses de l’Apprentissage Profond : Fonctionnement et Menace'', Maina et Moumen 2021] | [http://dspace.univ-tebessa.dz:8080/xmlui/bitstream/handle/123456789/6960/Attaques%20Adverses%20de%20l%E2%80%99Apprentissage%20Profond%20%20Fonctionnement%20et%20Menace.pdf?sequence=1&isAllowed=y, ''Attaques Adverses de l’Apprentissage Profond : Fonctionnement et Menace'', Maina et Moumen 2021] | ||
[https://theses.hal.science/tel-03121555v1, ''On the impact of randomization on robustness in machine learning'', | [https://theses.hal.science/tel-03121555v1, ''On the impact of randomization on robustness in machine learning'', Pinot 2020] | ||
[[Catégorie:Publication]] | [[Catégorie:Publication]] |
Version du 19 mars 2024 à 14:07
Définition
Les attaques adverses visent à soumettre des données (requêtes) sournoises ou corrompues à système d'IA en phase de production.
Compléments
Les attaques adverses concernent autant les images, les textes ou la voix.
On pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par un système de vision d'une voiture autonome.
Astucieusement manipulé, un robot conversationnel peut déraper, écrire des faussetés et donner accès à des informations autrement interdites.
En échantillonnant et en utilisant un système de synthèse vocale, il est possible de gagner l'accès à un système protégé par une système de reconnaissance vocale.
Une variante d'attaque adverse consiste en une modification imperceptible de l'entrée d’un algorithme, spécifiquement conçue pour provoquer un dysfonctionnement de celui-ci.
Français
attaque adverse
attaque par entrées malicieuses
attaque par exemples contradictoires
Anglais
adversarial attack
Sources
Attaques Adverses de l’Apprentissage Profond : Fonctionnement et Menace, Maina et Moumen 2021
On the impact of randomization on robustness in machine learning, Pinot 2020
Contributeurs: Claude Coulombe, Patrick Drouin, wiki