« Attaque adverse » : différence entre les versions


(Page créée avec « ==Définition== Les attaques par entrées malicieuses visent à soumettre des données sournoises ou corrompues à système d'IA en phase de production. == Compléments == Les attaques par entées malicieuses concernent autant les images, les textes ou la voix. Par exemple, on peut vouloir déjouer un système de reconnaissance faciale, On pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par un système de vision d'une voiture auto... »)
 
m (Remplacement de texte : « Catégorie:101Cyber » par « Catégorie:101Cybersécurité »)
 
(19 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
==[[:Catégorie:Cybersécurité| '''<span style="font-size:24px; color:#54008c;strong">CYBERSÉCURITÉ</span>''']]==
Les attaques par entrées malicieuses visent à soumettre des données sournoises ou corrompues à système d'IA en phase de production.


== Compléments ==
== Définition ==
Les attaques par entées malicieuses concernent autant les images, les textes ou la voix.  
Technique d’attaque visant à tromper un modèle d’intelligence artificielle en introduisant des perturbations délibérées dans les données d’entrée, afin de provoquer des erreurs de classification ou de prédiction.
-----
Les attaques adverses visent à soumettre des données ([[Requête générative|requêtes]]) sournoises ou corrompues à un [[Système d'intelligence artificielle|système d'IA]], typiquement un modèle basé sur un [[réseau de neurones profonds]], en phase de production, pour qu'il se comporte d'une manière fautive.


Par exemple, on peut vouloir déjouer un système de [[reconnaissance faciale]],
Voir aussi [[débridage]] et [[modèle d'intelligence artificielle]]


On pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par un système de vision d'une voiture autonome.  
== Compléments ==
Les attaques adverses concernent autant les images, les textes et la voix. Ainsi, on pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par le système de vision d'un [[véhicule autonome]] et provoquer un accident. De même manière, un individu pourrait porter un masque, un macaron ou une coiffure qui entraverait le fonctionnement d'un système de reconnaissance faciale.  un Astucieusement manipulé, un robot conversationnel peut fabuler, écrire des faussetés ou donner accès à des informations autrement interdites. En exploitant un système de [[synthèse vocale]], il est possible de gagner accès à une ressource protégée par un système de [[reconnaissance vocale]].  


Faire fabuler un grand modèle de langues pour qu'il révèle des informations autrement non accessibles.
<hr/>


Gagner l'accès à un système protégé par une système de [[reconnaissance vocale]].  
Une variante d'attaque adverse consiste en une modification imperceptible de l'entrée d’un algorithme, spécifiquement conçue pour provoquer un dysfonctionnement de celui-ci.


==Français==
==Français==
'''attaque adverse'''
'''attaque par entrées malicieuses'''
'''attaque par entrées malicieuses'''


'''attaque par exemples contradictoires'''
'''attaque par exemples contradictoires'''
'''débridage'''


==Anglais==
==Anglais==
'''adversarial attack'''
'''adversarial attack'''
'''jailbreaking'''


==Sources==  
==Sources==  
Ligne 29 : Ligne 37 :
[http://dspace.univ-tebessa.dz:8080/xmlui/bitstream/handle/123456789/6960/Attaques%20Adverses%20de%20l%E2%80%99Apprentissage%20Profond%20%20Fonctionnement%20et%20Menace.pdf?sequence=1&isAllowed=y, ''Attaques Adverses de l’Apprentissage Profond : Fonctionnement et Menace'', Maina et Moumen 2021]
[http://dspace.univ-tebessa.dz:8080/xmlui/bitstream/handle/123456789/6960/Attaques%20Adverses%20de%20l%E2%80%99Apprentissage%20Profond%20%20Fonctionnement%20et%20Menace.pdf?sequence=1&isAllowed=y, ''Attaques Adverses de l’Apprentissage Profond : Fonctionnement et Menace'', Maina et Moumen 2021]


[https://theses.hal.science/tel-03121555v1, ''On the impact of randomization on robustness in machine learning'', Piot 2020]  
[https://theses.hal.science/tel-03121555v1, ''On the impact of randomization on robustness in machine learning'', Pinot 2020]  
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
 
[[Catégorie:101]]
 
{{Modèle:Cybersecurité1}}


[[Catégorie:Publication]]
[[Catégorie:101Cybersécurité]]
[[Catégorie:Cybersécurité]]

Dernière version du 11 mai 2026 à 21:34

CYBERSÉCURITÉ

Définition

Technique d’attaque visant à tromper un modèle d’intelligence artificielle en introduisant des perturbations délibérées dans les données d’entrée, afin de provoquer des erreurs de classification ou de prédiction.


Les attaques adverses visent à soumettre des données (requêtes) sournoises ou corrompues à un système d'IA, typiquement un modèle basé sur un réseau de neurones profonds, en phase de production, pour qu'il se comporte d'une manière fautive.

Voir aussi débridage et modèle d'intelligence artificielle

Compléments

Les attaques adverses concernent autant les images, les textes et la voix. Ainsi, on pourrait maquiller un arrêt obligatoire pour qu'il ne soit pas reconnu par le système de vision d'un véhicule autonome et provoquer un accident. De même manière, un individu pourrait porter un masque, un macaron ou une coiffure qui entraverait le fonctionnement d'un système de reconnaissance faciale. un Astucieusement manipulé, un robot conversationnel peut fabuler, écrire des faussetés ou donner accès à des informations autrement interdites. En exploitant un système de synthèse vocale, il est possible de gagner accès à une ressource protégée par un système de reconnaissance vocale.


Une variante d'attaque adverse consiste en une modification imperceptible de l'entrée d’un algorithme, spécifiquement conçue pour provoquer un dysfonctionnement de celui-ci.

Français

attaque adverse

attaque par entrées malicieuses

attaque par exemples contradictoires

débridage

Anglais

adversarial attack

jailbreaking

Sources

CNIL

Les scientifiques ont contourné les défenses des chatbots ChatGPT et Bard et les ont forcés à générer des contenus nuisibles, gagadget.com

Attaques Adverses de l’Apprentissage Profond : Fonctionnement et Menace, Maina et Moumen 2021

On the impact of randomization on robustness in machine learning, Pinot 2020

LEXIQUE DE LA CYBERSÉCURITÉ Secu.jpg Cybpro.jpg