« Distillation défensive » : différence entre les versions


m (ClaireGorjux a déplacé la page Defensive Distillation vers Distillation défensive)
m (Remplacement de texte : « ↵↵↵==Sources== » par «  ==Sources== »)
 
(4 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.
La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un [[algorithme]] afin que le ¸[[modèle]] soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.


== Français ==
== Français ==
Ligne 7 : Ligne 7 :
== Anglais ==
== Anglais ==
'''defensive distillation'''
'''defensive distillation'''
 
==Sources==
<small>
 
[https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation  Source : DeepAI.org ]
[https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation  Source : DeepAI.org ]


[[Catégorie:DeepAI.org]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
 
[[Catégorie:vocabulary]]

Dernière version du 29 janvier 2024 à 12:12

Définition

La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le ¸modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.

Français

distillation défensive

Anglais

defensive distillation

Sources

Source : DeepAI.org



Contributeurs: Claire Gorjux, wiki