« Distillation défensive » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 9 : Ligne 9 :


<small>
<small>
[https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation  Source : DeepAI.org ]
[https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation  Source : DeepAI.org ]


[[Catégorie:DeepAI.org]]
[[Catégorie:DeepAI.org]]
 
[[Catégorie:Publication]]
[[Catégorie:vocabulary]]

Version du 11 novembre 2021 à 11:31

Définition

La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le ¸modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.

Français

distillation défensive

Anglais

defensive distillation

Source : DeepAI.org

Contributeurs: Claire Gorjux, wiki