« Distillation défensive » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 9 : | Ligne 9 : | ||
<small> | <small> | ||
[https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation Source : DeepAI.org ] | [https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation Source : DeepAI.org ] | ||
[[Catégorie:DeepAI.org]] | [[Catégorie:DeepAI.org]] | ||
[[Catégorie:Publication]] | |||
[[Catégorie: |
Version du 11 novembre 2021 à 11:31
Définition
La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le ¸modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.
Français
distillation défensive
Anglais
defensive distillation
Contributeurs: Claire Gorjux, wiki