« Distillation défensive » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 11 : | Ligne 11 : | ||
[https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation Source : DeepAI.org ] | [https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation Source : DeepAI.org ] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
Version du 11 novembre 2021 à 15:32
Définition
La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le ¸modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.
Français
distillation défensive
Anglais
defensive distillation
Contributeurs: Claire Gorjux, wiki