Distillation défensive


Révision datée du 29 janvier 2024 à 11:12 par Pitpitt (discussion | contributions) (Remplacement de texte : « ↵↵↵==Sources== » par «  ==Sources== »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le ¸modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.

Français

distillation défensive

Anglais

defensive distillation

Sources

Source : DeepAI.org

Contributeurs: Claire Gorjux, wiki