« Distillation défensive » : différence entre les versions
(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Defensive Distillation ''' Defensive distillation is an adversarial... ») |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision. | |||
== Français == | == Français == | ||
''' | '''distillation défensive''' | ||
== Anglais == | == Anglais == | ||
''' | '''defensive distillation''' | ||
<small> | <small> |
Version du 11 novembre 2021 à 11:27
Définition
La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.
Français
distillation défensive
Anglais
defensive distillation
Contributeurs: Claire Gorjux, wiki