« Distillation défensive » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵↵↵==Sources== » par « ==Sources== ») |
||
(3 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 7 : | Ligne 7 : | ||
== Anglais == | == Anglais == | ||
'''defensive distillation''' | '''defensive distillation''' | ||
==Sources== | |||
[https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation Source : DeepAI.org ] | [https://deepai.org/machine-learning-glossary-and-terms/defensive-distillation Source : DeepAI.org ] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 29 janvier 2024 à 11:12
Définition
La distillation défensive est une technique d'entraînement contradictoire qui ajoute de la flexibilité au processus de classification d'un algorithme afin que le ¸modèle soit moins susceptible d'être exploité. Dans la formation par distillation, un modèle est formé pour prédire les probabilités de sortie d'un autre modèle qui a été formé sur une norme antérieure, de base, pour mettre l'accent sur la précision.
Français
distillation défensive
Anglais
defensive distillation
Sources
Contributeurs: Claire Gorjux, wiki