« Distillation des connaissances » : différence entre les versions
m (Arianne a déplacé la page Knowledge Distillation vers Distillation des connaissances) |
Aucun résumé des modifications |
||
(Une version intermédiaire par un autre utilisateur non affichée) | |||
Ligne 4 : | Ligne 4 : | ||
== Français == | == Français == | ||
''' distillation des connaissances''' | ''' distillation des connaissances''' | ||
''' distillation des modèles''' | |||
== Anglais == | == Anglais == | ||
Ligne 19 : | Ligne 21 : | ||
[https://paperswithcode.com/task/knowledge-distillation Source : Paper with code] | [https://paperswithcode.com/task/knowledge-distillation Source : Paper with code] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie: |
Dernière version du 24 octobre 2024 à 20:24
Définition
La distillation des connaissances est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle.
Français
distillation des connaissances
distillation des modèles
Anglais
knowledge distillation
model distillation
Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.