« Distillation des connaissances » : différence entre les versions
(Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Knowledge Distillation''' ''' Model Distillation''' ==Sources== [https://en.wikipedia.org/wiki/Knowledge_distillation#:~:text=In%20machine%20learning%2C%20knowledge%20distillation,might%20not%20be%20fully%20utilized. Source : Wikipédia] Catégorie:vocabulary ») |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
== Définition == | == Définition == | ||
La XXXXXX est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle. | |||
== Français == | == Français == | ||
Ligne 8 : | Ligne 8 : | ||
== Anglais == | == Anglais == | ||
''' | ''' knowledge distillation''' | ||
''' | ''' model distillation''' | ||
''Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.'' | |||
==Sources== | ==Sources== | ||
[https://en.wikipedia.org/wiki/Knowledge_distillation#:~:text=In%20machine%20learning%2C%20knowledge%20distillation,might%20not%20be%20fully%20utilized. Source : Wikipédia] | [https://en.wikipedia.org/wiki/Knowledge_distillation#:~:text=In%20machine%20learning%2C%20knowledge%20distillation,might%20not%20be%20fully%20utilized. Source : Wikipédia] | ||
[https://proceedings.neurips.cc/paper_files/paper/2017/hash/e1e32e235eee1f970470a3a6658dfdd5-Abstract.html Source : Proceeding Neurips] | |||
[https://paperswithcode.com/task/knowledge-distillation Source : Paper with code] | |||
[[Catégorie:vocabulary]] | [[Catégorie:vocabulary]] |
Version du 14 octobre 2024 à 15:46
en construction
Définition
La XXXXXX est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle.
Français
XXXXXX
Anglais
knowledge distillation
model distillation
Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.