« Distillation des connaissances » : différence entre les versions


(Page créée avec « == en construction == == Définition == xxxxx == Français == ''' XXXXXX''' == Anglais == ''' Knowledge Distillation''' ''' Model Distillation''' ==Sources== [https://en.wikipedia.org/wiki/Knowledge_distillation#:~:text=In%20machine%20learning%2C%20knowledge%20distillation,might%20not%20be%20fully%20utilized. Source : Wikipédia] Catégorie:vocabulary »)
 
Aucun résumé des modifications
 
(3 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
== Définition ==
xxxxx
La distillation des connaissances est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle.


== Français ==
== Français ==
''' XXXXXX'''
''' distillation des connaissances'''
 
''' distillation des modèles'''


== Anglais ==
== Anglais ==
''' Knowledge Distillation'''
''' knowledge distillation'''


''' Model Distillation'''
''' model distillation'''


''Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.''


==Sources==
==Sources==
[https://en.wikipedia.org/wiki/Knowledge_distillation#:~:text=In%20machine%20learning%2C%20knowledge%20distillation,might%20not%20be%20fully%20utilized.  Source : Wikipédia]
[https://en.wikipedia.org/wiki/Knowledge_distillation#:~:text=In%20machine%20learning%2C%20knowledge%20distillation,might%20not%20be%20fully%20utilized.  Source : Wikipédia]
[https://proceedings.neurips.cc/paper_files/paper/2017/hash/e1e32e235eee1f970470a3a6658dfdd5-Abstract.html  Source : Proceeding Neurips]
[https://paperswithcode.com/task/knowledge-distillation  Source : Paper with code]




[[Catégorie:vocabulary]]
[[Catégorie:publication]]

Dernière version du 22 octobre 2024 à 10:25

Définition

La distillation des connaissances est le processus qui permet de transférer les connaissances d'un grand modèle à un plus petit modèle sans perte de validité et en conservant la précision lors de la compression du modèle.

Français

distillation des connaissances

distillation des modèles

Anglais

knowledge distillation

model distillation

Knowledge distillation is the process to transfer knowledge from large model to smaller one without loss of validity and retains accuracy with model compression.

Sources

Source : Wikipédia

Source : Proceeding Neurips

Source : Paper with code

Contributeurs: Arianne