« Distillation de correspondance de distribution » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Distribution Matching Distillation''' MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) researchers have introduced a new framework that simplifies the multi-step process of traditional diffusion models into a single step, addressing previous limitations. This is done through a type of teacher-student model: teaching a new computer model to m... »)
 
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==en construction==
== en construction ==


== Définition ==
== Définition ==
XXXXXXXXX
La distillation de correspondance de distribution, aussi appelée DMD, est une technique avancée et simplifiée qui accélère le processus de génération d'images de haute qualité par l'intelligence artificielle. Cependant, pour un entraînement stable, elle nécessite un calcul de perte de régression supplémentaire qui est coûteux pour la synthèses texte-image à grande échelle.
 
== Compléments ==
DMD2 est une nouvelle technique de distillation de correspondance de distribution qui améliore l'entraînement de DMD. DMD2 ne requiert pas un calcul de perte de régression pour assurer un entraînement stable. Ceci élimine la collecte de données coûteuse et permet un entraînement plus souple et évolutif.


== Français ==
== Français ==
''' XXXXXXXXX '''
''' distillation de correspondance de distribution'''
 
''' DMD'''


== Anglais ==
== Anglais ==
''' Distribution Matching Distillation'''
''' distribution matching distillation'''
 
MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) researchers have introduced a new framework that simplifies the multi-step process of traditional diffusion models into a single step, addressing previous limitations. This is done through a type of teacher-student model: teaching a new computer model to mimic the behavior of more complicated, original models that generate images. The approach, known as distribution matching distillation (DMD), retains the quality of the generated images and allows for much faster generation.


''' DMD'''


== Source ==
== Source ==


[https://tianweiy.github.io/dmd/ Source : tianweiy]
[https://arxiv.org/abs/2405.14867  Source : arxiv]


[https://tianweiy.github.io/dmd2/  Source : github]




[[Catégorie:vocabulary]]
[[Catégorie:publication]]

Version du 26 septembre 2024 à 21:31

en construction

Définition

La distillation de correspondance de distribution, aussi appelée DMD, est une technique avancée et simplifiée qui accélère le processus de génération d'images de haute qualité par l'intelligence artificielle. Cependant, pour un entraînement stable, elle nécessite un calcul de perte de régression supplémentaire qui est coûteux pour la synthèses texte-image à grande échelle.

Compléments

DMD2 est une nouvelle technique de distillation de correspondance de distribution qui améliore l'entraînement de DMD. DMD2 ne requiert pas un calcul de perte de régression pour assurer un entraînement stable. Ceci élimine la collecte de données coûteuse et permet un entraînement plus souple et évolutif.

Français

distillation de correspondance de distribution

DMD

Anglais

distribution matching distillation

DMD

Source

Source : arxiv

Source : github

Contributeurs: Arianne , wiki