« Distillation de correspondance de distribution » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Distribution Matching Distillation''' MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) researchers have introduced a new framework that simplifies the multi-step process of traditional diffusion models into a single step, addressing previous limitations. This is done through a type of teacher-student model: teaching a new computer model to m... »)
 
Aucun résumé des modifications
 
(4 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
La distillation de correspondance de distribution, aussi appelée DMD, est une technique avancée et simplifiée qui accélère le processus de génération d'images de haute qualité par l''''[[intelligence artificielle]]'''. Cependant, pour un entraînement stable, elle nécessite un calcul de perte de régression supplémentaire qui est coûteux pour la synthèses texte-image à grande échelle.


== Définition ==
Voir aussi '''[[DMD2]]'''
XXXXXXXXX


== Français ==
== Français ==
''' XXXXXXXXX '''
''' distillation de correspondance de distribution'''
 
''' DMD'''


== Anglais ==
== Anglais ==
''' Distribution Matching Distillation'''
''' distribution matching distillation'''


MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) researchers have introduced a new framework that simplifies the multi-step process of traditional diffusion models into a single step, addressing previous limitations. This is done through a type of teacher-student model: teaching a new computer model to mimic the behavior of more complicated, original models that generate images. The approach, known as distribution matching distillation (DMD), retains the quality of the generated images and allows for much faster generation.
''' DMD'''


== Source ==


== Source ==
[https://arxiv.org/abs/2405.14867  Source : arxiv]


[https://tianweiy.github.io/dmd/ Source : tianweiy]
[https://tianweiy.github.io/dmd2/   Source : github]




[[Catégorie:Intelligence artificielle]]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 22 octobre 2024 à 08:32

Définition

La distillation de correspondance de distribution, aussi appelée DMD, est une technique avancée et simplifiée qui accélère le processus de génération d'images de haute qualité par l'intelligence artificielle. Cependant, pour un entraînement stable, elle nécessite un calcul de perte de régression supplémentaire qui est coûteux pour la synthèses texte-image à grande échelle.

Voir aussi DMD2

Français

distillation de correspondance de distribution

DMD

Anglais

distribution matching distillation

DMD

Source

Source : arxiv

Source : github

Contributeurs: Arianne , wiki