« Distillation de correspondance de distribution » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
Ligne 2 : Ligne 2 :
La distillation de correspondance de distribution, aussi appelée DMD, est une technique avancée et simplifiée qui accélère le processus de génération d'images de haute qualité par l''''[[intelligence artificielle]]'''. Cependant, pour un entraînement stable, elle nécessite un calcul de perte de régression supplémentaire qui est coûteux pour la synthèses texte-image à grande échelle.
La distillation de correspondance de distribution, aussi appelée DMD, est une technique avancée et simplifiée qui accélère le processus de génération d'images de haute qualité par l''''[[intelligence artificielle]]'''. Cependant, pour un entraînement stable, elle nécessite un calcul de perte de régression supplémentaire qui est coûteux pour la synthèses texte-image à grande échelle.


== Compléments ==
Voir aussi '''[[DMD2]]'''
DMD2 est une nouvelle technique de distillation de correspondance de distribution qui améliore l'entraînement de DMD. DMD2 ne requiert pas un calcul de perte de régression pour assurer un entraînement stable. Ceci élimine la collecte de données coûteuse et permet un entraînement plus souple et évolutif.


== Français ==
== Français ==

Dernière version du 22 octobre 2024 à 08:32

Définition

La distillation de correspondance de distribution, aussi appelée DMD, est une technique avancée et simplifiée qui accélère le processus de génération d'images de haute qualité par l'intelligence artificielle. Cependant, pour un entraînement stable, elle nécessite un calcul de perte de régression supplémentaire qui est coûteux pour la synthèses texte-image à grande échelle.

Voir aussi DMD2

Français

distillation de correspondance de distribution

DMD

Anglais

distribution matching distillation

DMD

Source

Source : arxiv

Source : github

Contributeurs: Arianne , wiki