« DMD2 » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(Une version intermédiaire par un autre utilisateur non affichée)
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
== Définition ==
xxxxx
DMD2 est une nouvelle technique de '''[[distillation de correspondance de distribution]]''' qui améliore l'entraînement de DMD. DMD2 ne requiert pas un calcul de perte de régression pour assurer un entraînement stable. Ceci élimine la collecte de données coûteuse et permet un entraînement plus souple et évolutif.


== Français ==
== Français ==
''' XXXXXX'''
''' DMD2'''


== Anglais ==
== Anglais ==
''' DMD2'''
''' DMD2'''


'' It is a set of techniques that achieves state-of-the-art results in one-step image generation by omitting the use of an additional regression loss' limitation, thus improving DMD training.''
''DMD2 is a new distribution matching distillation technique that improves DMD training. DMD2 does not require a regression loss calculation to ensure stable training. This eliminates costly data collection and enables more flexible and scalable training.''


==Sources==
==Sources==
Ligne 17 : Ligne 15 :
[https://tianweiy.github.io/dmd2/  Source : github]
[https://tianweiy.github.io/dmd2/  Source : github]


[[Catégorie:ENGLISH]]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 24 octobre 2024 à 20:19

Définition

DMD2 est une nouvelle technique de distillation de correspondance de distribution qui améliore l'entraînement de DMD. DMD2 ne requiert pas un calcul de perte de régression pour assurer un entraînement stable. Ceci élimine la collecte de données coûteuse et permet un entraînement plus souple et évolutif.

Français

DMD2

Anglais

DMD2

DMD2 is a new distribution matching distillation technique that improves DMD training. DMD2 does not require a regression loss calculation to ensure stable training. This eliminates costly data collection and enables more flexible and scalable training.

Sources

Source : arxiv

Source : github

Contributeurs: Arianne , wiki